حرفهای عجیب و غریب ایلان ماسک درباره هوش مصنوعی رد شد!
به گفته یک مدیر سابق برنامه هوش مصنوعی در گوگل، ادعاهای ایلان ماسک مبنی بر اینکه هوش مصنوعی (AI) «همه ما را خواهد کشت» هنوز مدرکی وجود ندارد. توجو دوک، که نزدیک به یک دهه در گوگل کار کرده است، به سان گفت: «امروز هیچ نشانهای دال بر این ادعا در ارتباط با هوش مصنوعی نمیبینم.»
ایلان ماسک، این میلیاردر عجیب و غریب، منتقد سرسخت هوش مصنوعی است و به صراحت در مورد خطراتی که این هوش مصنوعی ایجاد میکند، حرف میزند. با این حال، شرکت او به نام ایکس ایآی (xAI) ماه گذشته از چتبات خود به نام گروک (Grok) رونمایی کرد.
با وجود این پیشنهاد جدید هوش مصنوعی، ماسک در اجلاس جهانی ایمنی هوش مصنوعی بریتانیا در اوایل نوامبر گفت: «اندکی شانس (کمی بیشتر از صفر) وجود دارد که هوش مصنوعی ما را خواهد کشت. فکر میکنم روند کند است، اما احتمالش وجود دارد.»
خطراتی که ماسک و کارشناسانی مانند دوک در مورد آن صحبت میکنند شامل نقض حقوق بشر، تقویت کلیشههای خطرناک، نقض حریم خصوصی، کپی رایت، اطلاعات غلط و حملات سایبری است. برخی حتی از استفاده بالقوه هوش مصنوعی در تسلیحات زیستی و هستهای میترسند.
دوک میگوید: «هنوز شواهدی مبنی بر وقوع آن وجود ندارد. البته، میتواند خطری بالقوه در آینده باشد.»
او توضیح داد: «تنها چیزی که به نظرم میرسد که مردم را از هوش مصنوعی بترساند، هوش مصنوعی مولد است. آنجا که هوش مصنوعی تواناییهایی از خود نشان بدهد که برایش آموزش ندیده است. این ویژگیها از تعامل هوش مصنوعی با کاربران انسان به وجود میآید و دقیقا توسط سازندگان آن برنامهریزی یا طراحی نشده است.»
دوک افزود: «فکر میکنم ترس از اینجا به وجود میآید، اینکه اگر اینطور ادامه پیدا کند، تا کجا میتواند پیش برود؟»
دوک، که سازمان خود دایورس ایآی (Diverse AI) را برای بهبود تنوع در بخش هوش مصنوعی تاسیس کرد، فکر نمیکند که اگر یک ماشین هوش مصنوعی سرکش شود، انسانها عذری داشته باشند.
او توضیح داد: «در نهایت ما هستیم که آنها را میسازیم. ماییم که این مدلها را آموزش میدهیم... فکر نمیکنم هیچ عذری داشته باشیم. انسانها باید هوش مصنوعی را مانند نحوه تربیت فرزندان خود با سطحی از تربیت علت و معلولی تربیت کنند.»
در غیر این صورت، هوش مصنوعی کارهایی فراتر از آنچه در نظر داریم، انجام میدهد. اگرچه تاثیر وجود یک چارچوب جهانی را که از این طریق هر کشور دارای این تکنولوژی مسئول باشد، نباید نادیده گرفت.
منبع: faradeed-169651