«یان لکان»، دانشمند ارشد هوش مصنوعی متا در مصاحبه جدیدی گفته است فکر نمیکند هوش مصنوعی واقعاً در آستانه عبور از هوشمندی انسان باشد و نگرانیهای مربوط به تهدید وجودی این فناوری از نظر او «کاملاً مزخرف» هستند.
به گزارش دیجیاتو، یان لکان، استاد دانشگاه نیویورک، محقق ارشد متا و برنده جایزه معتبر تورینگ، در مصاحبهای با والاستریت ژورنال نظرات خود را بیان کرد و به سؤالاتی درمورد خطرات هوش مصنوعی برای بشریت پاسخ داد.
او درباره خطرات بالقوه هوش مصنوعی برای بشریت گفت: «باید مرا ببخشید، اما این موضوع مزخرف کامل است.»
لکان در استدلال خود میگوید مدلهای زبانی بزرگ امروزی برخی قابلیتهای کلیدی مانند حافظه مداوم، استدلال، برنامهریزی و درک دنیای فیزیکی را ندارد. از نظر او، مدلهای زبانی بزرگ (LLM) صرفاً نشان میدهند «شما میتوانید زبان را دستکاری کنید» و هرگز به هوش جامع مصنوعی (AGI) واقعی منجر نمیشود.
البته اینطور نیست که او کاملاً به دستیابی به AGI بدبین باشد، اما به عقیده دانشمند ارشد متا، برای توسعه آن نیاز به رویکردهای جدید است؛ برای مثال، او به کار روی هضمکردن ویدیوها توسط تیم تحقیقاتی بنیادی هوش مصنوعی خود در متا اشاره کرده است.
نظر متفاوت سایر پیشگامان حوزه هوش مصنوعی
لکان سال ۲۰۱۸ بهخاطر «پیشرفتهای مفهومی و مهندسی که شبکههای عصبی عمیق را به بخش مهمی از محاسبات تبدیل کرده است» همراه «یوشوا بنجیو» و «جفری هینتون» جایزه تورینگ را دریافت کرد.
هفته گذشته، هینتون همراه «جان جی. هاپفیلد» (John J. Hopfield) برای اکتشافات و اختراعات بنیادی در حوزه یادگیری ماشینی، جایزه نوبل فیزیک ۲۰۲۴ را دریافت کرد. پس از این مصاحبه، هینتون که او را «پدرخوانده هوش مصنوعی» مینامند، در مصاحبهای گفته بود با این جایزه، ممکن است مردم نگرانیهایش درباره هوش مصنوعی را بیشتر درک کنند.
هینتون چند ماه قبل گفته بود اکنون که هوش این فناوری بسیار کمتر از انسان است، باید آزمایشهای مختلفی انجام بدهند تا راههایی برای کنترل آن در آینده به وجود بیاید.
«یاشوا بنجیو»، دیگر پدرخوانده هوش مصنوعی، نیز بهتازگی در مصاحبهای اختصاصی با یاهو فاینانس درباره خطرات توسعه بیقاعده این فناوری صحبت کرد و این کار را به ساخت هیولاهایی تشبیه کرد که از انسانها قویتر خواهند بود.
منبع: fararu-787410