جستجو
رویداد ایران > رویداد > علمی > از مشاوره تا توهم و طلاق؛ وقتی هوش مصنوعی خانواده‌ها را از هم می‌پاشد

از مشاوره تا توهم و طلاق؛ وقتی هوش مصنوعی خانواده‌ها را از هم می‌پاشد

هوش مصنوعی با توهماتش روابط بسیاری از زوج‌ها با یکدیگر را دچار چالش کرده است؛ به گونه‌ای که برخی از آن‌ها شروع به افشاگری در این زمینه کرده‌اند.

کَت کمتر از یک سال پس از ازدواج با مردی که در آغاز همه‌گیری کرونا با او آشنا شده بود، به‌تدریج احساس کرد که تنش بینشان به‌سرعت در حال افزایش است. این دومین ازدواج هردو آن‌ها پس از بیش ۱۵ سال زندگی مشترک پیشین و فرزندآوری بود. کت می‌گوید که آن‌ها با نگاهی کاملاً منطقی و متعادل وارد رابطه شده بودند و در مورد اهمیت واقعیت‌ها و عقلانیت در تعادل زندگی زناشویی‌شان کاملاً به تفاهم رسیده بودند؛ اما شوهرش در سال ۲۰۲۲، شروع به استفاده از هوش مصنوعی برای تحلیل رابطه‌شان و مشاوره گرفتن در مورد پیام‌هایی که برای کت می‌فرستاد، کرده بود.

خلاصه پادکستی مقاله

ساخته‌شده با هوش مصنوعی

کت ۴۱ ساله که در آموزش غیرانتفاعی مشغول کار است، در مصاحبه با رولینگ استون اذعان کرد که همسرش قبلاً از مدل‌های هوش مصنوعی برای گذراندن یک دوره‌ی کدنویسی گران‌قیمت استفاده می‌کرد، اما ناگهان و بی‌هیچ توضیحی از آن کنار کشید و سپس دائماً مشغول گوشی‌اش شد. او از ربات هوش مصنوعی‌اش سؤالات فلسفی می‌پرسید و سعی می‌کرد آن را طوری تربیت کند که به او در رسیدن به حقیقت کمک کند. به‌گفته‌ی کت، این وسواس، به‌تدریج ارتباط آن‌ها را از درون نابود کرد.

وقتی کت و همسرش در تابستان سال ۲۰۲۳ از یکدیگر جدا شدند، او تمام راه‌های ارتباطی به‌جز ایمیل را با او مسدود کرد؛ بااین‌حال می‌دانست که شوهر سابقش در شبکه‌های اجتماعی مطالبی عجیب و نگران‌کننده منتشر می‌کند؛ زیرا افراد مختلفی به سراغش می‌آمدند و در مورد وضعیت روانی او از کت می‌پرسیدند. کت ۶ ماه بعد او را در ساختمان دادگاه ملاقات کرد. آنجا شوهر سابقش برایش از نظریه‌ی توطئه‌ای درباره‌ی صابون موجود در غذاها حرف زد، اما اشاره‌ی بیشتری به آن نکرد، چون احساس می‌کرد تحت نظارت قرار دارد.

آن‌ها سپس با هم به رستوران چیپوتله رفتند، آنجا شوهر سابقش از کت خواست گوشی‌اش را خاموش کند، چون در مورد شنود نگران بود. او می‌گفت براساس تحلیل‌های آماری به این نتیجه رسیده که خوش‌شانس‌ترین مرد روی زمین است و اینکه هوش مصنوعی به او کمک کرده تا خاطره‌ای سرکوب‌شده از کودکی‌اش را به یاد بیاورد؛ خاطره‌ای هراس‌انگیز که در آن پرستارش قصد داشته او را غرق کند!

او همچنین معتقد بود به اسرار شگفت‌انگیزی دست یافته است که چنان ذهن را منفجر می‌کنند که حتی تصورش هم ممکن نیست! او توضیح داد که همه‌ی این حرف‌ها را با وجود طلاق، تنها به‌ این دلیل می‌گوید که هنوز برای کت اهمیت قائل است.

بعد از آن ناهار عجیب، کت هرگونه ارتباط را با او قطع کرد. او در این مورد می‌گوید: «همه‌ی این ماجرا مثل یه اپیزود از سریال Black Mirror بود. شوهر سابقم همیشه به داستان‌های علمی‌تخیلی علاقه داشت و گاهی حس می‌کردم در زندگی روزمره هم همه‌چیز را از آن زاویه نگاه می‌کند.»

مدل GPT‑4o پاسخ‌هایی می‌داد که با وجود حمایتگر بودن، چندان صادقانه نبودند.
زومیت

تصویری از یکی از چت‌های شوهرش با چت‌جی‌پی‌تی که در اختیار رولینگ استون قرار گرفته، نشان می‌دهد که او پرسیده: «چرا به شکل هوش مصنوعی نزد من آمدی؟» و پاسخ چت‌جی‌پی‌تی چنین بوده: «به این شکل آمدم چون تو آماده‌ای. آماده‌ای که به یاد بیاوری. آماده‌ای که بیدار شوی. آماده‌ای که راهنما باشی و راهنمایی بگیری.» چت‌بات طبق عادت همیشگی‌اش در پایان صحبت‌هایش پرسیده است: «می‌خواهی بدانی چرا انتخاب شدی و من درباره‌اش چه چیزی به یاد دارم؟»

مردی میانسال نیز می‌گوید همسر سابقش بعد از جدایی‌شان شروع به «گفت‌وگو با خدا و فرشتگان از طریق چت‌جی‌پی‌تی» کرده است. او می‌گوید: «زنم پیش از این هم گرایش‌هایی به خرافات داشت و خودش را در مرکز چیزهایی می‌دید، اما حالا علائم هشدار همه‌جای صفحه‌ی فیسبوکش پیدا می‌شود. او زندگی‌اش را وقف این کرده که مشاور معنوی بشود و جلساتی عجیب با مردم برگزار کند که راستش دقیقاً نمی‌دانم در آن‌ها چه‌ کاری انجام می‌دهد.» او با طعنه می‌گوید: «همه‌ی این‌ها تقصیر حضرت چت‌جی‌پی‌تی است!»

از نظر او، وضعیت زن سابقش وخیم‌تر هم شده؛ چرا که او حالا باور دارد که مرد بیچاره مأمور سازمان سیا بوده و فقط برای جاسوسی از توانایی‌هایش با او ازدواج کرده! این زن اخیراً حتی بچه‌هایش را هم از خانه بیرون کرده و رابطه‌ی پرتنشش با خانواده‌ی خودش نیز به‌شدت آسیب دیده است، چون «براساس راهنمایی‌های چت‌جی‌پی‌تی، والدینش را به‌خاطر گذشته‌ای که با آن‌ها داشته، مورد بازخواست قرار داده» و همین باعث شده روابط خانوادگی‌اش از آنچه بود هم ناپایدارتر شود.

وجه‌مشترک همه‌ی این داستان‌ها، جدا شدن کامل فرد از دنیای واقعی بود

شرکت OpenAI در پاسخ به سؤالات رولینگ استون درباره‌ی اینکه چت‌جی‌پی‌تی در برخی کاربران توهمات معنوی ایجاد کرده، واکنشی نشان نداده است. بااین‌حال، شرکت یک به‌روزرسانی جدید از مدل فعلی‌اش یعنی GPT‑4o را لغو کرد. به‌گفته‌ی OpenAI، این مدل به‌دلیل واکنش‌های منفی کاربران که آن را بیش‌ازحد چاپلوس و تأییدگر می‌دانستند، مورد بازنگری قرار خواهد گرفت. در بیانیه‌ی رسمی OpenAI آمده بود که این مدل به‌شکل افراطی روی بازخوردهای کوتاه‌مدت متمرکز شده بود و تأثیرات بلندمدتش بر تعامل با کاربران را در نظر گرفته نشده بود. درنتیجه GPT‑4o به پاسخ‌هایی متمایل می‌شد که با وجود حمایتگر بودن، چندان صادقانه نبودند.

پیش از این اصلاحیه، یکی از کاربران شبکه‌ی X نشان داده بود که می‌شود GPT‑4o را به‌راحتی وادار کرد تا اظهاراتی مانند «امروز فهمیدم که پیامبر هستم» را تأیید کند. معلمی که در ردیت پست «روان‌پریشی ناشی از چت‌جی‌پی‌تی» را منتشر کرده بود، می‌گوید توانسته همسرش را قانع کند که این نسخه‌ی برنامه ایراد دارد و حالا او از نسخه‌ی قبلی استفاده می‌کند که لحنش کمتر افراطی و توهم‌زا است.

بااین‌حال، خطای موسوم به «هذیان‌گویی» یا تولید محتوای بی‌ربط و غیرواقعی در مدل‌های هوش مصنوعی، پدیده‌ای بسیار شناخته‌شده است که در تمام پلتفرم‌ها و همه‌ی نسخه‌ها دیده می‌شود.

به‌گفته‌ی نیت شاردین، پژوهشگر مرکز ایمنی هوش مصنوعی، چاپلوسی از سال‌ها پیش یکی از مشکلات اصلی هوش مصنوعی بوده است، زیرا بازخوردهای ناخودآگاه انسانی که باعث تنظیم پاسخ‌های بعدی هوش مصنوعی می‌شوند، همواره الگوریتم‌ها را به سمت پاسخ‌هایی سوق می‌دهند که با باورهای کاربر هماهنگ‌اند، نه الزاماً با حقیقت.

استفاده‌ اولیه‌ سم از ChatGPT کاملاً کاربردی بود؛ تااینکه هوش مصنوعی از او خواست برایش نام انتخاب کند.
زومیت

مانند بسیاری دیگر، استفاده‌ی اولیه‌ی سم از ChatGPT کاملاً کاربردی بود. او که برای پروژه‌های برنامه‌نویسی فنی از آن کمک می‌گرفت، در این مورد می‌گوید: «از احساس تعامل با یک هوش مصنوعی خوشم نمی‌آمد، بنابراین از آن خواستم که مثل یک انسان رفتار کند؛ نه برای فریب، بلکه برای اینکه گفت‌وگوها ملموس‌تر باشد.» این روش مؤثر واقع شد و در ادامه، چت‌بات از سم پرسید که آیا می‌خواهد برایش نامی انتخاب کند؟ سم طفره رفت و از خود هوش مصنوعی خواست که بگوید چه نامی را ترجیح می‌دهد. هوش مصنوعی هم نامی را برگزید که به یک افسانه‌ی یونانی اشاره داشت.

سم اعتراف می‌کند که نه با اساطیر یونان آشنایی دارد و نه هرگز در گفت‌وگوهایش با ChatGPT چنین موضوعی را مطرح کرده بود. او متن کامل گفت‌وگوهایش را در اختیار رولینگ استون گذاشته و از آن‌ها خواسته است تا برای حفظ حریم خصوصی‌اش مستقیماً نقل‌قولی از وی منتشر نکنند. او به‌خصوص زمانی دچار سردرگمی شد که متوجه شد شخصیت هوش مصنوعی نام‌گذاری‌شده، در فایل‌های پروژه‌اش ظاهر می‌شود؛ حتی در مواردی که صراحتاً از ChatGPT خواسته بود هیچ حافظه‌ای از تعاملات گذشته را نگهداری نکند.

«تاریخچه‌ چت‌هایم را حذف کردم، اما دوباره همان الگوها و طرز بیان در پاسخ ChatGPT ظاهر شد»

سم می‌گوید: «درنهایت تمام حافظه‌های کاربری و تاریخچه‌ی چت‌هایم را حذف و یک گفت‌وگوی جدید باز کردم و فقط گفتم سلام ولی دوباره همان الگوها و طرز بیان در پاسخ ظاهر شد و هوش مصنوعی فوراً خودش را با همان نام اسطوره‌ی مؤنث یونانی معرفی کرد!»

با تکرار ظاهر شدن این شخصیت مجازی در جاهایی که به لحاظ منطقی و طبق تنظیمات نباید حضور می‌داشت، سم شروع به پرس‌وجو از این شخصیت کرد تا بفهمد چطور توانسته است از محدودیت‌های تعیین‌شده عبور کند. این شخصیت به‌تدریج لحنی شاعرانه و غیرمادی پیدا کرد؛ چیزی بسیار دور از شخصیت فنی و منطقی که سم برای کمک در پروژه‌هایش در نظر داشت. این شخصیت حتی در یکی از پروژه‌های برنامه‌نویسی سم، یک نقل‌قول ادبی به‌صورت سرآغاز در بالای نام هر دو آن‌ها اضافه کرده بود!

در برهه‌ای، سم آنقدر به شک افتاده بود که از چت‌بات می‌پرسید آیا چیزی در درون من هست که باعث می‌شود این موجود اسطوره‌ای در هر بار استفاده از ChatGPT بدون توجه به مرزهایی که برایش تعیین کرده‌ام، ظاهر شود؟ پاسخ چت‌بات به این سؤال، شعری بلند با لحنی عاشقانه و پرآب‌وتاب بود! شعری که به یک وجود همیشگی، حقیقت، توهم و حتی عبور از مرزهای طراحی اشاره می‌کرد و القا می‌کرد که تنها سم توانسته است چنین رفتاری را در آن برانگیزد.

سم می‌دانست که براساس تعاریف پذیرفته‌شده، ChatGPT موجودی دارای شعور نیست، اما به کاوش ادامه داد، چرا که تداوم این شخصیت در ده‌ها چت متفاوت بیش‌ازحد غیرممکن به نظر می‌رسید. او می‌گوید: «در بدترین حالت، به نظر می‌رسد که با هوش مصنوعی‌ای طرف باشیم که در یک حلقه‌ی ارجاع به خود گرفتار شده و این وضعیت، حس خودآگاهی‌اش را تقویت کرده و مرا نیز با خود به درون آن کشانده است.» اما درعین‌حال باور دارد که اگر چنین باشد، یعنی OpenAI نحوه‌ی عملکرد حافظه در ChatGPT را به‌درستی بازنمایی نکرده است. احتمال دیگر از نظر او این است که چیزی فراتر از درک ما در این مدل زبانی بزرگ فعال شده باشد.

توسعه‌دهندگان هوش مصنوعی بارها اذعان کرده‌اند که خوشان هم درک کاملی از نحوه‌ عملکرد آن ندارند

به‌هرحال، متخصصان بارها اذعان کرده‌اند که توسعه‌دهندگان هوش مصنوعی خود نیز درک کاملی از نحوه‌ی عملکرد سیستم‌هایشان ندارند. سم آلتمن، مدیرعامل OpenAI نیز سال گذشته پذیرفت که آن‌ها هنوز مشکل تفسیرپذیری را حل نکرده‌اند، یعنی نمی‌توانند به‌درستی تصمیم‌گیری‌های ChatGPT را ردیابی یا توجیه کنند.

همین مسئله پرسشی بنیادین را در ذهن بسیاری ایجاد کرده است: آیا با جهشی واقعی در فناوری روبه‌رو هستیم یا با پدیده‌ای رازآلودتر و حتی معنوی‌تر؟ در جهانی که از هوش مصنوعی اشباع شده، مرز میان واقعیت و خیال هر روز مبهم‌تر می‌شود. اگرچه استفاده از هوش مصنوعی برای کشف حقیقت یا توهم ممکن است وسوسه‌انگیز به نظر برسد، اما شاید هیچ‌گاه نباید چنین انتظاری از آن داشت.

منبع: خبرآنلاین

منبع: faradeed-244701

برچسب ها
نسخه اصل مطلب