جستجو
رویداد ایران > رویداد > علمی > (تصاویر) تئوری اینترنت مرده: چند درصد از معاشرت‌های آنلاین ما واقعی است؟

(تصاویر) تئوری اینترنت مرده: چند درصد از معاشرت‌های آنلاین ما واقعی است؟

تا چند سال پیش الگوریتم‌ها مردم را وادار می‌کردند مثل ربات‌ها رفتار کنند، اما حالا ربات‌ها مثل انسان‌ها پست می‌گذارند. آیا اینترنت مرده است؟

تصور کنید شبی پس از کارهای روزمره، پیاده به خانه بر می‌گردید: شما در طول خیابانی قدم می‌زنید، اما همه‌ی ویترین‌های اطرافتان مصنوعی هستند. مردمی که از کنارتان رد می‌شوند، مانکن‌هایی متحرک‌اند و صداهایی را می‌شنوید که همه از پیش ضبط شده‌اند.

نه، این یک فیلم نازل علمی‌تخیلی نیست! درواقع تئوری اینترنت مرده (Dead Internet Theory) همین حال‌وهوا را درمورد فضای مجازی امروزی متصور می‌شود؛ دنیایی که در آن بخش اعظم تولید محتوا و تعاملات متقابل توسط هوش مصنوعی و بات‌ها پیش می‌رود و کنترل اینترنت دیگر دست مردم نیست.

ولی شاید واقعیت از این هم نگران‌کننده‌تر باشد.

نمونه بات‌های توییتر (X) که برای یک هدف معین فعالیت می‌کنند

همچنین طبق گزارش‌ها، در سال ۲۰۲۴ بیش از ۵۴ درصد از پست‌های بلند انگلیسی‌زبان لینکدین را هوش مصنوعی نوشته بود. ضمن اینکه این افزایش قابل‌توجه تقریباً از زمان انتشار ابزارهای هوش مصنوعی مانند چت‌چی‌پی‌تی آغاز شده، چنان‌که در این مدت حجم محتوای به اشتراک‌گذاشته در این پلتفرم ۱۸۹ درصد و متوسط طول پست‌ها ۱۰۷ درصد افزایش‌یافته است.

پیرو این جریان‌های سریالی، تعداد زیادی از هنرمندان و نویسندگان شکایت کردند که اینترنت پر شده از تصاویر تولیدشده توسط هوش مصنوعی که هیچ ارزشی جز «جدید بودن» ایجاد نمی‌کنند و همین‌طور محتوای متنی AI که هیچ‌کس واقعاً نمی‌خواهد بخواند.

بیش از ۵۴ درصد از پست‌های بلند لینکدین را در سال ۲۰۲۴ هوش مصنوعی نوشته است

اما اگر این اتفاقات فقط نوک کوه یخ باشند، چه؟ هر روز میلیون‌ها پست، کامنت و لایک توسط شبکه‌ای پیچیده از بات‌ها منتشر می‌شود. این محتوای مصنوعی چنان با محتوای واقعی درهم‌آمیخته که تشخیص مرز بین آن‌ها تقریباً غیرممکن شده و این دقیقاً همان چیزی است که تئوری اینترنت مرده درباره‌اش هشدار می‌دهد: ما دیگر نمی‌دانیم چه چیزی واقعی است و چه چیزی مصنوعی.

مدل‌های پیشرفته‌ای مانند ChatGPT و Gemini اکنون می‌توانند مقالات، پست‌های وبلاگی و حتی کتاب تولید کنند و سیستم‌های آموزشی را به فکر بیندازند که باید با پایان‌نامه‌هایی که با هوش مصنوعی نوشته شده، چه کنند؟

فراتر از متن، مدل‌هایی مانند DALL-E و میدجرنی قادر به تولید تصاویری باورنکردنی هستند. ویدیوهای دیپ‌فیک به‌راحتی باکیفیت بالا تولید می‌شوند و در برخی موارد صدای مصنوعی چنان پیشرفت کرده که نمی‌توان آن را از صدای واقعی تشخیص داد.

از هجوم بات‌های توییتری تا تصاویر بی‌ارزش تولید شده با هوش مصنوعی، محتوا و تعاملات آنلاین امروزی چقدر پایه‌ی واقعی دارند؟

طنز تلخ ماجرا: شاید شما همین حالا از خودتان بپرسید آیا این مطلب را انسانی واقعی نوشته یا هوش مصنوعی و این تردید بهترین گواه بر صحت تئوری اینترنت مرده محسوب می‌شود. (نگران نباشید؛ پشت این مطلب یک نویسنده‌ی واقعی است!)

نکته‌ی تأمل‌برانگیز این بود که منتقدان از همان زمان معرفی این فناوری‌ها پیش‌بینی کردند که انبوهی از محتوای بی‌ارزش تولید شده توسط هوش مصنوعی، اینترنت را پر خواهد کرد. حالا این پیش‌بینی‌ها کم‌کم به واقعیت تبدیل می‌شوند. درست مانند وقتی که توده‌ای عظیم از زباله‌های پلاستیکی روی اقیانس شناور می‌شود، محتوای بی‌ارزش تولید شده توسط هوش مصنوعی نیز در حال بالا آمدن به سطح اینترنت است.

سایه‌ی سنگین بات‌ها: از سیاست تا اقتصاد

الگوریتم‌ها محتوای آنلاین را تنظیم می‌کنند، اتاق‌های پژواکی ایجاد می‌کنند که مانع از قرار گرفتن در معرض دیدگاه‌های مختلف می‌شود و به‌طور بالقوه در خدمت منافع قدرتمند است
Dataconomy

اگر مسیر کنونی ادامه پیدا کند، آینده‌ی اینترنت می‌تواند بسیار متفاوت از چیزی باشد که تیم برنرز لی، مخترع وب جهانی، در ذهن داشت.

هوش مصنوعی در حال تغییر ماهیت تعاملات آنلاین است. چت‌بات‌ها جایگزین پشتیبانی انسانی در بسیاری از وب‌سایت‌ها شده‌اند و گاهی چنان طبیعی صحبت می‌کنند که کسی به ماهیت غیرانسانی آن‌ها شک نمی‌کند. مرز بین تعامل انسانی و مصنوعی هر روز مبهم‌تر می‌شود.

تئوری اینترنت مرده هنوز کاملاً واقعیت ندارد. انسان‌ها همچنان بخش عمده محتوا و مکالمات را در توییتر، ردیت، فیس‌بوک و تیک‌تاک خلق می‌کنند، اما به نظر می‌رسد این نظریه‌ی توطئه می‌تواند روزی به واقعیتی ناخوشایند تبدیل شود.

هوش مصنوعی هنوز نمی‌تواند محتوای واقعاً خوب تولید کند

واقعیت این است که هوش مصنوعی هنوز نمی‌تواند محتوای واقعاً خوب تولید کند، عمدتاً به این دلیل که بستر مفهومی موضوعات و مباحث و جوامع را مثل ما درک نمی‌کند. اکثر پست‌هایی که وایرال می‌شوند، بذله‌گویی‌ها، نکته‌سنجی‌ها، مشاهدات هوشمندانه و بازتعریف وقایع آشنا در پس‌زمینه‌های جدید را هنوز انسان‌ها ارسال می‌کنند.

اینترنت ممکن است کسل‌کننده، ناکارآمد، اسپمی و الگوریتمی به نظر برسد، اما ما تنها در دریایی از NPCهای الکترونیکی شناور نیستیم. به جز بازنشر محتوای تولید شده توسط افراد، ربات‌ها اینترنت را به شیوه‌ای که نظریه پیشنهاد می‌کند هدایت نمی‌کنند: اینفلوئنسرها این کار را انجام می‌دهند و ربات‌ها از آن‌ها پیروی می‌کنند.

بسیاری از نکاتی که در «مرجع اصلی نظریه» آمده، حقیقت دارند و در سال‌های اخیر مرتبط‌تر هم شده‌اند. به‌عنوان‌مثال، الگوریتم‌ها تجربه‌ی مرور وب را به ما دیکته می‌کنند و می‌توانند پست‌های وایرال را ایجاد یا نابود کنند.

پلتفرم‌های اجتماعی دست‌کم روی کاغذ مدعی هستند که با این سوءاستفاده‌ها مقابله می‌کنند. به طور خاص ایلان ماسک گفته بود گزینه‌هایی برای الزام کاربران X به پرداخت حق عضویت بررسی می‌کند تا از این طریق جلوی پیشرفت مزارع بات (Bot Farms) را بگیرد. غول‌های شبکه‌های اجتماعی قادرند حجم زیادی از فعالیت‌های بات‌های شناسایی شده را حذف کنند، البته اگر چنین تصمیمی بگیرند.

حالا صداهای انسانی در میان انبوهی از محتواهای الگوریتمی گم می‌شود

شاید وقتی تیم برنرزلی نارضایتی خود را از وضعیت کنونی وب ابراز می‌کند، به همین آینده فکر می‌کند. اینترنتی که در آن، صداهای انسانی در میان انبوهی از محتوای الگوریتمی گم می‌شوند و تعامل واقعی انسانی حکم کالایی کمیاب را دارد.

مسلماً هنوز چیزهای جالب و مفیدی در فضای آنلاین اتفاق می‌افتد، اما پیداکردن آن‌ها روزبه‌روز دشوارتر می‌شود و روندها به‌سرعت با کمپین‌های بازاریابی درهم می‌آمیزند. نمونه‌های اخیر مانند «لیوان استنلی» و حتی «شیک گریمیس» نشان می‌دهند چگونه مرز بین محتوای ارگانیک و تبلیغات برنامه‌ریزی شده نامرئی می‌شود.

متا، شرکت مادر فیس‌بوک، در گزارش سه‌ماهه‌ی آخر ۲۰۲۳ خود از حذف بیش از یک و نیم میلیارد حساب جعلی خبر داد. این شرکت تشریح کرده بود از سیستم‌های پیشرفته‌ی یادگیری ماشین برای شناسایی الگوهای مشکوک استفاده می‌کند. وقتی حسابی در روز صدها پست منتشر می‌کند یا در ساعات غیرمعمول فعالیت دارد، زنگ خطر سیستم‌ها را به صدا درمی‌آورد. (البته هنوز اقدامات متا در پایان سال ۲۰۲۴ را نمی‌دانیم.)

در برخی موارد شرکت‌ها می‌خواهند از فناوری بلاک‌چین استفاده کنند؛ زیرا این فناوری می‌تواند مانند اثر انگشت دیجیتال عمل کند و اصالت هر محتوا را تضمین کند. سیستم‌های جدید واترمارک نیز به طور خودکار محتوای تولید شده توسط هوش مصنوعی را علامت‌گذاری می‌کنند، تا کاربران بدانند با چه چیزی روبرو هستند.

بات‌های خوب، بات‌های بد

71_11zon
ربات‌ها می‌توانند رفتار انسان را تقلید کنند، محتوا تولید کنند و بر بحث‌ها تأثیر بگذارند، امری که تشخیص انسان و ماشین را دشوار می‌کند
Dataconomy

هنگامی‌که از اصطلاح بات حرف می‌زنیم، دقیقاً به چه پدیده‌ای اشاره داریم؟ بات در واقع برنامه یا کد منفردی نیست که یک نوع کار را انجام بدهد. این اصطلاح تقریباً به هر چیزی اطلاق می‌شود که با کدهای برنامه‌نویسی (از پایتون گرفته تا جاوا، جاوا اسکریپت و دیگر زبان‌ها) توسعه‌یافته و اقداماتی انجام می‌دهد که در وقت مردم صرفه‌جویی می‌کند.

بات‌ها از زمان تولد اینترنت وجود داشته‌اند. به نحوه‌ی کار گوگل فکر کنید: بدون بات‌های خوب مانند وب کراولرها تجربیاتی مثل وب‌گردی وجود نداشت. اما تقریباً از همان سال‌ها بات‌ها بد هم به‌سرعت برای مقاصدی نظیر کلیک‌های تقلبی و سرقت داده تکثیر شدند.

برخلاف انسان‌ها، بات‌ها خستگی‌ناپذیرند و به تعطیلات آخر هفته نیاز ندارند. آن‌ها بسیار سریع یاد می‌گیرند و کارها را با شتاب خیره‌کننده‌ای پیش می‌برند. اما قدرت بات‌ها بد برای اقدام‌های به‌ظاهر عادی و ساده مثل کامنت گذاشتن در وبسایت‌ها، باانگیزه‌های مخرب ورای تصور ما است.

حتی بات‌های خوب هم به‌راحتی در دست افراد سودجو به ابزارهای آسیب‌زا تبدیل می‌شوند

البته بات‌های خوب به‌راحتی در دست افراد سودجو به ابزاری برای آسیب‌های متنوع تبدیل می‌شوند. نمونه‌ی جالب این دوگانگی را در بازار سهام می‌بینیم: الگوریتم‌های معاملاتی خودکار به افزایش نقدینگی و کارایی بازار کمک می‌کنند، اما در سال ۲۰۱۰ به مدت ۳۶ دقیقه باعث سقوط ناگهانی بازار بورس شدند؛ رویدادی که در آن میلیاردها دلار ارزش سهام از دست رفت و مجدداً بازیابی شد.

کدهایی که در ردیف بات‌های بد جای می‌گیرند، همان مواردی هستند که در مراحل قبل از آن‌ها صحبت کردیم: بات‌هایی که تعاملات فیک ایجاد می‌کنند، وظیفه‌ی انتشار دیس‌اینفورمیشن را به عهده دارند، افکار عمومی را دست‌کاری می‌کنند و نهایتاً بات‌هایی که محتوای بی‌ارزش تولید می‌کنند.

تشخیص خوب و بد بودن بات‌ها، عموماً به زمینه‌ی استفاده از آن‌ها بستگی دارد. بات‌های تشخیص محتوای نامناسب یوتیوب از کودکان محافظت می‌کنند، اما همین سیستم‌ها گاهی منجر به حذف محتوای مشروع و سانسور ناخواسته می‌شوند.

درواقع مشکل کلیدی بات‌های خوب هم شفاف نبودن آن‌ها است. وقتی نمی‌دانیم چه زمانی با یک بات تعامل می‌کنیم، وقتی نمی‌توانیم تشخیص دهیم یک پست توسط انسان نوشته شده یا ماشین و وقتی مطمئن نیستیم داده‌های ما چگونه توسط این سیستم‌ها پردازش می‌شوند، احساس ناامنی و بی‌اعتمادی ما افزایش می‌یابد.

اما در این میان چگونه می‌توان به تعادل درست دست‌یافت؟ چگونه می‌توانیم از مزایای اتوماسیون و هوش مصنوعی بهره ببریم بدون اینکه اصالت تعاملات انسانی را قربانی کنیم یا کارایی و شفافیت را هم‌زمان در دست داشته باشیم؟

کلید حل چالش بات‌ها: قانون‌گذاری یا آموزش؟

اتحادیه‌ی اروپا با تصویب قانون خدمات دیجیتال (DSA)، پیشگام مقابله‌ی قانونی با این چالش بود. DSA پلتفرم‌های بزرگ را ملزم به شفاف‌سازی الگوریتم‌ها و برچسب‌گذاری محتوای مصنوعی می‌کرد و جریمه‌های سنگینی نیز برای سوءاستفاده از بات‌ها در تبلیغات و تأثیرگذاری سیاسی در نظر گرفته بود.

همچنین در بسیاری از کشورهای دیگر هم قانون‌گذاران به فکر تدوین مقررات جدیدی برای احراز هویت کاربران در شبکه‌های اجتماعی افتاده‌اند. اما حضور دولت‌ها در این حوزه موافقان و مخالفان زیادی دارد و اغلب فعالین آزادی وب هرگونه تعیین تکلیف‌کردن دولتی را با اصول «حق گمنام ماندن» مغایر می‌دانند.

کاربرانی که نشانه‌های محتوای مصنوعی را تشخیص می‌دهند، کمتر قربانی دست‌کاری‌های آنلاین می‌شوند

بااین‌حال همه‌ روی یک هدف توافق دارند: اینترنت باید دوباره به محلی برای تعاملات انسانی تبدیل شود نه لشکر بات‌ها.

از طرف دیگر نتایج مطالعات نشان می‌دهد آموزش سواد دیجیتال می‌تواند تغییر بزرگی ایجاد کند. کاربرانی که یاد می‌گیرند نشانه‌های محتوای مصنوعی را تشخیص دهند و با چگونگی کار الگوریتم‌های شبکه‌های اجتماعی آشنا می‌شوند، کمتر قربانی دست‌کاری‌های آنلاین می‌شوند.

بات‌ها و الگوریتم‌ها تا کجا فرمانروایی می‌کنند؟

آینده‌ای که داده‌ها ترسیم می‌کنند، پیچیده به‌نظر می‌رسد.

تنها در دو سال گذشته، حجم محتوای هوش مصنوعی ۳۰۰ درصد افزایش‌یافته، اعتماد کاربران به محتوای آنلاین ۴۰ درصد کاهش پیدا کرده و هزینه‌های مقابله با تقلب دیجیتال ۲۰۰ درصد بیشتر شده است. تا پایان سال ۲۰۲۵، احتمالاً سه‌چهارم محتوای آنلاین مصنوعی یا غیرانسانی تولید خواهد شد. هزینه‌ی رفع آسیب‌های وارده و مقابله با این چالش‌ها به ده میلیارد دلار خواهد رسید و تعداد بات‌های پیچیده هر سال ۴۰ درصد افزایش خواهد یافت.

تا پایان سال ۲۰۲۵، احتمالاً سه‌چهارم محتوای آنلاین غیرانسانی تولید خواهد شد

پلتفرم‌های اجتماعی حالا در نقطه‌ای حساس قرار دارند. آن‌ها باید بین رشد و سودآوری از یک سو و حفظ اصالت و اعتماد از سوی دیگر، تعادل ایجاد کنند. درحالی‌که فشار برای افزایش درآمد و تعامل بیشتر نرخی صعودی را تجربه می‌کند، نیاز به فضایی سالم برای ارتباطات انسانی واقعی نیز بیش از همیشه احساس می‌شود.

نظریه اینترنت مرده را در ذهن داشته باشید

نظریه اینترنت مرده واقعاً ادعا نمی‌کند که بیشتر تعاملات شخصی شما در اینترنت جعلی هستند. بااین‌حال ایده‌ی بنیادی تئوری، لنزی جالب برای مشاهده‌ی اینترنت به شمار می‌رود: اینکه وب جهانی دیگر برای انسان‌ها و توسط انسان‌ها خلق نمی‌شود و پدیده‌ای که به نام اینترنت می‌شناختیم و دوست داشتیم، «مرده» است.

آزادی به اشتراک گذاشتن افکارمان در اینترنت و رسانه‌های اجتماعی، این فضا را بسیار قدرتمند کرد و این همان قدرتی است که عوامل بد می‌خواهند کنترلش را در دست خود داشته باشند.

تئوری اینترنت مرده به ما یادآوری می‌کند که شکاک باشیم و در رسانه‌های اجتماعی و سایر وب‌سایت‌ها با ذهنی نقاد حرکت کنیم. هر تعامل، روند و به‌خصوص «حس و نگرش کلی» می‌تواند کاملاً مصنوعی باشد: چیزی که به طور هدفمند طراحی شده تا قدم‌به‌قدم نگاه شما را به جهان تغییر دهد.

منبع: خبرآنلاین

منبع: faradeed-226185

برچسب ها
نسخه اصل مطلب