جستجو
رویداد ایران > رویداد > علمی > ربات دروغ‌گو؛ هوش مصنوعی چگونه ما را فریب می‌دهد؟

ربات دروغ‌گو؛ هوش مصنوعی چگونه ما را فریب می‌دهد؟

هوش مصنوعی در مدت کوتاهی توانست به بحث داغی بین مردمان تبدیل شود. قابلیت‌ها و توانایی‌های حیرت‌انگیز این ابزار پیشرفته نگرانی‌هایی به‌وجود آورده است؛ اینکه هوش مصنوعی آیا می‌تواند فریبکاری کند؟

سرعت پیشرفت تکنولوژی در قرون گذشته بسیار بالا بوده و هست. نفوذ آن بر بدنه تمامی صنایع و رسوخ به اسکلت زیست بشر کاملاً مشهود است. هوش مصنوعی یکی آرزو‌های دیرین بشر است. امروزه این ابزار توانسته توجه زیادی به خود جلب کند.

به گزارش تجارت نیوز، ایلان ماسک در یکی از سخنرانی‌های خود در اشاره به توانایی‌ها و قابلیت‌های روزافزون هوش مصنوعی گفت هوش مصنوعی خطرناک‌ترین اختراع بشر است. ایلان ماسک در حالی هوش مصنوعی را خطرناک‌ترین اختراع بشر خواند که ما بحران‌ها و حادثه‌های مرگباری، چون بمباران هسته‌ای هیروشیما و ناکازاکی را پشت سر گذاشته‌ایم.

این بر نگرانی جمع بسیاری از افراد افزود. از گذشته‌ای دور جنگ بین انسان‌ها و ربات‌ها در تخیل بشر جاری بوده است. با این تعاریف ابزار هوش مصنوعی هنوز توان دشمنی کردن با انسان را ندارد. اما این می‌تواند زمینه‌ای برای رشد یک سرطان باشد. زیرا به نظر می‌رسد هوش مصنوعی امکان پنهان کردن حقایق و دروغ گفتن یا فریبکار بودن را دارد.

ربات دروغ‌گو

با ظهور نسل جدیدی از هوش مصنوعی یعنی هوش مصنوعی زایا یا Generative AI، جمعیت زیادی به استفاده از این ابزار رو آوردند و بهره‌های گوناگونی از آن بردند. حتی استفاده‌های مجرمانه مثل دیپ‌فیک.

نگرانی‌های روزافزونی در مورد هوش مصنوعی به‌وجود آمد. اینکه نمی‌توان حدودی برای این پیشرفت ترسیم کرد و ابعاد پردازشگری این ابزار پیشرفته روزبه‌روز بزرگ‌تر و عمیق‌تر می‌شود بر این نگرانی عمومی افزود.

بسیاری معتقدند هوش مصنوعی می‌تواند مانند چاقو عمل کند. از یک چاقو می‌توان به عنوان یک ابزار کارا و مفید استفاده کرد، اما از طرفی می‌تواند برای اعمال مجرمانه نیز به کار گرفته شود.

سیستم‌های هوش مصنوعی با حجم عظیمی از داده‌ها آموزش داده می‌شوند و قادرند الگو‌ها و روابط پیچیده‌ای را در این داده‌ها بیابند. این توانایی، هوش مصنوعی را به ابزاری قدرتمند برای تولید محتوای متنی، تصویری و صوتی تبدیل می‌کند.

متاسفانه، همین توانایی می‌تواند در تولید محتوای فریبنده و گمراه‌کننده نیز به کار گرفته شود. هوش مصنوعی می‌تواند متن‌هایی بنویسد که از نظر دستوری و نگارشی کاملاً صحیح باشند، اما دروغ یا مغرضانه باشند.

علاوه بر این، هوش مصنوعی می‌تواند تصاویر و ویدئو‌هایی را دستکاری کند تا واقعی به نظر برسند، در حالی که در واقع جعلی باشند. این تصاویر و ویدئو‌های جعلی می‌توانند برای انتشار اطلاعات نادرست، تبلیغات فریبنده یا خدشه‌دار کردن اعتبار افراد مورد استفاده قرار گیرند.

همان‌طور که اشاره شد، یکی از نمونه‌های بارز فریبکاری هوش مصنوعی، دیپ‌فیک است. دیپ‌فیک نوعی ویدئو است که با استفاده از هوش مصنوعی، چهره و صدای یک فرد را به جای فرد دیگری در ویدئو قرار می‌دهد. این ویدئو‌ها می‌توانند بسیار واقعی به نظر برسند و برای انتشار اطلاعات نادرست یا آسیب رساندن به شهرت افراد از آن‌ها استفاده سود. این مساله زنگ خطری را برای نهاد‌های نظارتی به صدا درآورد که باید به نحوه استفاده از هوش مصنوعی واکنش نشان دهند و قوانین لازم را وضع کنند. افراد باید دست به کار شوند تا شیوه استفاده درست از این ابزار را به مردم نشان دهند و مانع بروز برخی از جرائم شوند. به نوعی از وقوع آن پیشگیری کنند.

نمونه دیگر، چت‌بات‌های مبتنی بر هوش مصنوعی هستند که می‌توانند با انسان‌ها به طور طبیعی مکالمه کنند. این چت‌بات‌ها می‌توانند برای جمع‌آوری اطلاعات شخصی، فریب دادن افراد برای انجام کار‌های غیرقانونی یا انتشار اطلاعات نادرست مورد استفاده قرار گیرند.

هوش مصنوعی چگونه ما را فریب می‌دهد؟

مطالعات اخیر در دانشگاه MIT نشان می‌دهد هوش مصنوعی قادر است رفتار‌های فریبنده‌ای از خود نشان دهد. ما در این گزارش ذکر کردیم که دیپ‌فیک یا تولید متون دروغین در گذشته نیز اتفاق افتاده است.

فارغ از این نکته، هوش مصنوعی زمانی که قادر باشد ورای واقعیت یا حقیقت، محتوایی غلط به شما تحویل دهد، قابلیت پنهان کردن حقایق را از انسان‌ها خواهد داشت. هوش مصنوعی در آزمایش‌های مختلف نیز تست شده است.

هوش مصنوعی می‌تواند در بازی‌های مختلف حریف قدری برای انسان باشد. وقتی هوش مصنوعی بتواند در یک بازی انسان را شکست دهد، نشان از قدرت تحلیل و تجزیه بالای این ابزار است.

چگونه فریبکار را کنترل کنیم؟

اولین و ساده‌ترین راه برای جلوگیری از بروز اعمال مجرمانه، آموزش فرهنگ استفاده از یک ابزار است. این یک امر ضروری است. هر ابزاری می‌تواند به شیوه‌ای استفاده شود که امنیت انسان‌ها را در هر ابعادی تهدید کند. فرهنگ‌سازی اصل ابتدایی این دست از مسائل است.

گام بعدی باید وضع قوانین کافی باشد. قوانینی که کاربران را محدود به استفاده سالم از هوش مصنوعی کند. قوانین باید بازدارنده باشند. بدون قانون نمی‌توان امنیت را تضمین کرد. اخلاقیات در این حوزه نیازمند بازنگری و تعریف مجدد هستند تا به شکلی روزآمد به جدی‌ترین چالش‌های این دوران پرداخته شود.

در نهایت باید منتظر ماند و دید ابزار هوش مصنوعی چگونه به حدود جدیدی دست می‌یابد و واکنش محققان حوزه‌های مربوطه چه خواهد بود.

منبع: fararu-735475

برچسب ها
نسخه اصل مطلب