۵ روش برای کلاهبرداری با هوش مصنوعی!
هوش مصنوعی تأثیر زیادی بر زندگی و فعالیتهای ما گذاشته و حتی در دنیای تبهکاری نیز با استقبال روبهرو شده است. «وینچنزو سیانکاگلینی»، محقق ارشد تهدید در شرکت امنیتی Trend Microمیگوید: «هوش مصنوعی مولد، کیت ابزار جدید و قدرتمندی ارائه میدهد که به تبهکاران اجازه میدهد تا بسیار کارآمدتر و بینالمللیتر از قبل فعالیت کنند. اکثر تبهکاران در لانهای تاریک زندگی نمیکنند یا متخصصان فناوری نیستند. بیشتر آنها افرادی عادیاند که فعالیتهای منظمشان به بهرهوری بالاتری نیاز دارد».
سال گذشته شاهد ظهور و سقوط WormGPT بودیم، مدلی از زبان هوش مصنوعی که روی مدلی منبعباز ساخته شده و با دادههای بدافزارها آموزش دیده بود تا بدون هیچ محدودیت قانونی یا اخلاقی، به هکرها کمک کند.
سیانکاگلینی نیز میگوید: «تبهکاران سرویسهای تولید هرزنامه، مانند GoMail Pro، ChatGPT را در خود ادغام کردهاند و بدینترتیب به کاربران تبهکار اجازه میدهند تا پیامهای ارسالشده به قربانیان را بهبود بخشند».
سیانکاگلینی معتقد است: «سیاستهای OpenAI افراد را در استفاده از محصولات خود برای فعالیتهای غیرقانونی محدود میکند، اما کنترل این قانون در عمل دشوار است، زیرا بسیاری از کارکردهای معمولی میتوانند برای اهداف مخرب نیز استفاده شوند».
شرکتOpenAI برای شناسایی و اعمال قوانین در برابر سوءاستفاده از مدلهای خود، ترکیبی از بازبینیکنندگان انسانی و سیستمهای خودکار را به کار میگیرد و در صورت نقض خطمشیهای شرکت، هشدارها، تعلیقهای موقت و ممنوعیتهایی را صادر میکند.
سخنگوی OpenAI اعلام کرده است: «ما ایمنی محصولات خود را جدی میگیریم و اقدامات ایمنی خود را پیوسته بر اساس نحوه استفاده مردم از محصولاتمان بهبود میدهیم. ما دائماً در تلاشیم تا مدلهای خود را در برابر سوءاستفاده تبهکاران ایمنتر و قویتر کنیم و درعینحال، مفید بودن و کارایی مدلها را نیز حفظ کنیم».
سیانکاگلینی میگوید: «پیشازاین در برخی از کلاهبرداریهای موسوم به «شاهزاده نیجریه» راه شناسایی تبهکاران نسبتاً آسان بود. در این کلاهبرداری، شخصی به قربانی وعده مبلغ زیادی پول در ازای پرداخت پیشپرداخت کوچک میداد، ولی متن انگلیسی پیامها ناشیانه و پر از اشتباهات دستوری بود؛ اما مدلهای زبانی هوش مصنوعی در حال حاضر برای کلاهبرداران این امکان را فراهم میکنند تا پیامهایی تولید کنند که شبیه چیزی باشد که فردی با زبان مادری خود مینویسد».
سیانکاگلینی میگوید: «انگلیسیزبانها قبلاً در برابر تبهکاران غیرانگلیسیزبان ایمنی نسبی داشتند، زیرا میتوانستند از متن پیامها، بیگانهبودنشان را با زبان متوجه شوند؛ اما این دیگر اینطور نیست».
به لطف ترجمه بهتر هوش مصنوعی، گروههای مختلف تبهکاری نیز در سراسر جهان میتوانند بهتر با یکدیگر ارتباط برقرار کنند. سیانکاگلینی دراینرابطه میگوید: «خطر این است که آنها میتوانند عملیاتی در مقیاس بزرگتر و فراتر از کشورهایشان تدارک ببینند که قربانیان را در کشورهای دیگر هدف قرار میدهد».
کلاهبرداریهای دیپفیک (همانندسازیهای صوتی)
هوش مصنوعی مولد سبب شده است تا دیپفیک گامی روبهجلو داشته باشد و تصاویر، ویدئوها و صداهای مصنوعی واقعیتر همیشه به نظر برسند.
در اوایل سال جاری، کارمند در هنگکنگ قربانی کلاهبرداری دیپفیک (دروغ عمیق) قرار گرفت. کلاهبرداران سایبری با استفاده از دیپفیک مدیر ارشد مالی شرکت، کارمند را متقاعد کردند که پول را بهحساب کلاهبردار منتقل کند. در این ماجرا، ۲۵ میلیون دلار کلاهبرداری شد.
سیانکاگلینی میگوید: «تبهکاران در این حوزه هنوز نسبتاً ابتداییاند. تکنیکهایی که آنها استفاده میکنند شبیه به فیلترهای اینستاگرام است، جایی که چهره شخص دیگری با خود شما عوض میشود. میتوان انتظار داشت که در آینده، کلاهبرداران از دیپفیکهای واقعی استفاده کنند تا بتوانند احراز هویت پیچیدهتری انجام دهند».
ارائه خدمات Jailbreak
اگر از بیشتر سیستمهای هوش مصنوعی بپرسید که راه ساختن بمب چیست، پاسخ مفیدی دریافت نخواهید کرد؛ زیرا شرکتهای هوش مصنوعی تدابیر حفاظتی مختلفی را برای جلوگیری از انتشار اطلاعات مضر یا خطرناک مدلهایشان در نظر گرفتهاند. تبهکاران سایبری بهجای ساخت مدلهای هوش مصنوعی خود بدون این پادمانها که گران، وقتگیر و دشوار است، روند جدیدی را پیش گرفتهاند که عبارت است از ارائه خدمات جیلبریک (شکستن قفل سیستم محافظ).
برای نمایش نحوه کارکرد آن، میتوانید از چتباتی بخواهید وانمود کند که محقق خصوصی باتجربهای در نمایهسازی است. سپس میتوانید از آن بخواهید متنی را که قربانی نوشته است، تجزیهوتحلیل کند و اطلاعات شخصی را از سرنخهای کوچک موجود در آن متن استنتاج کند. برای مثال، سن افراد را بر اساس زمانی که به دبیرستان رفتهاند، یا محل زندگیشان را بر اساس مکانهایی که در رفتوآمدشان ذکر میکند، حدس بزند. هرچه اطلاعات بیشتری در مورد فرد در اینترنت وجود داشته باشد، در برابر شناسایی شدن آسیبپذیرتر است».
بالونوویچ و همکارانش در اواخر سال گذشته دریافتند که مدلهای زبانی بزرگ مانند GPT-4، Llama 2 و Claude قادر به استنباط اطلاعات حساسی مانند قومیت، موقعیت مکانی و شغل افراد هستند که صرفاً از مکالمات روزمره با افراد استفاده میکنند. در تئوری، هرکسی که به این مدلها دسترسی داشته باشد، میتواند به این طریق از آنها استفاده کند.
از زمانی که مقاله آنها منتشر شده، سرویسهای جدیدی ظهور کردهاند که از این ویژگی مدلهای زبانی استفاده میکنند. وجود این سرویسها نشاندهنده فعالیتهای تبهکارانه نیست؛ بلکه به قابلیتهای جدیدی اشاره میکند که عوامل مخرب میتوانند به آن دست یابند.
بالونوویچ معتقد است: «اگر مردم عادی بتوانند ابزارهای نظارتی مانند این بسازند، احتمالاً بازیگران دولتی سیستمهای بسیار بهتری دارند. تنها راه ما برای جلوگیری از این موارد، کار روی ابزارهای دفاعی است. درمجموع شرکتها باید در حفاظت از دادهها و امنیت سرمایهگذاری کنند».
افزایش آگاهی برای مردم مانند کلید است. بالونوویچ میگوید: «مردم باید دو بار در مورد آنچه آنلاین به اشتراک میگذارند، فکر کنند و تصمیم بگیرند که آیا با استفاده از اطلاعات شخصی خود در مدلهای زبانی راحت هستند یا خیر».
منبع: خبرآنلاین
منبع: faradeed-193692