جستجو
رویداد ایران > رویداد > علمی > ۵ روش برای کلاهبرداری با هوش مصنوعی!

۵ روش برای کلاهبرداری با هوش مصنوعی!

هوش مصنوعی تأثیر زیادی بر زندگی و فعالیت‌های ما گذاشته و حتی در دنیای تبهکاری نیز با استقبال روبه‌رو شده است. کلاهبرداران و تبهکاران با بهره‌گیری از هوش مصنوعی مولد، حملات فیشینگ، دیپ‌فیک، جعل هویت، جیل‌بریک، داکسینگ و دور زدن نظارت را راحت‌تر انجام می‌دهند.

هوش مصنوعی تأثیر زیادی بر زندگی و فعالیت‌های ما گذاشته و حتی در دنیای تبهکاری نیز با استقبال روبه‌رو شده است. «وینچنزو سیانکاگلینی»، محقق ارشد تهدید در شرکت امنیتی Trend Microمی‌گوید: «هوش مصنوعی مولد، کیت ابزار جدید و قدرتمندی ارائه می‌دهد که به تبهکاران اجازه می‌دهد تا بسیار کارآمدتر و بین‌المللی‌تر از قبل فعالیت کنند. اکثر تبهکاران در لانه‌ای تاریک زندگی نمی‌کنند یا متخصصان فناوری نیستند. بیشتر آن‌ها افرادی عادی‌اند که فعالیت‌های منظم‌شان به بهره‌وری بالاتری نیاز دارد».

سال گذشته شاهد ظهور و سقوط WormGPT بودیم، مدلی از زبان هوش مصنوعی که روی مدلی منبع‌باز ساخته شده و با داده‌های بدافزارها آموزش دیده بود تا بدون هیچ محدودیت قانونی یا اخلاقی، به هکرها کمک کند.

سیانکاگلینی نیز می‌گوید: «تبهکاران سرویس‌های تولید هرزنامه، مانند GoMail Pro، ChatGPT را در خود ادغام کرده‌اند و بدین‌ترتیب به کاربران تبهکار اجازه می‌دهند تا پیام‌های ارسال‌شده به قربانیان را بهبود بخشند».

سیانکاگلینی معتقد است: «سیاست‌های OpenAI افراد را در استفاده از محصولات خود برای فعالیت‌های غیرقانونی محدود می‌کند، اما کنترل این قانون در عمل دشوار است، زیرا بسیاری از کارکردهای معمولی می‌توانند برای اهداف مخرب نیز استفاده شوند».

شرکتOpenAI برای شناسایی و اعمال قوانین در برابر سوءاستفاده از مدل‌های خود، ترکیبی از بازبینی‌کنندگان انسانی و سیستم‌های خودکار را به کار می‌گیرد و در صورت نقض خط‌مشی‌های شرکت، هشدارها، تعلیق‌های موقت و ممنوعیت‌هایی را صادر می‌کند.

سخنگوی OpenAI اعلام کرده است: «ما ایمنی محصولات خود را جدی می‌گیریم و اقدامات ایمنی خود را پیوسته بر اساس نحوه استفاده مردم از محصولاتمان بهبود می‌دهیم. ما دائماً در تلاشیم تا مدل‌های خود را در برابر سوءاستفاده تبهکاران ایمن‌تر و قوی‌تر کنیم و درعین‌حال، مفید بودن و کارایی مدل‌ها را نیز حفظ کنیم».

سیانکاگلینی می‌گوید: «پیش‌ازاین در برخی از کلاهبرداری‌های موسوم به «شاهزاده نیجریه» راه شناسایی تبهکاران نسبتاً آسان بود. در این کلاهبرداری، شخصی به قربانی وعده مبلغ زیادی پول در ازای پرداخت پیش‌پرداخت کوچک می‌داد، ولی متن انگلیسی پیام‌ها ناشیانه و پر از اشتباهات دستوری بود؛ اما مدل‌های زبانی هوش مصنوعی در حال حاضر برای کلاهبرداران این امکان را فراهم می‌کنند تا پیام‌هایی تولید کنند که شبیه چیزی باشد که فردی با زبان مادری خود می‌نویسد».

سیانکاگلینی می‌گوید: «انگلیسی‌زبان‌ها قبلاً در برابر تبهکاران غیرانگلیسی‌زبان ایمنی نسبی داشتند، زیرا می‌توانستند از متن پیام‌ها، بیگانه‌بودن‌شان را با زبان متوجه شوند؛ اما این دیگر این‌طور نیست».

به لطف ترجمه بهتر هوش مصنوعی، گروه‌های مختلف تبهکاری نیز در سراسر جهان می‌توانند بهتر با یکدیگر ارتباط برقرار کنند. سیانکاگلینی دراین‌رابطه می‌گوید: «خطر این است که آن‌ها می‌توانند عملیاتی در مقیاس بزرگ‌تر و فراتر از کشورهایشان تدارک ببینند که قربانیان را در کشورهای دیگر هدف قرار می‌دهد».

کلاهبرداری‌های دیپ‌فیک (همانندسازی‌های صوتی)

هوش مصنوعی مولد سبب شده است تا دیپ‌فیک گامی روبه‌جلو داشته باشد و تصاویر، ویدئوها و صداهای مصنوعی واقعی‌تر همیشه به نظر برسند.

در اوایل سال جاری، کارمند در هنگ‌کنگ قربانی کلاهبرداری دیپ‌فیک (دروغ عمیق) قرار گرفت. کلاهبرداران سایبری با استفاده از دیپ‌فیک مدیر ارشد مالی شرکت، کارمند را متقاعد کردند که پول را به‌حساب کلاهبردار منتقل کند. در این ماجرا، ۲۵ میلیون دلار کلاهبرداری شد.

سیانکاگلینی می‌گوید: «تبهکاران در این حوزه هنوز نسبتاً ابتدایی‌اند. تکنیک‌هایی که آن‌ها استفاده می‌کنند شبیه به فیلترهای اینستاگرام است، جایی که چهره شخص دیگری با خود شما عوض می‌شود. می‌توان انتظار داشت که در آینده، کلاهبرداران از دیپ‌فیک‌های واقعی استفاده کنند تا بتوانند احراز هویت پیچیده‌تری انجام دهند».

ارائه خدمات Jailbreak

اگر از بیشتر سیستم‌های هوش مصنوعی بپرسید که راه ساختن بمب چیست، پاسخ مفیدی دریافت نخواهید کرد؛ زیرا شرکت‌های هوش مصنوعی تدابیر حفاظتی مختلفی را برای جلوگیری از انتشار اطلاعات مضر یا خطرناک مدل‌هایشان در نظر گرفته‌اند. تبهکاران سایبری به‌جای ساخت مدل‌های هوش مصنوعی خود بدون این پادمان‌ها که گران، وقت‌گیر و دشوار است، روند جدیدی را پیش گرفته‌اند که عبارت است از ارائه خدمات جیل‌بریک (شکستن قفل سیستم محافظ).

برای نمایش نحوه کارکرد آن، می‌توانید از چت‌باتی بخواهید وانمود کند که محقق خصوصی باتجربه‌ای در نمایه‌سازی است. سپس می‌توانید از آن بخواهید متنی را که قربانی نوشته است، تجزیه‌وتحلیل کند و اطلاعات شخصی را از سرنخ‌های کوچک موجود در آن متن استنتاج کند. برای مثال، سن افراد را بر اساس زمانی که به دبیرستان رفته‌اند، یا محل زندگی‌شان را بر اساس مکان‌هایی که در رفت‌وآمدشان ذکر می‌کند، حدس بزند. هرچه اطلاعات بیشتری در مورد فرد در اینترنت وجود داشته باشد، در برابر شناسایی شدن آسیب‌پذیرتر است».

بالونوویچ و همکارانش در اواخر سال گذشته دریافتند که مدل‌های زبانی بزرگ مانند GPT-4، Llama 2 و Claude قادر به استنباط اطلاعات حساسی مانند قومیت، موقعیت مکانی و شغل افراد هستند که صرفاً از مکالمات روزمره با افراد استفاده می‌کنند. در تئوری، هرکسی که به این مدل‌ها دسترسی داشته باشد، می‌تواند به این طریق از آن‌ها استفاده کند.

از زمانی که مقاله آن‌ها منتشر شده، سرویس‌های جدیدی ظهور کرده‌اند که از این ویژگی مدل‌های زبانی استفاده می‌کنند. وجود این سرویس‌ها نشان‌دهنده فعالیت‌های تبهکارانه نیست؛ بلکه به قابلیت‌های جدیدی اشاره می‌کند که عوامل مخرب می‌توانند به آن دست یابند.

بالونوویچ معتقد است: «اگر مردم عادی بتوانند ابزارهای نظارتی مانند این بسازند، احتمالاً بازیگران دولتی سیستم‌های بسیار بهتری دارند. تنها راه ما برای جلوگیری از این موارد، کار روی ابزارهای دفاعی است. درمجموع شرکت‌ها باید در حفاظت از داده‌ها و امنیت سرمایه‌گذاری کنند».

افزایش آگاهی برای مردم مانند کلید است. بالونوویچ می‌گوید: «مردم باید دو بار در مورد آنچه آنلاین به اشتراک می‌گذارند، فکر کنند و تصمیم بگیرند که آیا با استفاده از اطلاعات شخصی خود در مدل‌های زبانی راحت هستند یا خیر».

منبع: خبرآنلاین

منبع: faradeed-193692

برچسب ها
نسخه اصل مطلب