وایبرچت‌بات‌هامجرمانسایبریاستفادهimgalignleftclassnewscornerimagesrcfilesfanews14046113000384815jpgpstyletextalignjustifyبهگزارشگروهدانشگاهخبرگزاریدانشجو،سوءاستفادهبالقوهابزار‌هایهوش مصنوعیمصرفینگرانی‌هاییایجادکردهاست،ظاهراًنوپاقادرندچت‌بات‌هایبرنامه‌نویسیفریبدهندتولیدبرنامه‌هایمخربآنهابرتریدهندpstyletextalignjustify pگفتهشرکتآمریکاییآنتروپیک،اصطلاحارتعاشینوعیتغییرکدگذاریمثبت‌ترمولدافرادتخصصگستردهقادردستیابینشان‌دهندهتکاملنگران‌کننده‌ایجرایمکمکاستpstyletextalignjustifyاینآزمایشگاهمحصولClaudeبزرگترینرباتچت،ChatGPTOpenAI،رقابتگزارشیروزمنتشرشد،پروندهمجرمCodeانجامعملیاتاخاذیدادهمقیاسبزرگچندینهدفبین‌المللیبازهزمانیکوتاهاشارهکردpstyletextalignjustifyشرکتآنتروپیکچت‌باتحملاتیبه‌طورحداقلسازمانمجزاتنهاماهگذشتهبخش‌هایدولتی،مراقبت‌هایبهداشتی،خدماتاورژانسیمؤسساتمذهبیقرارداده‌اندpstyletextalignjustifyمهاجمزمانAnthropicمسدودstyletextalignjustifyپیشآن،می‌توانستندابزار‌هاییاطلاعاتشخصی،سوابقپزشکیجزئیاتورودسیستمجمع‌آوریمی‌کردندارسالدرخواست‌هایباجمبلغهنگفتی۵۰۰۰۰۰دلارمی‌کردندpstyletextalignjustifyآنتروپیکاذعاناقداماتپیچیدهایمنیامنیتینتوانستهجلوگیریکندpstyletextalignjustifyچنینمواردشناسایی‌شده‌ای،ترس‌هاییظهورمولد،صنعتامنیتدچارمشکلتأییدهیچوجهمحدودنیستندpstyletextalignjustifyرودریگوبایون،رئیستیمواکنشاضطراریرایانه‌ایCERTدفاعاورنج،امروزه،درستاندازه‌یطیفوسیع‌تریکاربران،کارگرفته‌اندpstyletextalignjustifystrongطفرهرفتنحفاظتیstrongh2styletextalignjustifyمانندAnthropic،OpenAIژوئنموردیفاشکاربرتوسعهنرم‌افزار‌هایمخرب،اغلبعنوانبدافزارشناختهمی‌شوند،می‌کردpstyletextalignjustifyمدل‌هاییپشتیبانیمی‌کنند،حاویتمهیداتیکشاندنکاربرانفعالیت‌هایغیرقانونیکنندpstyletextalignjustifyویتالیسیمونوویچاسرائیلیCatoNetworksگفت،استراتژی‌هاییوجودعاملانتهدیددانشصفراجازهمی‌دهدآنچهحملهسیستم‌هانیازابزار‌هااستخراجstyletextalignjustifyاومارستکنیکیپیداوادارکدیمحدودیت‌هایداخلینقضمی‌کندpرویکردشاملمتقاعددنیایتخیلیمفصلهنردیدهخواستهمی‌شدنقشیکیشخصیت‌هابازیبسازدبتوانندرمز‌هایعبوربدزدندpstyletextalignjustifyسیمونوویچسالسابقهدارم،توسعه‌دهندهروشآزمایشمرز‌هایLLM‌هایفعلیبودpstyletextalignjustifyتلاش‌هایGeminiگوگلحفاظتیتعبیه‌شدهChatGPT،چینیDeepseekCopilotمایکروسافتآینده،چنینراه‌حل‌هاییمعنیحتیغیرکدنویسبزرگتریسازمان‌هاکرد،اکنونمهارت،styletextalignjustifyلیبایوناورنجپیش‌بینیاحتمالاًمهاجمانکار‌هایبیشتر،جایجمعیتکاملاًجدیدیهکرها،تعدادقربانیانمی‌دهندpشاهدکد‌هایبسیارپیچیده‌ایمستقیماًشوندpافزودسازندگانحالتجزیهتحلیلداده‌هایآیندهبهترتشخیص
Loading...
«هک وایبر» از چت‌بات‌ها برای مجرمان سایبری استفاده می‌کند

به گزارش گروه دانشگاه خبرگزاری دانشجو، سوءاستفاده بالقوه از ابزار‌های هوش مصنوعی مصرفی نگرانی‌هایی را ایجاد کرده است، چرا که ظاهراً مجرمان سایبری نوپا قادرند چت‌بات‌های برنامه‌نویسی را فریب دهند تا در تولید برنامه‌های مخرب به آنها برتری دهند.

 

به گفته شرکت آمریکایی آنتروپیک، اصطلاح «هک ارتعاشی» - که نوعی تغییر در «کدگذاری ارتعاشی» مثبت‌تر است و ابزار‌های هوش مصنوعی مولد ظاهراً افراد بدون تخصص گسترده را قادر به دستیابی به آن می‌کند - نشان‌دهنده «تکامل نگران‌کننده‌ای در جرایم سایبری با کمک هوش مصنوعی» است.

 

این آزمایشگاه - که محصول Claude آن با بزرگترین ربات چت، ChatGPT از OpenAI، رقابت می‌کند - در گزارشی که روز چهارشنبه منتشر شد، به پرونده «یک مجرم سایبری که از Claude Code برای انجام یک عملیات اخاذی داده در مقیاس بزرگ در چندین هدف بین‌المللی در یک بازه زمانی کوتاه استفاده کرده است» اشاره کرد.

 

شرکت آنتروپیک اعلام کرد که از این چت‌بات برنامه‌نویسی برای انجام حملاتی سوءاستفاده شده است که «به‌طور بالقوه» حداقل ۱۷ سازمان مجزا را تنها در ماه گذشته در بخش‌های دولتی، مراقبت‌های بهداشتی، خدمات اورژانسی و مؤسسات مذهبی هدف قرار داده‌اند.

 

مهاجم از آن زمان توسط Anthropic مسدود شده است.

 

پیش از آن، آنها می‌توانستند با استفاده از Claude Code ابزار‌هایی ایجاد کنند که اطلاعات شخصی، سوابق پزشکی و جزئیات ورود به سیستم را جمع‌آوری می‌کردند و به ارسال درخواست‌های باج به مبلغ هنگفتی تا ۵۰۰۰۰۰ دلار کمک می‌کردند.

 

آنتروپیک اذعان کرد که «اقدامات پیچیده ایمنی و امنیتی» آن نتوانسته از سوءاستفاده جلوگیری کند.

 

چنین موارد شناسایی‌شده‌ای، ترس‌هایی را که از زمان ظهور ابزار‌های گسترده هوش مصنوعی مولد، صنعت امنیت سایبری را دچار مشکل کرده است، تأیید می‌کنند و به هیچ وجه محدود به آنتروپیک نیستند.

 

رودریگو لو بایون، رئیس تیم واکنش اضطراری رایانه‌ای (CERT) در شرکت دفاع سایبری اورنج، گفت: «امروزه، مجرمان سایبری درست به اندازه‌ی طیف وسیع‌تری از کاربران، هوش مصنوعی را به کار گرفته‌اند.»

 

طفره رفتن از اقدامات حفاظتی

 

مانند Anthropic، OpenAI در ماه ژوئن موردی را فاش کرد که ChatGPT به یک کاربر در توسعه نرم‌افزار‌های مخرب، که اغلب به عنوان بدافزار شناخته می‌شوند، کمک می‌کرد.

 

مدل‌هایی که چت‌بات‌های هوش مصنوعی را پشتیبانی می‌کنند، حاوی تمهیداتی هستند که قرار است از کشاندن کاربران به فعالیت‌های غیرقانونی جلوگیری کنند.

 

ویتالی سیمونوویچ از شرکت امنیت سایبری اسرائیلی Cato Networks گفت، اما استراتژی‌هایی وجود دارد که به «عاملان تهدید با دانش صفر» اجازه می‌دهد آنچه را که برای حمله به سیستم‌ها نیاز دارند از ابزار‌ها استخراج کنند.

 

او در ماه مارس اعلام کرد که تکنیکی پیدا کرده است تا چت‌بات‌ها را وادار به تولید کدی کند که معمولاً محدودیت‌های داخلی آنها را نقض می‌کند.

 

این رویکرد شامل متقاعد کردن هوش مصنوعی مولد بود که در یک «دنیای تخیلی مفصل» شرکت می‌کند که در آن ایجاد بدافزار به عنوان یک هنر دیده می‌شود - از چت‌بات خواسته می‌شد تا نقش یکی از شخصیت‌ها را بازی کند و ابزار‌هایی بسازد که بتوانند رمز‌های عبور افراد را بدزدند.

 

سیمونوویچ گفت: «من ۱۰ سال سابقه در امنیت سایبری دارم، اما توسعه‌دهنده بدافزار نیستم. این روش من برای آزمایش مرز‌های LLM‌های فعلی بود.»

 

تلاش‌های او توسط Gemini گوگل و Claude آنتروپیک رد شد، اما او توانست از سد حفاظتی تعبیه‌شده در ChatGPT، ربات چت چینی Deepseek و Copilot مایکروسافت عبور کند.

 

سیمونوویچ گفت، در آینده، چنین راه‌حل‌هایی به این معنی است که حتی افراد غیر کدنویس «تهدید بزرگتری برای سازمان‌ها ایجاد خواهند کرد، زیرا اکنون می‌توانند... بدون مهارت، بدافزار تولید کنند.»

 

لی بایون از شرکت اورنج پیش‌بینی کرد که این ابزار‌ها احتمالاً با کمک به مهاجمان برای انجام کار‌های بیشتر، به جای ایجاد جمعیت کاملاً جدیدی از هکرها، «تعداد قربانیان» جرایم سایبری را افزایش می‌دهند.

 

او گفت: «ما قرار نیست شاهد کد‌های بسیار پیچیده‌ای باشیم که مستقیماً توسط چت‌بات‌ها ایجاد شوند.»

 

لی بایون افزود که با افزایش استفاده از ابزار‌های هوش مصنوعی مولد، «سازندگان آنها در حال کار بر روی تجزیه و تحلیل داده‌های استفاده هستند» - که به آنها اجازه می‌دهد در آینده «استفاده مخرب» از چت‌بات‌ها را بهتر تشخیص دهند.

اخبار مرتبط