«هک وایبر» از چتباتها برای مجرمان سایبری استفاده میکند

به گزارش گروه دانشگاه خبرگزاری دانشجو، سوءاستفاده بالقوه از ابزارهای هوش مصنوعی مصرفی نگرانیهایی را ایجاد کرده است، چرا که ظاهراً مجرمان سایبری نوپا قادرند چتباتهای برنامهنویسی را فریب دهند تا در تولید برنامههای مخرب به آنها برتری دهند.
به گفته شرکت آمریکایی آنتروپیک، اصطلاح «هک ارتعاشی» - که نوعی تغییر در «کدگذاری ارتعاشی» مثبتتر است و ابزارهای هوش مصنوعی مولد ظاهراً افراد بدون تخصص گسترده را قادر به دستیابی به آن میکند - نشاندهنده «تکامل نگرانکنندهای در جرایم سایبری با کمک هوش مصنوعی» است.
این آزمایشگاه - که محصول Claude آن با بزرگترین ربات چت، ChatGPT از OpenAI، رقابت میکند - در گزارشی که روز چهارشنبه منتشر شد، به پرونده «یک مجرم سایبری که از Claude Code برای انجام یک عملیات اخاذی داده در مقیاس بزرگ در چندین هدف بینالمللی در یک بازه زمانی کوتاه استفاده کرده است» اشاره کرد.
شرکت آنتروپیک اعلام کرد که از این چتبات برنامهنویسی برای انجام حملاتی سوءاستفاده شده است که «بهطور بالقوه» حداقل ۱۷ سازمان مجزا را تنها در ماه گذشته در بخشهای دولتی، مراقبتهای بهداشتی، خدمات اورژانسی و مؤسسات مذهبی هدف قرار دادهاند.
مهاجم از آن زمان توسط Anthropic مسدود شده است.
پیش از آن، آنها میتوانستند با استفاده از Claude Code ابزارهایی ایجاد کنند که اطلاعات شخصی، سوابق پزشکی و جزئیات ورود به سیستم را جمعآوری میکردند و به ارسال درخواستهای باج به مبلغ هنگفتی تا ۵۰۰۰۰۰ دلار کمک میکردند.
آنتروپیک اذعان کرد که «اقدامات پیچیده ایمنی و امنیتی» آن نتوانسته از سوءاستفاده جلوگیری کند.
چنین موارد شناساییشدهای، ترسهایی را که از زمان ظهور ابزارهای گسترده هوش مصنوعی مولد، صنعت امنیت سایبری را دچار مشکل کرده است، تأیید میکنند و به هیچ وجه محدود به آنتروپیک نیستند.
رودریگو لو بایون، رئیس تیم واکنش اضطراری رایانهای (CERT) در شرکت دفاع سایبری اورنج، گفت: «امروزه، مجرمان سایبری درست به اندازهی طیف وسیعتری از کاربران، هوش مصنوعی را به کار گرفتهاند.»
طفره رفتن از اقدامات حفاظتی
مانند Anthropic، OpenAI در ماه ژوئن موردی را فاش کرد که ChatGPT به یک کاربر در توسعه نرمافزارهای مخرب، که اغلب به عنوان بدافزار شناخته میشوند، کمک میکرد.
مدلهایی که چتباتهای هوش مصنوعی را پشتیبانی میکنند، حاوی تمهیداتی هستند که قرار است از کشاندن کاربران به فعالیتهای غیرقانونی جلوگیری کنند.
ویتالی سیمونوویچ از شرکت امنیت سایبری اسرائیلی Cato Networks گفت، اما استراتژیهایی وجود دارد که به «عاملان تهدید با دانش صفر» اجازه میدهد آنچه را که برای حمله به سیستمها نیاز دارند از ابزارها استخراج کنند.
او در ماه مارس اعلام کرد که تکنیکی پیدا کرده است تا چتباتها را وادار به تولید کدی کند که معمولاً محدودیتهای داخلی آنها را نقض میکند.
این رویکرد شامل متقاعد کردن هوش مصنوعی مولد بود که در یک «دنیای تخیلی مفصل» شرکت میکند که در آن ایجاد بدافزار به عنوان یک هنر دیده میشود - از چتبات خواسته میشد تا نقش یکی از شخصیتها را بازی کند و ابزارهایی بسازد که بتوانند رمزهای عبور افراد را بدزدند.
سیمونوویچ گفت: «من ۱۰ سال سابقه در امنیت سایبری دارم، اما توسعهدهنده بدافزار نیستم. این روش من برای آزمایش مرزهای LLMهای فعلی بود.»
تلاشهای او توسط Gemini گوگل و Claude آنتروپیک رد شد، اما او توانست از سد حفاظتی تعبیهشده در ChatGPT، ربات چت چینی Deepseek و Copilot مایکروسافت عبور کند.
سیمونوویچ گفت، در آینده، چنین راهحلهایی به این معنی است که حتی افراد غیر کدنویس «تهدید بزرگتری برای سازمانها ایجاد خواهند کرد، زیرا اکنون میتوانند... بدون مهارت، بدافزار تولید کنند.»
لی بایون از شرکت اورنج پیشبینی کرد که این ابزارها احتمالاً با کمک به مهاجمان برای انجام کارهای بیشتر، به جای ایجاد جمعیت کاملاً جدیدی از هکرها، «تعداد قربانیان» جرایم سایبری را افزایش میدهند.
او گفت: «ما قرار نیست شاهد کدهای بسیار پیچیدهای باشیم که مستقیماً توسط چتباتها ایجاد شوند.»
لی بایون افزود که با افزایش استفاده از ابزارهای هوش مصنوعی مولد، «سازندگان آنها در حال کار بر روی تجزیه و تحلیل دادههای استفاده هستند» - که به آنها اجازه میدهد در آینده «استفاده مخرب» از چتباتها را بهتر تشخیص دهند.