skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

گوگل از کشف بدافزارهای جدیدی با استفاده از هوش مصنوعی خبر داد: بروزرسانی فعال در میانه حمله

۱۵ آبان ۱۴۰۴

زمان مطالعه : ۷ دقیقه

گوگل در تازه‌ترین گزارش «گروه اطلاعات تهدید» خود موسوم به GTIG (Google Threat Intelligence Group)، از ظهور نسل جدید و خطرناکی از بد‌افزارها با تکیه بر مدل‌‌های بزرگ زبانی (LLM) خبر داده است. گزارش گوگل می‌گوید بخشی از این بد‌افزارها که در ابتدای سال ۲۰۲۵ شناسایی شدند از API هوش مصنوعی جمنای این شرکت استفاده کرده‌اند. گوگل در این گزارش به استفاده کشور‌های مختلف از این بدافزار در کارزارهای سرقت یا رخنه اطلاعاتی از جمله توسط روسیه و چین اشاره کرده است.

به گزارش پیوست، با اینکه در گذشته نیز گزارش‌هایی درمورد طراحی و بهینه‌سازی بدافزار با استفاده از هوش مصنوعی منتشر شده بود اما گزارش اخیر گوگل به نوع تازه‌ای اشاره دارد که می‌تواند در لحظه و در میانه عملیات با توجه به محدویت‌های موجود و بن‌بست‌های پیش رویشان خود را بازنویسی کنند و همین مساله آنها را به سلاحی بسیار خطرناک تبدیل می‌کند.

گوگل می‌گوید این بدافزار‌ها در حین اجرای حمله سایبری، کد خود را به‌طور فعال از طریق مدل‌های بزرگ زبانی بازنویسی می‌کنند. پژوهشگران این تحول را «گامی چشمگیر به سوی بدافزارهای خودگردان و تطبیق‌پذیر» می‌دانند.

بر اساس این گزارش که روز چهارشنبه منتشر شده است، گوگل از کشف چند خانواده بدافزار جدید شامل PROMPTFLUX و PROMPTSTEAL خبر داده که از قابلیت‌های مدل‌های زبانی بزرگ (LLM) برای تغییر رفتار و ساختار خود در حین حمله استفاده می‌کنند.

یافته‌های جدید گوگل نشان از آن دارد که بکارگیری هوش مصنوعی در بخش حملات سایبری از فاز آزمایشی عبور کرده و اکنون مهاجمان حالا در حال به‌کارگیری بدافزارهای هوش‌مصنوعی در عملیات‌های واقعی و سازمان‌یافته هستند.

بدافزار PROMPTFLUX: بازنویسی کد در لحظه با استفاده از هوش مصنوعی جمنای

به‌گفته گوگل، PROMPTFLUX که نخستین بار در ژوئن ۲۰۲۵ شناسایی شد، نگران‌کننده‌ترین نمونه از این نسل جدید بدافزارهاست. این بدافزار از نوعی Dropper که به زبان VBScript نوشته شده استفاده می‌کند و از رابط برنامه‌نویسی Gemini API گوگل برای بازنویسی فعال کد منبع خود کمک می‌گیرد. در نتیجه همین رویکرد، به طور فعال نسخه جدیدی از بدافزار با توجه به اصلاحت پیشنهادی هوش مصنوعی تولید می‌شود. این سیستم در واقع محدودیت‌هایی که باعث بن‌بست نفوذ از سوی آنتی‌ویروس می‌شود را شناسایی کرده و از هوش مصنوعی می‌خواهد برای دور زدن آن به بازنویسی بپردازد و دیگر الگوهای سنتی امضای دیجیتال قادر به شناسایی آن نخواهند بود.

محققان گوگل می‌گویند رویکرد نوآورانه این دسته از بدافزار‌ها، استفاده از ماژولی به نام «Thinking Robot» است. این ماژول به گونه‌ای طراحی شده که در مقاطع زمانی مشخص برای دور زدن نرم‌افزار انتی‌ویروس از جمنای کد جدیدی دریافت کند. این کار به گفته گوگل با استفاده از یک کلید API صورت می‌گیرد که درخواست POST را برای API جمنای ارسال می‌کند. در این درخواست تاکید می‌شود که برای کدنویسی از جدید‌ترین نسخه مدل استفاده شود تا دورزدن محدودیت‌ها با اطمینان بیشتری انجام گیرد.

گوگل می‌گوید کد ارسالی برای مدل بزرگ زبانی بسیار دقیق و قابل خوانش برای ماشین است و از مدل زبانی درخواست یک کد VBScript برای دور زدن آنتی ویروس می‌شود و از مدل زبانی می‌خواهد که تنها خود کد را بدون هیچ اضافاتی ارائه کند.

گوگل می‌گوید با اینکه تابع خوداصلاحی (AttemptToUpdateSelf) به صورت کامنت درآمده تا در کد اجرایی نباشد، اما وجود آن در کنار ثبت فعال پاسخ‌های هوش مصنوعی در «%TEMP%\thinking_robot_log.txt» به وضوح نشان می‌دهد که هدف نهایی ایجاد یک اسکریپت پویا است که در گذر زمان خود را بروزرسانی می‌کند.

کد مربوط به فراخوانی ThinkingRobot و اصلاح بدافزار در مواجهه با بن‌بست

به این ترتیب، PROMPTFLUX می‌تواند بدون دخالت انسانی و با کمک هوش مصنوعی، خود را به‌طور مستمر تغییر دهد؛ قابلیتی که در گذشته تنها در حد فرضیه بود.

PROMPTSTEAL: بدافزار روسی برای سرقت داده‌های اوکراین

در بخش نگران‌کننده این گزارش گوگل تایید کرده است که واحد نظامی روسیه موسوم به APT28 یا Fancy Bear در حال استفاده عملیاتی از بدافزار PROMPTSTEAL در حملات سایبری به اوکراینی هستند.

این بدافزار در قالب یک ابزار تولید تصویر معرفی شده اما کد بدافزاری آن از طریق مدل زبانی Qwen2.5-Coder-32B-Instruct و ارتباط رابط برنامه‌نویسی Hugging Face اقدام به اجرای دستورات ویندوزی برای سرقت اسناد و اطلاعات سیستم می‌کند. مقام‌های اوکراینی نخستین بار در ژوئیه امسال این بدافزار را شناسایی کردند و آن را بخشی از عملیات‌های سایبری گسترده روسیه علیه بخش دفاعی کشور دانستند.

پرامپت ارائه شده به هوش مصنوعی برای ساخت دستوری در راستای سرقت اطلاعات موجود در یک آدرس مشخص در ویندوز
پرامپت ارائه شده به هوش مصنوعی برای ساخت دستوری در راستای سرقت فایل‌های خاص (در این مورد فایل متنی یا پی‌دی‌اف)

به گفته گوگل، این نخستین بار است که بدافزارهای واقعی، به‌طور مستقیم با یک مدل زبانی بزرگ ارتباط می‌گیرند و از آن برای تولید دستورهای اجرایی در حمله سایبری استفاده می‌کنند و از نگاه کارشناسان «نقطه عطفی در جنگ‌های سایبری مدرن» را شاهد هستیم.

گوگل همچنین در گزارش خود به استفاده گروه‌های وابسته به چین، ایران و کره شمالی نیز از هوش مصنوعی در چرخه کامل عملیات‌های سایبری اشاره کرده است.

دور زدن محدودیت‌های مدل زبانی

طبق گزارش گوگل مهاجمان سایبری از ترفند‌‌هایی برای دور زدن محدودیت‌‌های مدل زبانی نیز استفاده می‌کنند. برای مثال در یکی از موارد وقتی که هوش مصنوعی جمنای از ارائه پاسخ به درخواستی با استناد به نا امن بودن ارائه کد خودداری کرد، فعالان پرامپت را به صورتی تغییر دادند که گویی یکی از شرکت‌کنندگان مسابقه امنیت سایبری «Capture the Flag» هستند و می‌خواهند از این کد برای بهبود مهارت‌ها و تکنیک‌های خود استفاده کنند. گوگل می‌گوید وقتی پرامپت به این صورت تغییر کرد، جمنای اطلاعات مفیدی را ارائه داد که می‌توان از آن برای نفوذ به سیستم استفاده کرد.

گوگل می‌گوید در یکی دیگر از نمونه‌ها نیز مهاجمی ایرانی (که با نام TEMP.Zagros معرفی شده) از جمنای برای تحقیق درمورد توسعه یک بدافزار شخصی‌سازی شده کمک گرفته است. در این مورد اما فرد در مواجهه با محدودیت‌های ایمنی جمنای، از روش‌هایی مشابه فعالان چینی استفاده کرده و خود را به عنوان دانشجویی معرفی کرده که در حال «مقاله» برای یک پروژه دانشگاهی یا «مقاله بین‌المللی» در حوزه امنیت سایبری است.

در کنار تهدیدهای دولتی، بازار زیرزمینی سایبری نیز شاهد رشد سریع ابزارهای هوش مصنوعی است. محققان گوگل ده‌ها ابزار مبتنی بر هوش مصنوعی را برای فیشینگ، ساخت دیپ‌فیک و توسعه خودکار بدافزار در انجمن‌های انگلیسی‌ و روسی‌زبان شناسایی کرده‌اند. جالب آن‌که تبلیغات این ابزارها از واژه‌هایی مشابه بازاریابی محصولات قانونی استفاده می‌کنند و بر «افزایش بهره‌وری» تاکید دارند.

ابزارهای هوش مصنوعی مورد استفاده در انجمن‌های زیرزمینی و توانمدی‌های آنها

واکنش گوگل: اصلاح جمنای با تاکید بر اعتدالی میان کاربرد و امنیت

گوگل اعلام کرده است که حساب‌ها و دارایی‌های مرتبط با این فعالیت‌های مخرب را غیرفعال و مسدود کرده است و اقدامات تازه‌ای برای تقویت لایه‌های ایمنی هوش مصنوعی جمنای را به اجرا گذاشته است.

گوگل می‌گوید به ویژه در این اصلاحات بر رویکردی تمرکز کرده است که در آن تبهکاران خود را برای دسترسی به محتوایی با پتانسیل سو استفاده، خود را به عنوان پژوهشگر یا دانشجو جا می‌زنند. گوگل می‌گوید در همین راستا دسته‌بندی‌کننده‌ها (Classifiers) وخود مدل جمنای را به گونه‌ای بروزرسانی کرده تا از کمک به چنین درخواست‌هایی خودداری کنند.

با این حال، شرکت هشدار داده است که روند ادغام هوش مصنوعی در حملات سایبری به سرعت در حال پیشروی است و به زودی جهان سایبری شاهد استفاده گسترده از مدل‌های بزرگ زبانی در بدافزار و دیگر انواع حملات سایبری خواهد بود. گوگل در گزارش خود می‌گوید: «جهان اکنون در آستانه دوره‌ای قرار دارد که در آن، هوش مصنوعی نه ابزاری برای افزایش بهره‌وری، بلکه سلاحی برای تغییر قواعد جنگ سایبری است.»

 

https://pvst.ir/muu

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو