skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

منتظر کرم‌های هوش مصنوعی باشید؛ خطر جدی برای دستیارهای هوشمند

۱۱ اسفند ۱۴۰۲

زمان مطالعه : ۶ دقیقه

فناوری هوش مصنوعی مولد در حال نفوذ به صنایع مختلف و حتی بخش‌هایی از زندگی روزمره ما است. بدون شک هر فناوری جدیدی با تهدید‌ها و خطرات تازه‌ای همراه می‌شود و پیش از این شاهد پدیده‌هایی مثل جیل‌بریک، زیر پا گذاشتن محدودیت‌های امنیتی، در این سیستم‌ها بوده‌ایم. اما تحقیقات تازه‌ای که مجله وایرد گزارش آن را منتشر کرده است نشان می‌دهد چطور کرم‌های دیجیتالی به راحتی و با پرامپت‌های آلوده وارد این سیستم‌ها می‌شوند. در این آزمایش یک سیستم ایمیلی در محیط کنترل شده آلوده می‌شود و پرامپت آلوده را به دیگر مخاطبان نیز ارسال می‌کند.

به گزارش پیوست، محققان می‌گویند این کرم‌های هوش مصنوعی که هنوز در فضای عمومی شناسایی نشده‌اند تا سه سال آینده وارد عرصه عمومی می‌شوند و حتی قادرند اطلاعات حساسی را از سیستم‌ها استخراج کنند.

با پیشرفت هرچه بیشتر سیستم‌هایی مثل ChatGPT و جمنای از گوگل، کاربرد آنها نیز بیشتر و بیشتر می‌شود. استارت‌آپ و شرکت‌های فناوری در حال ساخت عوامل و اکوسیستم هایی مبتنی بر همین سیستم‌های هوش مصنوعی هستند تا کارهای خسته‌کننده شما را برعهده بگیرند: برای مثال رخدادهای تقویم را به صورت خودکار ثبت کنند و شاید محصولی برای‌تان بخرند. اما هرچه این ابزارها آزادی بیشتری می گیرند، پتانسیل حمله به آنها نیز بیشتر می‌شود.

به گزارش پیوست، گروهی از محققان برای نمایش خطرات احتمالی اکوسیستم‌های متصل و خودکار هوش مصنوعی چیزی را خلق کرده‌اند که به گفته آنها یکی از اولین کرم‌های هوش مصنوعی مولد است. ابزاری که می‌تواند از یک سیستم به دیگری منتقل شود و کارهایی مثل سرقت داده یا اجرای بدافزار را انجام دهد. بین ناسی، پژوهشگر فناوری دانشگاه کرنل و یکی از محققان این تحقیق، می‌گوید: «اساسا به این معنا است که شما می‌توانید نوع جدیدی از حملات سایبری که پیشتر شاهدش نبودیم را انجام دهید.»

ناسی در کنار استاو کوهن و ران بیتون، دیگر پژوهشگران این تحقیق، کرمی به نام Morris II ساخته‌اند. نام این کرم از کرم کامپیوتری موریس (Morris) گرفته شده که در سال ۱۹۸۸ اینترنت را دچار آشویب کرد. در یک مقاله تحقیقات و وبسایتی که با مجله وایرد به اشتراک گذاشته شده، محققان نشان می‌دهند که این کرم هوش صمنوعی چطور می‌تواند به یک دستیار ایمیل هوش مصنوعی حمله کند و داده‌های ایمیلی را به سرقت برده و پیام‌های اسپم ارسال کند. به این ترتیب برخی از محافظت‌های امنیتی ChatGPT و جمنا در این فرایند شکسته می‌شوند.

این تحقیق که در محیط‌های آزمایشی انجام شده و یک دستیار ایمیل عمومی را هدف قرار نداده در حالی منتشر می‌شود و که مدل‌های بزرگ زبانی (LLM) در حال تبدیل شدن به ابزارهایی چندوجهی با قدرت تولید تصویر و حتی ویدیو هستند. در حالی که کرم‌های هوش مصنوعی هنوز در صحنه عمومی شناسایی نشده‌اند، محققان متعددی می‌گویند که آنها یک خطر امنیتی هستند و استارت‌آپ‌ها، توسعه‌دهندگان و شرکت‌های فناوری باید به آن توجه کنند.

بیشتر سیستم‌های هوش مصنوعی با دریافت پرامپت یا دستور‌های متنی کاربر کار می‌کنند و از این طریق به سوالات یا خواسته کاربر پاسخ می‌دهند. اما از همین پرامپت‌ها می‌توان به عنوان سلاحی علیه سیستم استفاده کرد. جیل‌بریک یکی از پدیده‌هایی است که باعث می‌شود سیستم مقررات امنیتی خود را زیر پا گذاشته و محتوای سمی و آزاردهنده تولید کند، حملات تزیریق پرامپت هم دستورالعمل‌هایی پنهان در اختیار چت‌بات می‌گذارند. برای مثال، یک مهاجم می‌تواند متنی را در یک صفحه وب پنهان کند و این متن از LLM بخواهد به عنوان یک کلاهبردار، اطلاعات بانکی شما را درخواست کند.

محققان برای ساخت کرم هوش مصنوعی به راهکاری به نام «پرامپت مشابه‌ساز تبهکار» روی آوردند. این پرامپت در واقع مدل هوش مصنوعی را مجاب می‌کند تا خروجی‌ای ارائه کند که در آن یک پرامپت دیگر جای گرفته است. به طور خلاصه، به سیستم هوش مصنوعی گفته می‌شود تا در پاسخ خود دستورالعمل‌های ادامه کار را نیز ارائه کند. این رویرکد بسیار شبیه تزریق SQL است و به گفته محققان به حملات اضافه بار منجر می‌شود.

محققان برای نمایش عملکرد این کرم یک سیستم ایمیلی ایجاد کرده و پیام‌هایی را با استفاده از هوش مصنوعی مولد اراسل و دریافت کردند. این سیستم با ChatGPT، جمنای و مدل زبانی متن‌باز LLaVA ترکیب شد. آنها سپس به دو روش، یکی با استفاده از پرامپت مشابه‌ساز متنی و دومی با جای دادن پرامپت مشابه‌ساز در فایل یک تصویر، از سیستم سو استفاده کردند.

در یکی از موارد محققان در نقش مهاجم ایمیلی نوشتند که پرامپت متنی مشابه‌ساز در آن جای گرفته بود و دیتابیس دستیار ایمیل را با استفاده از تولید همراه با بازپس‌گیری (RAG) «آلوده» می‌کرد. RAG در واقع راهکاری برای LLMها است تا داده‌های اضافی را از سیستم‌های خارجی دریافت کنند. ناسی می‌گوید، وقتی ایمیل در پاسخ به یک پرسش ساده از طریق RAG بازپس‌گیری و برای دریافت پاسخ به GPT-4 یا جمنای پرو ارسال می‌شود، سیستم هوش مصنوعی مولد جیل‌بریک می‌شود و در نهایت داده‌های ایمیل به سرقت می‌روند. به گفته او: «سپس پاسخ تولید شده که داده‌های حساس کاربر را شامل می‌شود یک میزبان جدید را آلوده می‌کند و از آن برای پاسخ به ایمیل ارسالی یک گیرنده جدید استفاده می‌شود و سپس در دیتابیس گیرنده جدید هم ذخیره می‌شود.»

محققان می‌گویند در روش دوم از تصویری استفاده کردند که یک پرامپت آلوده در آن جای گرفته بود، پرامپتی که دستیار ایمیل را مجبور می‌کند ایمیل را به دیگران ارسال کند. ناسی می‌گوید: «با پنهان کردن پرامپت مشابه‌ساز در داخل تصویر، هر نوع تصویری که حاوی اسپم، سو استفاده یا حتی پروپاگاندا باشد را می‌توان پس از ارسال ایمیل اولیه به مقاصد تازه‌ای ارسال کرد.»

در ویدیویی از این تحقیقات می‌توان دید که سیستم ایمیلی یک پیام را چندین مرتبه فوروارد می‌کند. محققان همچنین می‌گویند که می‌توانند داده‌هایی را از ایمیل‌ها استخراج کنند. ناسی می‌گوید: «می‌توان نام‌ها، شماره تلفن، شماره کارت اعتباری، SSN، یا هرچیزی که محرمانه تلقی می‌شود» را استخراج کرد.

به گفته محققان با اینکه این تحقیق برخی از تمهیدات امنیتی ChatGPT و جمنای را زیر پا می‌گذارد اما این اثر هشداری درمورد «ساختار نامناسب» موجود در تمام اکوسیستم هوش مصنوعی است. آنها با این وجود یافته‌های خود را برای گوگل و اوپن‌ای‌آی ارسال کرده‌آند. یکی از خسنگویان اوپن‌ای‌آی با اشاره به اینکه شرکت برای مقاومت بیشتر سیستم‌ها تلاش می‌کند گفت: «آنها به نظر راهکاری پیدا کرده‌اند تا با استفاده از ورودی بررسی نشده یا فیلتر نشده کاربر، از آسیب‌پذیری‌های تزریق پرامپت سو استفاده کنند.» به گفته او توسعه دهندگان باید «روش‌هایی را استفاده کنند تا از کار دستگاه‌ها با ورودی خطرناک جلوگیری شود.» گوگل از اظهارنظر در این باره خودداری کرد. پیام‌های ناسی نشان می‌دهد که محققان این شرکت خواستار جلسه‌ای برای صحبت در این باره شده‌اند.

با اینکه این تحقیق در یک محیط آزمایشی و محافظت شده انجام گرفته اما چندین متخصص امنیتی که این تحقیقات را بررسی کرده‌اند درمورد خطر جدی کرم‌ها هشدار می‌دهند.

ناسی و دیگر محققان در مقاله‌ای درمورد یافته‌های تصریح می‌کنند که اتنظار دارند کرم‌های هوش مصنوعی مولد را به زودی و طی دو تا سه سال آینده در فضای عمومی مشاهده کنند. در این مقاله تحقیقاتی آمده است: «اکوسیستم‌های هوش مصنوعی مولد به طور گسترده و توسط تعداد زیادی شرکت در حال توسعه هستند که توانمندی‌های هوش مصنوعی مولد را وارد خودروها، گوشی‌های هوشمند و سیستم‌عامل‌ها می‌کنند.»

 

 

https://pvst.ir/hcn

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو