skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

پلیس اروپا درمورد سو استفاده تبهکاران از ChatGPT هشدار داد

۸ فروردین ۱۴۰۲

زمان مطالعه : ۴ دقیقه

یوروپول روز دوشنبه در گزارشی درمورد تاثیر مدل‌های زبان طبیعی بر کلاهبرداری، جرایم سایبری و تروریسم گفت که مجرمان از ChatGPT برای ارتکاب جرم استفاده می‌کنند.

چت‌بات هوشمند ChatGPT ساخته اوپن‌ای‌آی در نوامبر سال ۲۰۲۲ منتشر شد و سریعا به یکی از موضوعات داغ جهان تکنولوژی تبدیل شد. این چت‌بات هوشمند امکان نگارش مقالات، شوخی، نوشتن ایمیل، کد نویسی و دیگر انواع متن را دارد.

حال آژانس انتظامی اتحادیه اروپا (Europol) در گزارشی به استفاده‌های نادرست از این ابزار قدرتمند اشاره کرده است. پلیس اروپا مدعی است که بسیاری در حال حاضر هم برای فعالیت‌های غیرقانونی از این ابزار استفاده می‌کنند.

در گزارش یوروپول آماده است: «به سادگی می‌توان تاثیر احتمالی این نوع مدل‌ها بر فعالیت نیروهای امنیتی را پیش‌بینی کرد. مجرمان معمولا خیلی سریع از تکنولوژی‌های جدید استفاده می‌کنند و تنها چند هفته پس از عرضه ChatGPT شاهد اولین سو استفاده های عملی بودیم.»

با وجود اینکه ChatGPT به خوبی از اجرای بسیاری از درخواست‌های نادرست امتناع می‌کند اما کاربران راهکاری برای دور زدن فیلتر‌های این سیستم پیدا کرده‌اند. برای مثال برخی از کاربران ChatGPT را به گونه‌ای فریب داده‌اند که نحوه ساخت بمب دستی یا شیشه را به آنها آموزش دهد. کاربران از این روش می‌توانند درمورد نحوه ارتکاب جرم و حتی راهنمایی گام به گام از ChatGPT سوال کنند.

یوروپول هشدار داده است که: «اگر یک مجرم هیچ اطلاعی از یک حوزه تبهکاری نداشته باشد، ChatGPT با ارائه اطلاعات مهم و پیشنهاد گام‌های بعدی فرایند تحقیق را تسریع می‌کند. ChatGPT را در این روش می‌توان بدون هیچگونه اطلاع قبلی برای یادگیری جرایم مختلف استفاده کرد و این جرایم ممکن است از سرقت خانه، تروریسم و جرایم سایبری تا سو استفاده جنسی از کودکان متغییر باشند.»

این آژانس اعتراف کرده است که چنین اطلاعات به صورت عمومی در دسترس کاربران اینترنت قرار دارد اما این مدل دسترسی و نحوه درک آن را ساده‌تر می‌کند. یوروپول همچنین اشاره کرد هاست که از این مدل می‌توان برای جعل هویت افراد، تسهیل روند کلاهبرداری و فیشینگ و پیشبرد پروپاگاندا و شایعه‌پراکنی برای حمایت از تروریسم استفاده کرد.

ChatGPT همچنین امکان تولید کد-حتی کد‌های مخرب-را دارد و با کاهش مهارت‌های فنی مورد نیاز برای ساخت باج‌افزار خطر جرایم کاربری را افزایش می‌دهد.

این گزارش می‌گوید: «برای یک مجرم احتمالی که اطلاعات فنی کمی دارد، این ابزار منبع ارزشمندی است. بعلاوه کاربری که اطلاعات پیشرفته‌تری دارد هم می‌تواند از این توانمندی ها برای بهبود یا اصلاح راهکار مجرمانه خود استفاده کند.»

مدل‌های زبانی عظیم (LLMها) پیچیدگی چندانی ندارند و هنوز در دوران نوزادی خود هستند اما با سرمایه‌گذاری عظیم شرکت‌های تکنولوژی در این حوزه به سرعت به پیشرفت خود ادامه می دهند. اوپن‌ای‌آی به تازگی نسل جدید مدل زبانی خود (GPT-4) را معرفی کرد و در کنار عرضه مدل‌های جدید، محصولات بسیاری هم مبتنی بر این ابزار عرضه می‌شوند. از زمان عرضه ChatGPT، مایکروسافت و گوگل هردو چت‌بات‌های مبتنی بر هوش مصنوعی را به موتورهای جستجوی خود اضافه کرده‌اند.

یوروپول می‌گوید که شرکت های بیشتری خدمات و قابلیت‌های هوش مصنوعی را عرضه خواهند کرد و این موضوع راه را برای جرایم جدید سایبری هموار می‌کند. در گزارش این نهاد امنیتی آمده است که: «سیستم‌های هوش مصنوعی چندجانبه، چت‌بات‌ها را با سیستم‌هایی ترکیب می‌کنند که امکان تولید رسانه‌هایی مثل دیپ‌فیک را داشته و تاثیر بر حواس مختلف از جمله بینایی و شنوایی را دارند.»

نسخه‌های اصلاح شده مدل‌های زبانی که هیچ فیلتر محتوایی نداشته و با داده‌های مخرب آموزش دیده‌اند نیز ممکن است در وب تاریک در دسترس تبهکاران قرار بگیرند.

یوروپول در انتها این سوال را مطرح می‌کند: «نهایتا می‌هوان گفت که ابهامات زیادی درمورد خدمات مدل‌های بزرگ زبانی وجود دارد که در آینده شاید داده‌های کاربران را پردازش کنند-آیا مکالمه ها ذخیره شده و در معرض دسترسی غیر مجاز و اشخاص ثالث قرار می ؛یرند؟ و اگر کاربران محتوای خطرناکی را تولید کنند، آیا این موضوع باید به نهاد‌های امنیتی اطلاع‌رسانی شود؟»

منبع: TheRegister

https://pvst.ir/ei6

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو