اوپنایآی روی تحقیق درمورد «اخلاقیات هوش مصنوعی» سرمایهگذاری میکند
بزرگترین استارتآپ هوش مصنوعی جهان در حال تامین مالی یک تحقیقات آکادمیک درمورد الگوریتمهایی است…
۳ آذر ۱۴۰۳
۸ فروردین ۱۴۰۲
زمان مطالعه : ۴ دقیقه
یوروپول روز دوشنبه در گزارشی درمورد تاثیر مدلهای زبان طبیعی بر کلاهبرداری، جرایم سایبری و تروریسم گفت که مجرمان از ChatGPT برای ارتکاب جرم استفاده میکنند.
چتبات هوشمند ChatGPT ساخته اوپنایآی در نوامبر سال ۲۰۲۲ منتشر شد و سریعا به یکی از موضوعات داغ جهان تکنولوژی تبدیل شد. این چتبات هوشمند امکان نگارش مقالات، شوخی، نوشتن ایمیل، کد نویسی و دیگر انواع متن را دارد.
حال آژانس انتظامی اتحادیه اروپا (Europol) در گزارشی به استفادههای نادرست از این ابزار قدرتمند اشاره کرده است. پلیس اروپا مدعی است که بسیاری در حال حاضر هم برای فعالیتهای غیرقانونی از این ابزار استفاده میکنند.
در گزارش یوروپول آماده است: «به سادگی میتوان تاثیر احتمالی این نوع مدلها بر فعالیت نیروهای امنیتی را پیشبینی کرد. مجرمان معمولا خیلی سریع از تکنولوژیهای جدید استفاده میکنند و تنها چند هفته پس از عرضه ChatGPT شاهد اولین سو استفاده های عملی بودیم.»
با وجود اینکه ChatGPT به خوبی از اجرای بسیاری از درخواستهای نادرست امتناع میکند اما کاربران راهکاری برای دور زدن فیلترهای این سیستم پیدا کردهاند. برای مثال برخی از کاربران ChatGPT را به گونهای فریب دادهاند که نحوه ساخت بمب دستی یا شیشه را به آنها آموزش دهد. کاربران از این روش میتوانند درمورد نحوه ارتکاب جرم و حتی راهنمایی گام به گام از ChatGPT سوال کنند.
یوروپول هشدار داده است که: «اگر یک مجرم هیچ اطلاعی از یک حوزه تبهکاری نداشته باشد، ChatGPT با ارائه اطلاعات مهم و پیشنهاد گامهای بعدی فرایند تحقیق را تسریع میکند. ChatGPT را در این روش میتوان بدون هیچگونه اطلاع قبلی برای یادگیری جرایم مختلف استفاده کرد و این جرایم ممکن است از سرقت خانه، تروریسم و جرایم سایبری تا سو استفاده جنسی از کودکان متغییر باشند.»
این آژانس اعتراف کرده است که چنین اطلاعات به صورت عمومی در دسترس کاربران اینترنت قرار دارد اما این مدل دسترسی و نحوه درک آن را سادهتر میکند. یوروپول همچنین اشاره کرد هاست که از این مدل میتوان برای جعل هویت افراد، تسهیل روند کلاهبرداری و فیشینگ و پیشبرد پروپاگاندا و شایعهپراکنی برای حمایت از تروریسم استفاده کرد.
ChatGPT همچنین امکان تولید کد-حتی کدهای مخرب-را دارد و با کاهش مهارتهای فنی مورد نیاز برای ساخت باجافزار خطر جرایم کاربری را افزایش میدهد.
این گزارش میگوید: «برای یک مجرم احتمالی که اطلاعات فنی کمی دارد، این ابزار منبع ارزشمندی است. بعلاوه کاربری که اطلاعات پیشرفتهتری دارد هم میتواند از این توانمندی ها برای بهبود یا اصلاح راهکار مجرمانه خود استفاده کند.»
مدلهای زبانی عظیم (LLMها) پیچیدگی چندانی ندارند و هنوز در دوران نوزادی خود هستند اما با سرمایهگذاری عظیم شرکتهای تکنولوژی در این حوزه به سرعت به پیشرفت خود ادامه می دهند. اوپنایآی به تازگی نسل جدید مدل زبانی خود (GPT-4) را معرفی کرد و در کنار عرضه مدلهای جدید، محصولات بسیاری هم مبتنی بر این ابزار عرضه میشوند. از زمان عرضه ChatGPT، مایکروسافت و گوگل هردو چتباتهای مبتنی بر هوش مصنوعی را به موتورهای جستجوی خود اضافه کردهاند.
یوروپول میگوید که شرکت های بیشتری خدمات و قابلیتهای هوش مصنوعی را عرضه خواهند کرد و این موضوع راه را برای جرایم جدید سایبری هموار میکند. در گزارش این نهاد امنیتی آمده است که: «سیستمهای هوش مصنوعی چندجانبه، چتباتها را با سیستمهایی ترکیب میکنند که امکان تولید رسانههایی مثل دیپفیک را داشته و تاثیر بر حواس مختلف از جمله بینایی و شنوایی را دارند.»
نسخههای اصلاح شده مدلهای زبانی که هیچ فیلتر محتوایی نداشته و با دادههای مخرب آموزش دیدهاند نیز ممکن است در وب تاریک در دسترس تبهکاران قرار بگیرند.
یوروپول در انتها این سوال را مطرح میکند: «نهایتا میهوان گفت که ابهامات زیادی درمورد خدمات مدلهای بزرگ زبانی وجود دارد که در آینده شاید دادههای کاربران را پردازش کنند-آیا مکالمه ها ذخیره شده و در معرض دسترسی غیر مجاز و اشخاص ثالث قرار می ؛یرند؟ و اگر کاربران محتوای خطرناکی را تولید کنند، آیا این موضوع باید به نهادهای امنیتی اطلاعرسانی شود؟»
منبع: TheRegister