skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

بات‌نت‌ها به لطف هوش مصنوعی هرروز قدرتمند‌تر می‌شوند

۳۰ مرداد ۱۴۰۲

زمان مطالعه : ۴ دقیقه

محققان می‌گویند چت‌بات هوشمند ChatGPT که به دلیل بهره‌مندی از زبان طبیعی و شباهت بسیار به انسان به شهرت رسیده است، به ابزاری برای کلاهبرداران رمزارزی در شبکه اجتماعی اکس، توییتر سابق، تبدیل شده است. آنها معتقدند این بات‌نت تنها نمونه کوچکی از موارد سو استفاده از این مدل زبانی است و با پیشرفت روز افزون هوش مصنوعی، شناسایی آنها دشوارتر شده و موارد پیچیده‌تری را در حوزه‌های مختلف از جمله سیاست شاهد خواهیم بود.

به گزارش پیوست به نقل از وایرد، محققان دانشگاه بلومینگتون ایندیانا، بات‌نتی را شناسایی کرده‌اند که در ماه مه امسال با استفاده از ChatGPT در پلتفرم X فعالیت داشته است.

این بات‌نت که محققان آن را به دلیل ارتباط با چند وبسایت، Fox8 نامیده‌اند، از ۱۱۴۰ حساب کاربری تشکیل می‌شود. به نظر بسیاری از این حساب‌های کاربری برای ایجاد پست‌های شبکه اجتماعی و پاسخ به پست‌های یکدیگر از ChatGPT استفاده می‌کنند. این محتوای خودکار به گونه‌ای طراحی شده تا کاربران واقعی را به استفاده از وبسایت‌های کریپتویی مجاب کند.

میکاه ماسر، محققی که پتانسیل اطلاعات وارونه برخاسته از هوش مصنوعی را مطالعه می‌کند، می‌گوید بات‌نت Fox8 مشتی از خروار است و مدل‌های بزرگ زبانی و چت‌بات‌ها امکان سو استفاده زیادی را فراهم کرده‌اند. به گفته ماسر: «این یک مثال دم‌دستی است. احتمالش بسیار زیاد است که در ازای هر کمپینی که پیدا می‌کنید، تعداد بیشتری به کارهای پیچیده‌تر از آن مشغول باشند.»

با وجود فعالیت گسترده بات‌نت Fox8، این ابزار استفاده پیچیده‌ای از ChatGPT نداشته است. محققان این بات‌نت را با جستجوی عبارت «As an AI language model…» (به عنوان یک مدل هوش مصنوعی…) در اکس شناسایی کردند. این عبارت پاسخی است که هوش مصنوعی در مواجهه با پرامپت‌های حساس و غیرمجاز ارائه می‌دهد. آنها سپس با بررسی حساب‌های کاربری، مواردی که به نظر تحت کنترل روبات بودند را شناسایی کردند.

فیلیپو منسزر، استاد دانشگاه بلومینگتون ایندیانا، که این تحقیقات را به همراه کیا چنگ یانگ، رهبری کرده می‌گوید: «سهل انگاری آنها تنها دلیلی بود که باعث شد ما این بات‌نت به‌خصوص را شناسایی کنیم.»

با وجود این سهل‌انگاری‌ها،‌ با این حال بات‌نت Fox8 پیام‌های متقاعد کننده زیادی را در مورد وبسایت‌های رمزارزی منتشر کرده است. سهولت استفاده از چت‌بات شرکت اوپن‌ای‌آی در این کلاهبرداری نشان می‌دهد که احتمالا بات‌نت‌های دیگری هم با عملکرد بهتری در حال حاضر فعالیت دارند و امکان شناسایی آنها وجود ندارد. منسزر می‌گوید: «هیچ تبهکار حرفه‌ای این اشتباه را مرتکب نمی‌شود.»

اوپن‌ای‌آی به درخواست اظهارنظر در این باره پاسخی نداده است اما سیاست مدل‌های هوش مصنوعی این شرکت، استفاده از آنها برای کلاهبرداری و شایعه‌پراکنی را منع می‌کند.

ChatGPT و دیگر چت‌بات‌های پیشرفته برای تولید متن و پاسخ به کاربران از مدل‌های بزرگ زبانی استفاده می‌کنند. روبات‌هایی همچون ChatGPT با دسترسی به داده‌های آموزشی، قدرت کامپیوتری و بازخورد کافی انسان‌ها، می توانند به موضوعات پیچیده به طرق پیچیده پاسخ دهند. با این حال موضوعاتی مثل پیام‌های زننده، سو‌گیری اجتماعی و سیاسی و توهم هم از جمله معضلات این ابزارها است.

بات‌نتی که به خوبی برپایه ChatGPT تنظیم شده باشد به سختی قابل شناسایی است و بهتر از این نمونه کاربران را فریب می‌دهد. این ابزارها به ویژه برای فریب الگوریتم‌های محتوایی شبکه اجتماعی کاربرد دارند.

منسزر در رابطه با بات‌نت مبتنی بر ChatGPT می‌گوید: «این ابزار پلتفرم و کاربران را فریب می‌دهد» و اگر الگوریتم یک شبکه اجتماعی پستی با مشارکت بالا را مشاهده کند-حتی اگر مشارکت آن حاصل روبات‌ها باشد-پست مورد نظر به افراد بیشتری نمایش داده می‌شود. به گفته او: «به همین دلیل است که روبات‌ها اینگونه رفتار می‌کنند» و احتمالا دولت‌هایی که به دنبال شایعه‌پراکنی هستند در حال حاضر از این ابزارها برای رسیدن به اهداف خود استفاده می‌کنند.

خطر استفاده از ChatGPT و تکنولوژی آن برای شایعه‌پراکنی و انتشار اطلاعات وارونه، مدت‌ها است که باعث نگرانی محققان شده است. شرکت اوپن‌ا‌ی‌آی نیز در گذشته به دلیل چنین نگرانی‌هایی عرضه نسخه پیشین چت‌بات خود را به تاخیر انداخت. اما امروزه در چند نمونه به طور کامل سو استفاده از این ابزارها را مشاهده کرده‌ایم. برخی از کارزار‌های سیاسی از هوش مصنوعی روی آورده‌اند و حتی سیاست‌مداران با هوش مصنوعی ویدیو‌های دیپ‌فیک را برای بی اعتبار کردن رقبا منتشر کرده‌اند.

ویلیام ونگ، استاد دانشگاه کالیفرنیا، می‌گوید مطالعه موارد مجرمانه استفاده از ChatGPT هیجان انگیز است و «یافته‌های [محققان بات‌نت Fox8] بسیار جالب است.»

از نظر ونگ، تعداد زیادی از صفحات وب همین حالا از محتوای اتوماتیک برای کسب مخاطب استفاده می‌کنند و رفته رفته، تشخیص محتوای انسانی از نمونه‌های خودکارش دشوارتر می‌شود. با توجه به پیشرفت روز افزون هوش مصنوعی، این کار هر روز سخت‌تر می‌شود. به گفته او: «شرایط بسیار بدی را شاهد هستیم.»

 

 

https://pvst.ir/fq7

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو