معرفی سیزده هوش مصنوعی تولید و پردازش تصویر: خلق از حروف ساده
امروزه و با توسعه هوش مصنوعی ابزار پردازش تصویر بسیاری برای تبدیل متن به تصویر…
۳۰ آبان ۱۴۰۳
۳۰ مرداد ۱۴۰۲
زمان مطالعه : ۴ دقیقه
محققان میگویند چتبات هوشمند ChatGPT که به دلیل بهرهمندی از زبان طبیعی و شباهت بسیار به انسان به شهرت رسیده است، به ابزاری برای کلاهبرداران رمزارزی در شبکه اجتماعی اکس، توییتر سابق، تبدیل شده است. آنها معتقدند این باتنت تنها نمونه کوچکی از موارد سو استفاده از این مدل زبانی است و با پیشرفت روز افزون هوش مصنوعی، شناسایی آنها دشوارتر شده و موارد پیچیدهتری را در حوزههای مختلف از جمله سیاست شاهد خواهیم بود.
به گزارش پیوست به نقل از وایرد، محققان دانشگاه بلومینگتون ایندیانا، باتنتی را شناسایی کردهاند که در ماه مه امسال با استفاده از ChatGPT در پلتفرم X فعالیت داشته است.
این باتنت که محققان آن را به دلیل ارتباط با چند وبسایت، Fox8 نامیدهاند، از ۱۱۴۰ حساب کاربری تشکیل میشود. به نظر بسیاری از این حسابهای کاربری برای ایجاد پستهای شبکه اجتماعی و پاسخ به پستهای یکدیگر از ChatGPT استفاده میکنند. این محتوای خودکار به گونهای طراحی شده تا کاربران واقعی را به استفاده از وبسایتهای کریپتویی مجاب کند.
میکاه ماسر، محققی که پتانسیل اطلاعات وارونه برخاسته از هوش مصنوعی را مطالعه میکند، میگوید باتنت Fox8 مشتی از خروار است و مدلهای بزرگ زبانی و چتباتها امکان سو استفاده زیادی را فراهم کردهاند. به گفته ماسر: «این یک مثال دمدستی است. احتمالش بسیار زیاد است که در ازای هر کمپینی که پیدا میکنید، تعداد بیشتری به کارهای پیچیدهتر از آن مشغول باشند.»
با وجود فعالیت گسترده باتنت Fox8، این ابزار استفاده پیچیدهای از ChatGPT نداشته است. محققان این باتنت را با جستجوی عبارت «As an AI language model…» (به عنوان یک مدل هوش مصنوعی…) در اکس شناسایی کردند. این عبارت پاسخی است که هوش مصنوعی در مواجهه با پرامپتهای حساس و غیرمجاز ارائه میدهد. آنها سپس با بررسی حسابهای کاربری، مواردی که به نظر تحت کنترل روبات بودند را شناسایی کردند.
فیلیپو منسزر، استاد دانشگاه بلومینگتون ایندیانا، که این تحقیقات را به همراه کیا چنگ یانگ، رهبری کرده میگوید: «سهل انگاری آنها تنها دلیلی بود که باعث شد ما این باتنت بهخصوص را شناسایی کنیم.»
با وجود این سهلانگاریها، با این حال باتنت Fox8 پیامهای متقاعد کننده زیادی را در مورد وبسایتهای رمزارزی منتشر کرده است. سهولت استفاده از چتبات شرکت اوپنایآی در این کلاهبرداری نشان میدهد که احتمالا باتنتهای دیگری هم با عملکرد بهتری در حال حاضر فعالیت دارند و امکان شناسایی آنها وجود ندارد. منسزر میگوید: «هیچ تبهکار حرفهای این اشتباه را مرتکب نمیشود.»
اوپنایآی به درخواست اظهارنظر در این باره پاسخی نداده است اما سیاست مدلهای هوش مصنوعی این شرکت، استفاده از آنها برای کلاهبرداری و شایعهپراکنی را منع میکند.
ChatGPT و دیگر چتباتهای پیشرفته برای تولید متن و پاسخ به کاربران از مدلهای بزرگ زبانی استفاده میکنند. روباتهایی همچون ChatGPT با دسترسی به دادههای آموزشی، قدرت کامپیوتری و بازخورد کافی انسانها، می توانند به موضوعات پیچیده به طرق پیچیده پاسخ دهند. با این حال موضوعاتی مثل پیامهای زننده، سوگیری اجتماعی و سیاسی و توهم هم از جمله معضلات این ابزارها است.
باتنتی که به خوبی برپایه ChatGPT تنظیم شده باشد به سختی قابل شناسایی است و بهتر از این نمونه کاربران را فریب میدهد. این ابزارها به ویژه برای فریب الگوریتمهای محتوایی شبکه اجتماعی کاربرد دارند.
منسزر در رابطه با باتنت مبتنی بر ChatGPT میگوید: «این ابزار پلتفرم و کاربران را فریب میدهد» و اگر الگوریتم یک شبکه اجتماعی پستی با مشارکت بالا را مشاهده کند-حتی اگر مشارکت آن حاصل روباتها باشد-پست مورد نظر به افراد بیشتری نمایش داده میشود. به گفته او: «به همین دلیل است که روباتها اینگونه رفتار میکنند» و احتمالا دولتهایی که به دنبال شایعهپراکنی هستند در حال حاضر از این ابزارها برای رسیدن به اهداف خود استفاده میکنند.
خطر استفاده از ChatGPT و تکنولوژی آن برای شایعهپراکنی و انتشار اطلاعات وارونه، مدتها است که باعث نگرانی محققان شده است. شرکت اوپنایآی نیز در گذشته به دلیل چنین نگرانیهایی عرضه نسخه پیشین چتبات خود را به تاخیر انداخت. اما امروزه در چند نمونه به طور کامل سو استفاده از این ابزارها را مشاهده کردهایم. برخی از کارزارهای سیاسی از هوش مصنوعی روی آوردهاند و حتی سیاستمداران با هوش مصنوعی ویدیوهای دیپفیک را برای بی اعتبار کردن رقبا منتشر کردهاند.
ویلیام ونگ، استاد دانشگاه کالیفرنیا، میگوید مطالعه موارد مجرمانه استفاده از ChatGPT هیجان انگیز است و «یافتههای [محققان باتنت Fox8] بسیار جالب است.»
از نظر ونگ، تعداد زیادی از صفحات وب همین حالا از محتوای اتوماتیک برای کسب مخاطب استفاده میکنند و رفته رفته، تشخیص محتوای انسانی از نمونههای خودکارش دشوارتر میشود. با توجه به پیشرفت روز افزون هوش مصنوعی، این کار هر روز سختتر میشود. به گفته او: «شرایط بسیار بدی را شاهد هستیم.»