چهار استراتژی برنده شرکتهای حقوقی برای پیادهسازی هوش مصنوعی از نگاه تامسون رویترز
کنفرانس اخیر تامسون رویترز با نام SYNERGY میزبان دهها شرکت حقوقی بود که هرکدام به…
۲ آذر ۱۴۰۴
۲ آذر ۱۴۰۴
زمان مطالعه : ۴ دقیقه

یک پژوهش تازهای که در مجله Proceedings of the National Academy of Sciences (PNAS) منتشر شده هشدار بزرگی برای سیستمهای تشخیص روبات و نظرسنجیهای آنلاین، یکی از مهمترین ابزارهای تحقیقات علمی و اجتماعی، است. محقق آمریکایی در این پژوهش نشان میدهد که هوش مصنوعی میتواند بهطور کامل سازوکارهای تشخیص رباتها را دور بزند و نتایج نظرسنجیها را دستکاری کند.
به گزارش پیوست به نقل از 404Media، یکی از اساتید دانشگاه دارتموث و مدیر آزمایشگاه Polarization Research Lab به نام شان وستوود در این پژوهش موفق به طراحی عامل هوش مصنوعی جدیدی به نام «پاسخدهنده مصنوعی خودمختار» (Autonomous Synthetic Respondent) شده است که به گفته او، این قادر است در نقش یک انسان ظاهر شود و تقریبا تمام روشهای پیشرفته شناسایی را پشت سر بگذارد. این روبات به همین واسطه میتواند در نظرسنجیهایی که برای انسانها طراحی شده شرکت کند.
طبق اعلام وستوود، این عامل هوش مصنوعی در ۹۹.۸ درصد از موارد از تمام روشهای پیشرفته شناسایی ربات عبور میکند و قادر است آزمونهای توجه رایج را به طور کامل پشت سر بگذارد. این روبات همچنین الگوهای رفتاری، حرکت موس، زمان خواندن، و تایپ را مانند انسان تقلید میکند و تایپ پاسخها را با خطا و اصلاحات واقعی شبیهسازی میکند تا از انسان قابل تشخیص نباشد. علاوه بر این این عامل همچنین قادر است کپچا و ابزارهای ضدربات را نیز دور بزند.
وستوود طی بیانیهای در این رابطه هشدار داد که: «دیگر نمیتوانیم مطمئن باشیم پاسخهای نظرسنجی از انسانهای واقعی آمده است. آلوده شدن دادههای نظرسنجی با استفاده از هوش مصنوعی میتواند تمام اکوسیستم علمی را مسموم کند.»
این عامل هوش مصنوعی میتواند یک «پرسونا» یا شخصیت دموگرافیک کاملا منسجم بسازد و بر اساس آن به ارائه پاسخ بپردازد. این یعنی افراد میتوانند بهسادگی چند ده پاسخ جعلی ایجاد کنند و نتایج نظرسنجیها را تغییر دهند.
طبق دادههای این پژوهش در هفت نظرسنجی ملی پیش از انتخابات ۲۰۲۴ آمریکا،
افزودن فقط ۱۰ تا ۵۲ پاسخ جعلی هوش مصنوعی کافی بود تا نتیجه به جهت مخالف تغییر کند. جالب اینکه هزینه تولید هر پاسخ هوش مصنوعی بسیار پایین و برابر با ۵ سنت است که استفاده از آن را ارزانتر از گزینههای انسانی میکند. این در حالی است که طراحان نظرسنجی به طور معمول ۱.۵۰ دلار برای مشارکت به انسانها پرداخت میکنند.
این اختلاف هزینه تحلیلگران را نگران کرده که «تولید انبوه» پاسخهای جعلی میتواند بهشدت افزایش یابد.
وستوود ابزار خود را مبتنی بر زبان پایتون و بهصورت «مدلمحور خنثی» ساخته است که یعنی میتواند با APIهای اوپنایآی، انتروپیک، گوگل و دیگر شرکتهای هوش مصنوعی کار کند.
علاوه بر این امکان استفاده و اجرا با استفاده از مدلهای متنباز مانند Llama روی سیستمهای داخلی نیز وجود دارد.
در این آزمایشها از مدلهای متعدد از جمله o4-mini از اوپنایآی، دیپسیک R1، Mistral Large از شرکت میسترال فرانسه، کلاد ۳.۷ سونت از انتروپیک، گروک ۳ از xAI ایلان ماسک و جمینای ۲.۵ پریویو از شرکت گوگل استفاده شده است که مشخص میکند این تهدید، به یک پلتفرم خاص محدود نیست و تمام ابزارهای بزرگ پتانسیل چنین تهدیدی را دارند.
پژوهشگران در مقاله منتشر شده برای جلوگیری از آلودگی دادهها چند گزینه را پیشنهاد کردهاند که البته هرکدام چالشهای خاص خود را دارد.
روش اول احراز هویت سختتر شرکتکنندگان است که البته میتواند نگرانیهای جدی درباره حریم خصوصی ایجاد کرده و در نتیجه باعث عدم مشارکت جامعه هدف شود. رویکرد دیگر اما استفاده استفاده از روشهای کنترلشدهتر مثل نمونهگیری مبتنی بر آدرس، فایلهای رأیدهندگان و دعوتنامههای تاییدشده است که البته این روشها نیز هزینهبر و زمانبر هستند.
پژوهشگران همچنین میتوانند درمرود روش جمعآوری داده توضیحات بیشتری ارائه دهنده که مشخص شود چگونه دادههای نظرسنجی جمعآوری، پالایش و تایید شدهاند.
این مقاله همچنین در پایان هشدار میدهد که «حفظ اعتبار پژوهشهای اجتماعی و نظرسنجیها، نیازمند نوآوری در طراحی روشهاست؛ زیرا وارد دورهای شدهایم که هوش مصنوعی با سرعتی بیسابقه در حال تکامل است.»
این یافتهها نگرانیهای فراگیری درباره آینده پژوهشهای رفتاری، سیاسی و اجتماعی ایجاد کرده است؛ زیرا اگر پاسخدهندگان واقعی از هوش مصنوعی قابلتشخیص نباشند، سیستم کامل تحقیقاتی که بر نظرسنجی آنلاین بنا شده، ممکن است به فروپاشی کشانده شود.