skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

هوش مصنوعی ساخته پژوهشگر آمریکایی سیستم‌های تشخیص روبات را پشت سر می‌گذارد

۲ آذر ۱۴۰۴

زمان مطالعه : ۴ دقیقه

یک پژوهش تازه‌ای که در مجله Proceedings of the National Academy of Sciences (PNAS) منتشر شده هشدار بزرگی برای سیستم‌های تشخیص روبات و نظرسنجی‌های آنلاین، یکی از مهم‌ترین ابزارهای تحقیقات علمی و اجتماعی، است. محقق آمریکایی در این پژوهش نشان می‌دهد که هوش مصنوعی می‌تواند به‌طور کامل سازوکارهای تشخیص ربات‌ها را دور بزند و نتایج نظرسنجی‌ها را دستکاری کند.

به گزارش پیوست به نقل از 404Media، یکی از اساتید دانشگاه دارتموث و مدیر آزمایشگاه Polarization Research Lab به نام شان وست‌وود در این پژوهش موفق به طراحی عامل هوش مصنوعی جدیدی به نام «پاسخ‌دهنده مصنوعی خودمختار» (Autonomous Synthetic Respondent) شده است که به گفته او، این قادر است در نقش یک انسان ظاهر شود و تقریبا تمام روش‌های پیشرفته شناسایی را پشت سر بگذارد. این روبات به همین واسطه می‌تواند در نظرسنجی‌هایی که برای انسان‌ها طراحی شده شرکت کند.

طبق اعلام وست‌وود، این عامل هوش مصنوعی در ۹۹.۸ درصد از موارد از تمام روش‌های پیشرفته شناسایی ربات عبور می‌کند و قادر است آزمون‌های توجه رایج را به طور کامل پشت سر بگذارد. این روبات همچنین الگوهای رفتاری، حرکت موس، زمان خواندن، و تایپ را مانند انسان تقلید می‌کند و  تایپ پاسخ‌ها را با خطا و اصلاحات واقعی شبیه‌سازی می‌کند تا از انسان قابل تشخیص نباشد. علاوه بر این این عامل همچنین قادر است کپچا و ابزارهای ضدربات را نیز دور بزند.

وست‌وود طی بیانیه‌ای در این رابطه هشدار داد که: «دیگر نمی‌توانیم مطمئن باشیم پاسخ‌های نظرسنجی از انسان‌های واقعی آمده است. آلوده شدن داده‌های نظرسنجی با استفاده از هوش مصنوعی می‌تواند تمام اکوسیستم علمی را مسموم کند.»

هوش مصنوعی می‌تواند نتایج نظرسنجی‌ها را تغییر دهد

این عامل هوش مصنوعی می‌تواند یک «پرسونا» یا شخصیت دموگرافیک کاملا منسجم بسازد و بر اساس آن به ارائه پاسخ بپردازد. این یعنی افراد می‌توانند به‌سادگی چند ده پاسخ جعلی ایجاد کنند و نتایج نظرسنجی‌ها را تغییر دهند.

طبق داده‌های این پژوهش در هفت نظرسنجی ملی پیش از انتخابات ۲۰۲۴ آمریکا،
افزودن فقط ۱۰ تا ۵۲ پاسخ جعلی هوش مصنوعی کافی بود تا نتیجه به جهت مخالف تغییر کند. جالب اینکه هزینه تولید هر پاسخ هوش مصنوعی بسیار پایین و برابر با ۵ سنت است که استفاده از آن را ارزان‌تر از گزینه‌های انسانی می‌کند. این در حالی است که طراحان نظرسنجی به طور معمول ۱.۵۰ دلار برای مشارکت به انسان‌ها پرداخت می‌کنند.

این اختلاف هزینه تحلیلگران را نگران کرده که «تولید انبوه» پاسخ‌های جعلی می‌تواند به‌شدت افزایش یابد.

سازگاری با مدل‌های مختلف هوش مصنوعی

وست‌وود ابزار خود را مبتنی بر زبان پایتون و به‌صورت «مدل‌محور خنثی» ساخته است که یعنی می‌تواند با APIهای اوپن‌ای‌آی، انتروپیک، گوگل و دیگر شرکت‌های هوش مصنوعی کار کند.

علاوه بر این امکان استفاده و اجرا با استفاده از مدل‌های متن‌باز مانند Llama روی سیستم‌های داخلی نیز وجود دارد.

در این آزمایش‌ها از مدل‌های متعدد از جمله o4-mini از اوپن‌ای‌آی، دیپ‌سیک R1، Mistral Large از شرکت میسترال فرانسه، کلاد ۳.۷ سونت از انتروپیک، گروک ۳ از xAI ایلان ماسک و جمینای ۲.۵ پریویو از شرکت گوگل استفاده شده است که مشخص می‌کند این تهدید، به یک پلتفرم خاص محدود نیست و تمام ابزارهای بزرگ پتانسیل چنین تهدیدی را دارند.

چگونه می‌توان از این تهدید جلوگیری کرد؟

پژوهشگران در مقاله منتشر شده برای جلوگیری از آلودگی داده‌ها چند گزینه را پیشنهاد کرده‌‌اند که البته هرکدام چالش‌های خاص خود را دارد.

روش اول احراز هویت سخت‌تر شرکت‌کنندگان است که البته می‌تواند نگرانی‌های جدی درباره حریم خصوصی ایجاد کرده و در نتیجه باعث عدم مشارکت جامعه هدف شود. رویکرد دیگر اما استفاده استفاده از روش‌های کنترل‌شده‌تر مثل نمونه‌گیری مبتنی بر آدرس، فایل‌های رأی‌دهندگان و دعوت‌نامه‌های تاییدشده است که البته این روش‌ها نیز هزینه‌بر و زمان‌بر هستند.

پژوهشگران همچنین می‌توانند درمرود روش جمع‌آوری داده توضیحات بیشتری ارائه دهنده که مشخص شود چگونه داده‌های نظرسنجی جمع‌آوری، پالایش و تایید شده‌اند.

این مقاله همچنین در پایان هشدار می‌دهد که «حفظ اعتبار پژوهش‌های اجتماعی و نظرسنجی‌ها، نیازمند نوآوری در طراحی روش‌هاست؛ زیرا وارد دوره‌ای شده‌ایم که هوش مصنوعی با سرعتی بی‌سابقه در حال تکامل است.»

این یافته‌ها نگرانی‌های فراگیری درباره آینده پژوهش‌های رفتاری، سیاسی و اجتماعی ایجاد کرده‌ است؛ زیرا اگر پاسخ‌دهندگان واقعی از هوش مصنوعی قابل‌تشخیص نباشند، سیستم کامل تحقیقاتی که بر نظرسنجی آنلاین بنا شده، ممکن است به فروپاشی کشانده شود.

https://pvst.ir/mz6

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو