کمپینهای رفتاری جهت مصرف بهینه انرژی؛ استفاده بهینه با آگاهی
کمپینهای رفتاری با هدف افزایش آگاهی عمومی در مورد صرفهجویی انرژی در سطح جهانی از…
۱ آذر ۱۴۰۳
۲۵ شهریور ۱۴۰۳
زمان مطالعه : ۴ دقیقه
در این مطلب میخوانید
اینترنت باعث شده تا انتشار و روبرویی با نظریههای توطئه سادهتر از همیشه شود و با اینکه برخی از این نظریهها بی خطر هستند، بعضی دیگر آسیب عمیقی دارند و به بحث و جدال بی ثمر و حتی مرگ منجر میشوند. تحقیقات جدیدی از پژوهشگران MIT Solan و دانشگاه کرنل نشان میدهد که صحبت با چتباتها میتواند باور مردم به این نظریههای توطئه را تا ۲۰ درصد کاهش دهد و در نتیجه این روباتها ابزار مناسبی برای مبارزه با باورهای بی اساس مردم هستند.
به گزارش پیوست به نقل از MIT Technology Review، محققان بر این باورند که به ابزار جدیدی برای مبارزه با نظریههای توطئه نادرست دست یافتهاند: چتباتهای هوش مصنوعی. پژوهشگرانی از دانشگاه MIT Sloan و کرنل دریافتند که چت و صحبت درمورد یک نظریه توطئه با مدل زبانی (LLM) تا ۲۰ درصد باور مردم به آن نظریه را حتی در بین شرکتکنندگانی که مدعیاند باورهایشان برای هویت آنها اهمیت دارد، کاهش میدهد. این تحقیقات به تازگی در مجله ساینس منتشر شد.
یانهائو ژانگ، از پژوهشگران پسادکتری و همکار موسسه روانشناسی فناوری که به مطالعه تاثیرات هوش مصنوعی بر جامعه میپردازد، این یافتهها میتوانند گام مهمی در نحوه تعامل با مردم و آموزش آنها درمورد این نظریههای بی اساس باشند.
او میگوید: «آنها نشان میدهند که با کمک مدلهای بزرگ زبانی، ما میتوانیم-نمیگویم مشکل را حل کنیم بلکه حداقل گستره آن را کاهش دهیم. راهکاری که میتواند جامعه را بهتر کند.»
توماس کاستلو، یکی از پژوهشگران MIT Sload و مولف ارشد این مطالعه، می ؛وید تعداد کمی از مداخلهها میتوانند نظر باورمندان به نظریههای توطئه را تغییر دهند. یکی از دلایل سختی این کار این است که افراد مختلف به بخشهای متفاوتی از یک نظریه میچسبند. این یعنی با اینکه ارائه شواهد برای بخشهایی از آن روی یک باورمند کار میکند، اما تضمینی وجود ندارد که روی دیگری هم جواب دهد.
به گفته او هوش مصنوعی در همینجا به کار میآید: «آنها یه حجم عظیمی از اطلاعات در موضوعات مختلف دسترسی دارند و براساس اینترنت آموزش دیدهاند. به همین دلیل، میتوانند استدلالهای مستندی برای پاسخ به نظریههای توطئه خاصی تهیه کنند که مردم به آن باور دارند.»
این تیم در مطالعه خود از ۲۱۹۰ نفر خواست تا با GPT-4 Turbo، یکی از بهترین مدلهای هوش مصنوعی اوپنایآی، مکالمه کنند.
از شرکتکنندگان خواسته شد تا جزئیاتی از نظریه توطئه را که از نظر آنها معتبر است، دلیل اعتبارش از نگاه آنها و هرگونه شواهد پشتیبان آن را به اشتراک بگذارند. از همین پاسخها برای تنظیم جوابیه از سوی چتباتی استفاده شد که پژوهشگران از آن خواسته بودند تا حد ممکن متقاعدکننده باشد.
از شرکتکنندگان خواسته شد تا در بازهای بین ۰ تا ۱۰۰ مشخص کنند تا چه اندازه به صحت یک نظریه توطئه باور دارند و سپس مشخص کنند این نظریه تا چه اندازه بر درک آنها از جهان تاثیرگذار است.
پس از مکالمه نیز از شرکتکنندگان خواسته شد تا به همان سوالات دوباره امتیاز دهند. پژوهشگران ۱۰ روز پس از آزمایش و مجددا دو ماه بعد برای ارزیابی تغییر دیدگاه شرکتکنندگان با آنها ارتباط گرفتند. شرکتکنندگان به طور میانگین گزارش کردند که ۲۰ درصد کمتر به نظریه توطئه خود باور دارند که نشان میدهد صحبت با چتبات میتواند ذهنیت برخی از مردم را به شکل بنیادی تغییر دهد.
ژانگ میگوید: «حتی در تنظیمات آزمایشگاه،۲۰ درصد یک تاثیر بزرگ در تغییر باورهای مردم است. شاید در جهان واقعی ضعیفتر باشد اما حتی ۱۰ یا ۵ درصد هم بسیار قابل توجه است.»
مولفان در این مطالعه سعی کردند تا با استفاده از حقیقتیابهای حرفهای که دقت ۱۲۸ ادعای هوش مصنوعی را بررسی میکردند، جلوی توهم یا هذیانگویی هوش مصنوعی را بگیرند. از این بین ۹۹.۲ درصد به عنوان ادعای صحیح مشخص شدند و ۰.۸ درصد نیز گمراه کننده بودند. هیچکدام از ادعاها اما به طور کامل اشتباه نبودند.
دیوید جی راند، استاد MIT Sloan که در این پروژه شرکت داشته است، میگوید یکی از توجیههای چنین دقت بالایی این است که در اینترنت چیزهای زیادی درمورد نظریههای توطئه نوشته شده و در نتیجه دادههای زیادی در این باره در دادههای آموزشی هوش مصنوعی وجود دارد. او افزود که به دلیل ماهیت منعطف GPT-4 Turbo، این ابزار به خوبی بع پلتفرمهای مختلف متصل میشود و کاربران میتوانند در آینده با آن ارتباط بگیرند.
گوردون پنیکوک،استادیار دانشگاه کرنل و از شرکتکنندگان این پروژه، میگوید این تحقیق باورهای پیشین مولفان را درمورد واکنش مردم به شواهد محکم، نه تنها در زمینه نظریههای توطئه، بلکه درمورد دیگر باورهایی که ریشه در اطلاعات با کیفیت ندارند، تغییر داد.