skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

چت‌بات‌ها در کاهش باور مردم به نظریه‌های توطئه مفید هستند

۲۵ شهریور ۱۴۰۳

زمان مطالعه : ۴ دقیقه

در این مطلب می‌خوانید

    اینترنت باعث شده تا انتشار و روبرویی با نظریه‌های توطئه ساده‌تر از همیشه شود و با اینکه برخی از این نظریه‌ها بی خطر هستند،‌ بعضی دیگر آسیب عمیقی دارند و به بحث و جدال بی ثمر و حتی مرگ منجر می‌شوند. تحقیقات جدیدی از پژوهشگران MIT Solan و دانشگاه کرنل نشان می‌دهد که صحبت با چت‌بات‌ها می‌تواند باور مردم به این نظریه‌های توطئه را تا ۲۰ درصد کاهش دهد و در نتیجه این روبات‌ها ابزار مناسبی برای مبارزه با باور‌های بی اساس مردم هستند.

    به گزارش پیوست به نقل از MIT Technology Review، محققان بر این باورند که به ابزار جدیدی برای مبارزه با نظریه‌های توطئه نادرست دست یافته‌اند: چت‌بات‌های هوش مصنوعی. پژوهشگرانی از دانشگاه MIT Sloan و کرنل دریافتند که چت و صحبت درمورد یک نظریه توطئه با مدل زبانی (LLM) تا ۲۰ درصد باور مردم به آن نظریه را حتی در بین شرکت‌کنندگانی که مدعی‌اند باورهایشان برای هویت آنها اهمیت دارد، کاهش می‌دهد. این تحقیقات به تازگی در مجله ساینس منتشر شد.

    یانهائو ژانگ، از پژوهشگران پسادکتری و همکار موسسه روانشناسی فناوری که به مطالعه تاثیرات هوش مصنوعی بر جامعه می‌پردازد، این یافته‌ها می‌توانند گام مهمی در نحوه تعامل با مردم و آموزش آنها درمورد این نظریه‌های بی اساس باشند.

    او می‌گوید: «آنها نشان می‌دهند که با کمک مدل‌های بزرگ زبانی، ما می‌توانیم-نمی‌گویم مشکل را حل کنیم بلکه حداقل گستره آن را کاهش دهیم. راهکاری که می‌تواند جامعه را بهتر کند.»

    توماس کاستلو، یکی از پژوهشگران MIT Sload و مولف ارشد این مطالعه،‌ می ؛وید تعداد کمی از مداخله‌ها می‌توانند نظر باورمندان به نظریه‌های توطئه را تغییر دهند. یکی از دلایل سختی این کار این است که افراد مختلف به بخش‌های متفاوتی از یک نظریه می‌چسبند. این یعنی با اینکه ارائه شواهد برای بخش‌هایی از آن روی یک باورمند کار می‌کند، اما تضمینی وجود ندارد که روی دیگری هم جواب دهد.

    به گفته او هوش مصنوعی در همینجا به کار می‌آید: «آنها یه حجم عظیمی از اطلاعات در موضوعات مختلف دسترسی دارند و براساس اینترنت آموزش دیده‌اند. به همین دلیل، می‌توانند استدلال‌های مستندی برای پاسخ به نظریه‌های توطئه خاصی تهیه کنند که مردم به آن باور دارند.»

    این تیم در مطالعه خود از ۲۱۹۰ نفر خواست تا با GPT-4 Turbo، یکی از بهترین مدل‌های هوش مصنوعی اوپن‌ای‌آی، مکالمه کنند.

    از شرکت‌کنندگان خواسته شد تا جزئیاتی از نظریه توطئه را که از نظر آنها معتبر است،‌ دلیل اعتبارش از نگاه آنها و هرگونه شواهد پشتیبان آن را به اشتراک بگذارند. از همین پاسخ‌ها برای تنظیم جوابیه از سوی چت‌باتی استفاده شد که پژوهشگران از آن خواسته بودند تا حد ممکن متقاعدکننده باشد.

    از شرکت‌کنندگان خواسته شد تا در بازه‌ای بین ۰ تا ۱۰۰ مشخص کنند تا چه اندازه به صحت یک نظریه توطئه باور دارند و سپس مشخص کنند این نظریه تا چه اندازه بر درک آنها از جهان تاثیرگذار است.

    پس از مکالمه نیز از شرکت‌کنندگان خواسته شد تا به همان سوالات دوباره امتیاز دهند. پژوهشگران ۱۰ روز پس از آزمایش و مجددا دو ماه بعد برای ارزیابی تغییر دیدگاه شرکت‌کنندگان با آنها ارتباط گرفتند. شرکت‌کنندگان به طور میانگین گزارش کردند که ۲۰ درصد کمتر به نظریه توطئه خود باور دارند که نشان می‌دهد صحبت با چت‌بات می‌تواند ذهنیت برخی از مردم را به شکل بنیادی تغییر دهد.

    ژانگ می‌گوید:‌ «حتی در تنظیمات آزمایشگاه،‌۲۰ درصد یک تاثیر بزرگ در تغییر باورهای مردم است. شاید در جهان واقعی ضعیف‌تر باشد اما حتی ۱۰ یا ۵ درصد هم بسیار قابل توجه است.»

    مولفان در این مطالعه سعی کردند تا با استفاده از حقیقت‌یاب‌های حرفه‌ای که دقت ۱۲۸ ادعای هوش مصنوعی را بررسی می‌کردند، جلوی توهم یا هذیان‌گویی هوش مصنوعی را بگیرند. از این بین ۹۹.۲ درصد به عنوان ادعای صحیح مشخص شدند و ۰.۸ درصد نیز گمراه کننده بودند. هیچکدام از ادعاها اما به طور کامل اشتباه نبودند.

    دیوید جی راند، استاد MIT Sloan که در این پروژه شرکت داشته است، می‌گوید یکی از توجیه‌های چنین دقت بالایی این است که در اینترنت چیزهای زیادی درمورد نظریه‌های توطئه نوشته شده و در نتیجه داده‌های زیادی در این باره در داده‌های آموزشی هوش مصنوعی وجود دارد. او افزود که به دلیل ماهیت منعطف GPT-4 Turbo، این ابزار به خوبی بع پلتفرم‌های مختلف متصل می‌شود و کاربران می‌توانند در آینده با آن ارتباط بگیرند.

    گوردون پنیکوک،‌استادیار دانشگاه کرنل و از شرکت‌کنندگان این پروژه، می‌گوید این تحقیق باور‌های پیشین مولفان را درمورد واکنش مردم به شواهد محکم، نه تنها در زمینه نظریه‌های توطئه، بلکه درمورد دیگر باور‌هایی که ریشه در اطلاعات با کیفیت ندارند، تغییر داد.

     

    https://pvst.ir/iy7

    0 نظر

    ارسال دیدگاه

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

    *

    برای بوکمارک این نوشته
    Back To Top
    جستجو