skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

آیا هوش مصنوعی پادزهر دروغ‌رسانی است؟ در بطن ماجرا

آریجیت گوسوامی
آریجیت گوسوامی

۷ اسفند ۱۴۰۱

زمان مطالعه : ۶ دقیقه

شماره ۱۱۰

آیا هوش مصنوعی پادزهر دروغ‌رسانی است؟

ثبات جامعه، بیش از هر چیز دیگری، در معرض تهدید است. نوعی پاندمی ایجاد شده که اقتصادهای کوچک و بزرگ را به یک اندازه غرق کرده است. مردم در نقاط مختلف جهان با تهدیدهایی علیه جان و ایمنی شخصی‌شان مواجه می‌شوند زیرا حجم عظیمی از اخبار جعلی احساسی و از نظر اجتماعی اختلاف‌افکن منتشر می‌شود. بخش عمده این وضعیت نتیجه فناوری نوظهور است. محتوای جعلی یا برداشت افراد را دستکاری می‌کند یا اکاذیب محض را در جامعه اشاعه می‌دهد.

برنامه‌های مبتنی بر هوش مصنوعی برای ایجاد جعل عمیق یا دیپ‌فیک رهبران سیاسی مورد استفاده قرار می‌گیرند. این برنامه‌ها ویدئو، صوت و تصاویر رهبران سیاسی را با یکدیگر تطبیق می‌دهد. این نوع جعل عمیق را می‌توان برای پاشیدن بذر اختلاف در جامعه و ایجاد آشوب در بازارها به کار برد.

همچنین، هوش مصنوعی در تولید محتوای شبیه محتوای تولیدشده به دست انسان نیز بهتر می‌شود. هوش مصنوعی این کار را با استفاده از الگوهای زبانی مانند GPT-3 انجام می‌دهد. این برنامه جستار، شعر و مقاله‌ها را بر اساس یک دستور تک‌خطی می‌نویسد. هوش مصنوعی ویرایش انواع محتوا را به ‌اندازه‌ای کامل کرده که نرم‌افزارهای متن‌باز مانند FaceSwap و DeepFaceLab می‌توانند به آماتورهای پنهان نیز اجازه دهند به مرکز ناآرامی اجتماعی تبدیل شوند. در زمانه‌ای که انسان‌ها دیگر نمی‌دانند به چه کسی باید اعتماد کنند، «استفاده مثبت از تکنولوژی به نفع خودمان» ظاهراً تنها نجات‌دهنده است.

تجزیه‌وتحلیل معنایی

اولین ایده‌ای که درباره مبارزه با اطلاعات مخدوش یا دروغ‌رسانی (disinfotmation) به ذهن می‌رسد فناوری تجزیه‌وتحلیل محتواست. ابزارهای مبتنی بر هوش مصنوعی می‌توانند تحلیل زبان‌شناختی از محتوای متنی انجام دهند و سرنخ‌هایی درباره الگوهای واژگان، ساختار دستوری و خوانش‌پذیری به دست آورند تا بتوانند محتوای تولیدشده به وسیله کامپیوتر را از محتوای تولیدشده به دست انسان تفکیک کنند. چنین الگوریتمی می‌تواند هر متنی را دریافت و بردارهای واژگان، جاگذاری کلمات و جفت‌های زبانی را کنترل کند تا ردی از نفرت‌پراکنی نشان دهد.

آیا هوش مصنوعی پادزهر دروغ‌رسانی است؟

علاوه‌ بر این، الگوریتم‌های هوش مصنوعی می‌توانند تصاویر و ویدئوهای دستکاری‌شده را مهندسی معکوس کنند تا جعل عمیق را تشخیص دهند و محتوایی را برجسته کنند که به برچسب‌گذاری نیاز دارد.

اما این کافی نیست: شبکه‌های تخاصم‌آمیز مولد به ‌اندازه‌ای هوشمند می‌شوند که الگوریتم‌ها به‌زودی محتوایی تولید خواهند کرد که از محتوای انسان قابل‌ تفکیک نخواهد بود. وضعیت وقتی بغرنج می‌شود که الگوریتم‌های تحلیل معناشناختی نمی‌توانند محتوای درون تصاویر نفرت‌پراکن را تفسیر کنند زیرا این تصویرها دستکاری نشده‌اند بلکه با زمینه‌های غلط یا مخرب یا محتوای دیگر هم‌رسانی شده‌اند. هوش مصنوعی نمی‌تواند بررسی کند ببیند ادعایی که در برخی محتوایتان مطرح کرده‌اید کذب است. موانع زبان‌شناختی نیز چالش‌ها را تشدید می‌کنند. به‌ طور بنیادین، احساس پست آنلاین را می‌توان ارزیابی کرد اما نمی‌توان درستی آن را مشخص کرد. اینجاست که مداخله انسانی در همراهی با هوش مصنوعی نیاز است.

ردیابی ریشه‌: پلیس مرحله بعد

کشف شده که اخبار جعلی (fake news) اغلب ریشه یکسانی دارد. ریشه جایی است که اخبار قبل از انتشار آنجا قرار می‌گیرد. برای مثال، پروژه فاندانگو از اخباری استفاده می‌کند که انسان‌هایی در نقش راستی‌آزما روی آنها برچسب گذاشته‌اند. سپس این پروژه پست‌های رسانه‌های اجتماعی و صفحات آنلاینی را جست‌وجو می‌کند که واژگان یا ادعاهای مشابهی دارند. این به روزنامه‌نگارها و متخصص‌ها اجازه می‌دهد اخبار جعلی را تا ریشه‌شان شناسایی و تهدیدهای بالقوه را قبل از اینکه از کنترل خارج شوند حذف کنند.

سرویس‌هایی مانند Politifact، Snopes و FactCheck از ویراستارهای انسانی بهره می‌گیرند. این افراد می‌توانند جست‌وجوی اولیه لازم برای تایید اصالت گزارش‌ها و عکس‌ها را انجام دهند. وقتی محتوای جعلی پیدا می‌شود، الگوریتم‌های هوش مصنوعی به خزیدن در وب کمک می‌کنند و با همان محتواهای مشابه به مقابله می‌پردازند. این وضعیت می‌تواند بی‌نظمی اجتماعی حاکم کند. اگر محتوا اصیل باشد، امتیاز شهرت را می‌توان به مقاله وب‌سایت مد نظر اضافه کرد. Trust Project از پارامترهایی مانند منابع، مراجع، استانداردهای اخلاقی و اصلاحات بهره می‌گیرد تا اعتبار نشریات خبری را ارزیابی کند.

اخبار جعلی و نفرت‌پراکنی مثل قارچ می‌رویند و چنین محتوایی با سرعت زیادی در رسانه‌های اجتماعی منتشر می‌شوند. بنابراین تکیه بر نیروی انسانی راستی‌آزما کافی نیست. برای مثال، یک مقاله خبری همنام ممکن است درباره حادثه‌ای واقعی حرف بزند اما از زبان احساسی و هیجانی بهره بگیرد- این نوع زبان ممکن است برای یکی از افراد تیم راستی‌آزما قابل‌ قبول باشد اما برای دیگری چنین نباشد. بنابراین، این نوع روش فیلتر کردن می‌تواند راستی محتوا را تایید کند اما نمی‌تواند نیت را تشخیص دهد.

تحلیل انتشار خبر

تفاوت مشخصی وجود دارد بین اخبار جعلی و اخبار واقعی‌ای که در شبکه‌های اجتماعی دست‌به‌دست می‌شوند. محققان ام‌آی‌تی می‌گویند اخبار جعلی شش برابر سریع‌تر از اخبار حقیقی منتقل می‌شود و به ۱۵۰۰ مخاطب در توییتر می‌رسد. علاوه ‌بر این، طول زنجیره اخبار واقعی (تعداد افرادی که یک پست رسانه اجتماعی را منتشر کرده‌اند) هرگز بالای ۱۰ نرفته، اما این عدد در اخبار جعلی به ۱۹ هم رسیده است. بخشی از دلیلش این است که عناصر مخربی فوجی از بات‌ها را استخدام می‌کنند تا اخبار جعلی را وایرال کنند.

انسان‌ها نیز به همان اندازه مسئولیت دارند زیرا مردم معمولاً اخبار جعلی را سریع‌تر هم‌رسانی می‌کنند بدون اینکه تفکر انتقادی یا قضاوت آگاهانه داشته باشند. GoodNews از موتور هوش مصنوعی برای شناسایی اخبار جعلی استفاده می‌کند. این کار را با استفاده از شاخص‌های فعالیت انجام می‌دهد زیرا اخبار جعلی بیشتر در معرض هم‌رسانی هستند تا لایک- در مقایسه با اخبار حقیقی. چنین فنونی برای ثبت اخبار مشکوک بر اساس انتشارشان می‌تواند از افراطی شدن جلوگیری کند.

انسان‌ها در بطن ماجرا

استفاده از فناوری گامی واکنشی است اما جهان به رویکرد کنشی برای مبارزه با اخبار نیاز دارد. هوش مصنوعی به‌تنهایی موفق نخواهد شد مگر اینکه به توده‌ مردم آموزش دهیم- به‌ویژه به جوانان- تا در مواجهه با اخبار جعلی هوشیار باشند. برخی مدارس در هند روش‌های تفکر انتقادی و عادت‌های راستی‌آزمایی را به بچه‌های متوسطه آموزش می‌دهند. اخبار جعلی به صرف الگوریتم‌ها محدود نمی‌شود بلکه رویکرد ما را نسبت به دانش بازتاب می‌دهد- خوب یا بد. اجتماع‌های متشکل از کاربرهای آگاه می‌توانند به فعالیت‌های نظارت اخلاقی کمک کنند و در عین ‌حال جمع‌سپاری دانش مشارکتی بین سازمان‌های حرفه‌ای برای تایید اخبار خام ضروری است. انسانی کردن رویکرد مبارزه با اخبار جعلی باید در اولویت باشد تا جامعه‌ای آگاه با متفکران انتقادی رشد کند. فقدان تدابیر کنشگرانه با حضور همه صاحبان منافع ممکن است به فرسایش شتابان اعتماد در رسانه‌ها و نهادها منجر شود؛ وضعیتی که پیش‌درآمد آشوب است. تا وقتی انسان‌ها یاد نگیرند محتوای آنلاین را بی‌طرفانه ارزیابی کنند، فناوری‌های مبتنی بر هوش مصنوعی باید متحدمان در مبارزه با اخبار جعلی آنلاین باشند.

منبع: وی‌فوروم

این مطلب در شماره ۱۱۰ پیوست منتشر شده است.

ماهنامه ۱۱۰ پیوست
دانلود نسخه PDF
https://pvst.ir/eau

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو