وضعیت کارآفرینی زنان خاورمیانه؛ هزارویک شب بیخوابی، هزارویک روز پشتکار
دادههای بانک جهانی نشان میدهند هرچند زنان کارآفرین عموماً عملکرد بهتری نسبت به همتایان مرد…
۹ آبان ۱۴۰۳
ثبات جامعه، بیش از هر چیز دیگری، در معرض تهدید است. نوعی پاندمی ایجاد شده که اقتصادهای کوچک و بزرگ را به یک اندازه غرق کرده است. مردم در نقاط مختلف جهان با تهدیدهایی علیه جان و ایمنی شخصیشان مواجه میشوند زیرا حجم عظیمی از اخبار جعلی احساسی و از نظر اجتماعی اختلافافکن منتشر میشود. بخش عمده این وضعیت نتیجه فناوری نوظهور است. محتوای جعلی یا برداشت افراد را دستکاری میکند یا اکاذیب محض را در جامعه اشاعه میدهد.
برنامههای مبتنی بر هوش مصنوعی برای ایجاد جعل عمیق یا دیپفیک رهبران سیاسی مورد استفاده قرار میگیرند. این برنامهها ویدئو، صوت و تصاویر رهبران سیاسی را با یکدیگر تطبیق میدهد. این نوع جعل عمیق را میتوان برای پاشیدن بذر اختلاف در جامعه و ایجاد آشوب در بازارها به کار برد.
همچنین، هوش مصنوعی در تولید محتوای شبیه محتوای تولیدشده به دست انسان نیز بهتر میشود. هوش مصنوعی این کار را با استفاده از الگوهای زبانی مانند GPT-3 انجام میدهد. این برنامه جستار، شعر و مقالهها را بر اساس یک دستور تکخطی مینویسد. هوش مصنوعی ویرایش انواع محتوا را به اندازهای کامل کرده که نرمافزارهای متنباز مانند FaceSwap و DeepFaceLab میتوانند به آماتورهای پنهان نیز اجازه دهند به مرکز ناآرامی اجتماعی تبدیل شوند. در زمانهای که انسانها دیگر نمیدانند به چه کسی باید اعتماد کنند، «استفاده مثبت از تکنولوژی به نفع خودمان» ظاهراً تنها نجاتدهنده است.
اولین ایدهای که درباره مبارزه با اطلاعات مخدوش یا دروغرسانی (disinfotmation) به ذهن میرسد فناوری تجزیهوتحلیل محتواست. ابزارهای مبتنی بر هوش مصنوعی میتوانند تحلیل زبانشناختی از محتوای متنی انجام دهند و سرنخهایی درباره الگوهای واژگان، ساختار دستوری و خوانشپذیری به دست آورند تا بتوانند محتوای تولیدشده به وسیله کامپیوتر را از محتوای تولیدشده به دست انسان تفکیک کنند. چنین الگوریتمی میتواند هر متنی را دریافت و بردارهای واژگان، جاگذاری کلمات و جفتهای زبانی را کنترل کند تا ردی از نفرتپراکنی نشان دهد.
علاوه بر این، الگوریتمهای هوش مصنوعی میتوانند تصاویر و ویدئوهای دستکاریشده را مهندسی معکوس کنند تا جعل عمیق را تشخیص دهند و محتوایی را برجسته کنند که به برچسبگذاری نیاز دارد.
اما این کافی نیست: شبکههای تخاصمآمیز مولد به اندازهای هوشمند میشوند که الگوریتمها بهزودی محتوایی تولید خواهند کرد که از محتوای انسان قابل تفکیک نخواهد بود. وضعیت وقتی بغرنج میشود که الگوریتمهای تحلیل معناشناختی نمیتوانند محتوای درون تصاویر نفرتپراکن را تفسیر کنند زیرا این تصویرها دستکاری نشدهاند بلکه با زمینههای غلط یا مخرب یا محتوای دیگر همرسانی شدهاند. هوش مصنوعی نمیتواند بررسی کند ببیند ادعایی که در برخی محتوایتان مطرح کردهاید کذب است. موانع زبانشناختی نیز چالشها را تشدید میکنند. به طور بنیادین، احساس پست آنلاین را میتوان ارزیابی کرد اما نمیتوان درستی آن را مشخص کرد. اینجاست که مداخله انسانی در همراهی با هوش مصنوعی نیاز است.
ردیابی ریشه: پلیس مرحله بعد
کشف شده که اخبار جعلی (fake news) اغلب ریشه یکسانی دارد. ریشه جایی است که اخبار قبل از انتشار آنجا قرار میگیرد. برای مثال، پروژه فاندانگو از اخباری استفاده میکند که انسانهایی در نقش راستیآزما روی آنها برچسب گذاشتهاند. سپس این پروژه پستهای رسانههای اجتماعی و صفحات آنلاینی را جستوجو میکند که واژگان یا ادعاهای مشابهی دارند. این به روزنامهنگارها و متخصصها اجازه میدهد اخبار جعلی را تا ریشهشان شناسایی و تهدیدهای بالقوه را قبل از اینکه از کنترل خارج شوند حذف کنند.
سرویسهایی مانند Politifact، Snopes و FactCheck از ویراستارهای انسانی بهره میگیرند. این افراد میتوانند جستوجوی اولیه لازم برای تایید اصالت گزارشها و عکسها را انجام دهند. وقتی محتوای جعلی پیدا میشود، الگوریتمهای هوش مصنوعی به خزیدن در وب کمک میکنند و با همان محتواهای مشابه به مقابله میپردازند. این وضعیت میتواند بینظمی اجتماعی حاکم کند. اگر محتوا اصیل باشد، امتیاز شهرت را میتوان به مقاله وبسایت مد نظر اضافه کرد. Trust Project از پارامترهایی مانند منابع، مراجع، استانداردهای اخلاقی و اصلاحات بهره میگیرد تا اعتبار نشریات خبری را ارزیابی کند.
اخبار جعلی و نفرتپراکنی مثل قارچ میرویند و چنین محتوایی با سرعت زیادی در رسانههای اجتماعی منتشر میشوند. بنابراین تکیه بر نیروی انسانی راستیآزما کافی نیست. برای مثال، یک مقاله خبری همنام ممکن است درباره حادثهای واقعی حرف بزند اما از زبان احساسی و هیجانی بهره بگیرد- این نوع زبان ممکن است برای یکی از افراد تیم راستیآزما قابل قبول باشد اما برای دیگری چنین نباشد. بنابراین، این نوع روش فیلتر کردن میتواند راستی محتوا را تایید کند اما نمیتواند نیت را تشخیص دهد.
تفاوت مشخصی وجود دارد بین اخبار جعلی و اخبار واقعیای که در شبکههای اجتماعی دستبهدست میشوند. محققان امآیتی میگویند اخبار جعلی شش برابر سریعتر از اخبار حقیقی منتقل میشود و به ۱۵۰۰ مخاطب در توییتر میرسد. علاوه بر این، طول زنجیره اخبار واقعی (تعداد افرادی که یک پست رسانه اجتماعی را منتشر کردهاند) هرگز بالای ۱۰ نرفته، اما این عدد در اخبار جعلی به ۱۹ هم رسیده است. بخشی از دلیلش این است که عناصر مخربی فوجی از باتها را استخدام میکنند تا اخبار جعلی را وایرال کنند.
انسانها نیز به همان اندازه مسئولیت دارند زیرا مردم معمولاً اخبار جعلی را سریعتر همرسانی میکنند بدون اینکه تفکر انتقادی یا قضاوت آگاهانه داشته باشند. GoodNews از موتور هوش مصنوعی برای شناسایی اخبار جعلی استفاده میکند. این کار را با استفاده از شاخصهای فعالیت انجام میدهد زیرا اخبار جعلی بیشتر در معرض همرسانی هستند تا لایک- در مقایسه با اخبار حقیقی. چنین فنونی برای ثبت اخبار مشکوک بر اساس انتشارشان میتواند از افراطی شدن جلوگیری کند.
استفاده از فناوری گامی واکنشی است اما جهان به رویکرد کنشی برای مبارزه با اخبار نیاز دارد. هوش مصنوعی بهتنهایی موفق نخواهد شد مگر اینکه به توده مردم آموزش دهیم- بهویژه به جوانان- تا در مواجهه با اخبار جعلی هوشیار باشند. برخی مدارس در هند روشهای تفکر انتقادی و عادتهای راستیآزمایی را به بچههای متوسطه آموزش میدهند. اخبار جعلی به صرف الگوریتمها محدود نمیشود بلکه رویکرد ما را نسبت به دانش بازتاب میدهد- خوب یا بد. اجتماعهای متشکل از کاربرهای آگاه میتوانند به فعالیتهای نظارت اخلاقی کمک کنند و در عین حال جمعسپاری دانش مشارکتی بین سازمانهای حرفهای برای تایید اخبار خام ضروری است. انسانی کردن رویکرد مبارزه با اخبار جعلی باید در اولویت باشد تا جامعهای آگاه با متفکران انتقادی رشد کند. فقدان تدابیر کنشگرانه با حضور همه صاحبان منافع ممکن است به فرسایش شتابان اعتماد در رسانهها و نهادها منجر شود؛ وضعیتی که پیشدرآمد آشوب است. تا وقتی انسانها یاد نگیرند محتوای آنلاین را بیطرفانه ارزیابی کنند، فناوریهای مبتنی بر هوش مصنوعی باید متحدمان در مبارزه با اخبار جعلی آنلاین باشند.
منبع: ویفوروم