مشکل فنی بانکی موجب تاخیر در تسویه پرداختیارها شد
براساس اطلاعیه پرداختیارهای زرینپال، وندار و جیبیت، تسویه پرداختیاری امروز، یکم آذر ۱۴۰۳، با تاخیر…
۱ آذر ۱۴۰۳
۲۹ شهریور ۱۴۰۲
زمان مطالعه : ۱۴ دقیقه
فیل هاوارد، پژوهشگر اینترنت دانشگاه آکسفورد، در اکتبر ۲۰۲۱ از یک روایت عجیب در شبکههای اجتماعی مطلع شد. روایتی با این مضمون که کووید-۱۹ با محمولهای از میگوهای ایالت مین آمریکا، که چند روزی پیش از اولین موارد ابتلا در ووهان چین بندرگرفته، به آمریکا آمده است. او و همکارانش ماهها به جستجو برای منبع این خبر پرداختند اما نتیجهای نداشت.
هاوارد میگوید: «حس میکردم حرفهام دچار بحران شده است، مسخرهتر از همه اینکه رسوا کردن اقدامی برای دستکاری انظار عمومی، مستلزم تلاش زیادی بود. به این نتیجه رسیدم که خودم میلی به این کار ندارم و تصمیم به ایجاد طرحی گرفتم که به گونهای سیستماتیک چارهای برای این مشکل ارائه کند.»
هاوارا امروز رئیس یک سازمان جدید به نام هیئت بینالمللی محیط اطلاعات (IPIE) است. یکی از طرحهای متعددی که برای مبارزه با آلودگی اکوسیستم اطلاعات فعالیت دارند. رگولاتوها هم پس از سالها بیتوجهی، بالاخره وارد عمل شدهاند.
با توجه به پیشرفت شگرف هوش مصنوعی مولد و ظرفیتی که این تکنولوژی در تولید اطلاعات وارونه اما متقاعد کننده دارد، شرایط بسیار حساسی را شاهد هستیم. از نظر بسیاری از پژوهشگران، سرنوشت جنگ با اطلاعات وارونه در دو ساله آینده مشخص میشود. در یک سو تبهکاران ثروتمند و کارزارهای اطلاعات وارونه و در سوی دیگر میدان نبرد هم عدهای که برای مبارزه با آن تلاش میکنند. پیروزی هرکدام از این جبههها، عملکرد محیط اطلاعات-و همهی موضوعات متاثر از آن از جمله باورهای مردم درمورد واکسن تا نتایج انتخابات-در آینده را مشخص میکند.
اطلاعات نادرست (Misinformation) و برادر بدکارش، اطلاعات وارونه (Disinformation) که بذرش با هدف گمراهی کاشته شده، هزاران سال قدمت دارند. اما با روی کار آمدن شبکه اجتماعی و عمومی شدن ابزارهای ساخت و انتشار اطلاعات وارونه، پیامدهای ویرانگری را شاهد هستیم.
به گفته تریستن هریس، کارمند سابق گوگل که حالا مرکز Humane Technology در سنفرانسیسکو را اداره میکند، تحقیقات پیشین نشان داده که اخبار جعلی با سرعتی شش برابر اخبار واقعی منتشر می شوند. او میگوید: «حتی با اینکه تعداد کمی سر و صدای زیادی به پا میکنند، اما شبکه اجتماعی این ۵ درصد جمعیت را گرفته و آن را روی پردهای به گستره زمین به نمایش میگذارد.»
مشخص است که چرا اطلاعات نادرست با چنین سرعتی منتشر میشوند. الگوریتمهای ارائه دهنده محتوا در فیسبوک، اینستاگرام و اکس (توییتر سابق)، دو هدف اصلی دارند: جلب و حفظ توجه کاربران و ترغیب آنها به همرسانی محتوا در ازای پاداش. هرچه محتوا جنجالیتر باشد، موفقیت این استراتژی بیشتر است. گیزم سیلان، از دانشگاه ییل، میگوید: «مردم در ازای همرسانی اطلاعات احساسی و تحریکآمیز یا اطلاعاتی که دقت کافی ندارد، پاداش اجتماعی میگیرند و با گذشت زمان و بدون اینکه متوجه باشید، شما به پرندهای تبدیل میشوید که به امید دریافت غذا دکمهای را فشار میدهد.»
تحقیقات سیلان، نمود ظاهری این مساله را مشخص میکند. او به همراه دو همکار در آزمایشی تیترهای صحیح و اشتباه را به کاربران فیسبوک نشان داده و از آنها پرسیدند کدام مورد را همرسانی میکنند. وفادارترین کاربران سایت اعلام کردند ۳۷ درصد از تیترهای اشتباه و ۴۳ درصد از تیتهای صحیح را به اشتراک میگذارند. سیلان میگوید: «حقیقت اطلاعات هیچ اهمیتی برای آنها نداشت.» به گفته او بیشتر مردم یک محیط اطلاعات پاک را ترجیح میدهند اما مشکل اینجاست که ساختار ارائه پاداش در شبکههای اجتماعی بر اراده مردم غلبه دارد.
این مساله در جهان واقعی هم در اذهان بسیاری از مردم نفوذ کرده و به شکل موضوعاتی مثل حمله به ساختمان مجلس آمریکا در ۶ ژانویه ۲۰۲۱ نمود پیدا میکند که به نظر در یک نظریه توطئه درمورد تقلب انتخابات ریشه داشت. اطلاعات نادرست هم به پدیدههای اجتماعی، از جمله دوقطبی سیاسی، تکذیب تغییرات اقلیمی و نتیجه انتخابات و رویکرد ضد-واکسن، دامن زده است. اما شواهد کافی برای متصل کردن این دو مساله وجود ندارد. هاوارد میگوید: «بخش دشوار ماجرا این است که بدانیم چه تعداد از مردم نظر یا رایشان را با یک شنیده تغییر میدهند.»
در واقع، تحقیقات جدید نشان میدهد که شبکه اجتماعی را نمیتوان دلیل اصلی دوقطبی سیاسی دانست، اما نتایج ضد و نقیضی را شاهد هستیم. در اوایل سال ۲۰۲۰، تیمی از محققان شرکت متا برای پیشنهاد یک پروژه تحقیقاتی درمورد تاثیر فیسبوک و اینستاگرام بر کاربران در دوره انتخابات، به سراغ دو پژوهشگر اجتماعی، تالیا استرود از دانشگاه تگزاس و جاشوا تاکر از دانشگاه نیویورک، رفتند. متا سطح دسترسی و آزادیعمل بیسابقهای را برای سوالات و طراحی مطالعه در اختیار محققان گذاشت. حاصل این همکاری مطالعهای بود که نتایج آن در ماه جولای امسال منتشر شد.
این تحقیقات نشان داد که الگوریتمهای متا تاثیر بسیار زیادی بر محتوای پیش روی کاربران دارند و افرادی با ایدئولوژیهای متفاوت، محتوای سیاسی بسیار متفاوتی را مشاهده میکنند. البته که چنین نتیجه عجیب به نظر نمیرسد. قسمت جالب این یافتهها مربوط به سوالات دیگری است که مشخص میکنند آیا دستکاری الگوریتمهای ارائه محتوا، تاثیری بر جبههگیری سیاسی کاربران دارد.
آخرین انتخابات آمریکا در روز ۳ نوامبر انجام شد. بین ۲۳ سپتامبر تا ۲۳ دسامبر ۲۰۲۰، محققان پس از اعمال سه تغییر عمده در الگوریتمهای متا، آنها را روی سه گروه مجزای متشکل از ۲۳ هزار کاربر آزمایش کرده و تاثیرات آن را اندازهگیری کردند. تغییر اول، حذف پستهای همرسانی شده از دوستان بود. تغییر دوم، خاموش کردن فید شخصیسازی شده، بخشی که محتوایی با انتظار بیشترین سطح مشارکت را در اختیار کاربر میگذارد، و جایگزین کردن آن با محتوایی به ترتیب تاریخ بود.
کشف مهم در همینجا رخ داد: هیچکدام از تغییرات هیچ تاثیری بر رویکرد سیاسی کاربران یا رای آنها نداشت. صفر. استرود میگوید: «حالا میدانیم که تغییر الگوریتم، حتی برای چند ماه، تغییری در رفتار سیاسی مردم ایجاد نمیکند.»
متا از این نتایج استقبال کرد. نیک کلگ، رئیس امور بینالملل متا، در یک بیانیه بلند بالای خبری گفت این مطالعات نیز «تایید دیگری بر شواهد روزافزون تحقیقاتی هستند که نشان میدهد قابلیتهای اصلی پلتفرمهای متا به تنهایی باعث قطبیسازی خطرناک نشده یا اثرات معناداری بر رویکردها، باورها یا رفتارهای مهم سیاسی ندارند.» اما به گفته پژوهشگران برای این نتیجهگیری زود است. هاوارد میگوید: «به نظرم یافتهی آنها این است که اثر کوتاهمدت چندانی وجود ندارد. اما هنوز شناختی از اثرات بلندمدت نداریم.»
همین عدم شفافیت در مورد تاثیر شبکه اجتماعی بر نتایج سیاسی هاوارد را متقاعد کرد که به یک اقدام علمی سیستماتیک برای ردیابی، درک و مبارزه با اطلاعات نادرست نیاز است. او با شلدون هایمفارب، رئیس یک سازمان خیریه به نام PeaceTech Lab در واشنگتن وارد همکاری شد. در آوریل ۲۰۲۱، آنها ساخت یک نهاد بینالمللی درمورد اطلاعات نادرست را با برداشتی از هیئت بیندولتی تغییر اقلیم، پیشنهاد دادند. هیئت بینالمللی محیط اطلاعات یا IPIE، ماه مه در آکادمی ملی علوم آمریکا در واشنگتن دیسی، راهاندازی شد.
در اولین اقدام، IPIE صدها مقاله مربوط به مبارزه با اطلاعات نادرست در شبکه اجتماعی را بررسی کرد. این سازمان دریافت که از بین چندین راهکار، به نظر دو مورد آنها بازدهی دارند: نشانهگذاری محتوا، که براساس آن محتوا با تگهای حقیقتسنجی همراه میشود و شفافسازی درمورد افرادی که هزینه تبلیغات را پرداخت کرده است؛ و ارائه اطلاعات اصلاحی، که فرد مسئولی اطلاعات درستی برای شایعهپراکنیها ارائه میکند. هاوارد میگوید: «فعلا این دو تنها مواردی هستند که به آن اعتماد داریم.»
نظارت بر محتوا، از جمله حذف محتوا یا معلق و مسدود کردن حساب کاربری یا آموزش سوال رسانهای، تا حدی جواب میدهد. اما دیگر روشها- از جمله گزارش اطلاعات نادرست، منع اشتراکگذاری محتوا، اطلاعرسانی درمورد نادرست بودن محتوا، ارجاع به منابع معتبر و غیره-هنوز اثبات نشدهاند.
هاوارد میگوید، مساله اصلی این است که هیچ کدام از این راهکارها پلفترمها را ترغیب نمیکنند. ملیسا فلمینگ، نایبرئیس ارتباطات جهانی سازمانملل، میگوید: «تجربه نشان داده نمیتوانیم همهچیز را بر عهده پلتفرمهای شبکه اجتماعی یا دیگر پلتفرمهای تکنولوژی بگذاریم. احساس ما این است که در یک جنگ اطلاعاتی هستیم.»
اینجا همان جایی است که دولتها وارد عمل شده و بالاخره دست به کار شدهاند. قانون خدمات دیجیتال (DSA)، اتحادیه اروپا، پیشتاز این تلاشها است. براساس این قانون، که از ۱۷ فوریه سال ۲۰۲۴ لازمالاجرا است، پلتفرمهای شبکه اجتماعی بزرگ باید از انتشار محتوای غیرقانونی جلوگیری کنند، تصمیمات نظارتی خود را شفافتر کرده و این امکان را برای کاربران فراهم کنند تا به حذف یا تعدیل نادرست محتوای خود اعتراض کنند.
اگنی کارلپ، مدیر سابق نظارت خدمات دیجیتال و پلتفرمها در کمیسیون اروپا و رئیس حال حاضر سیاست شرکت نظارت بر محتوای Tremau، میگوید: «مهمترین موضوع اینکه، [پلتفرمها] متعهد میشوند تا ارزیابی خطری برای تاثیر طراحی و عملکرد پلتفرمهای خود بر انتخابات، روابط مدنی و نحوه حذف محتوای غیرقانونی داشته باشند.»
براساس قانون خدمات دیجیتال، شرکتهای شبکه اجتماعی باید، اطلاعات بیشتری درمورد دادهها ارائه کنند. هاوارد میگوید، این مساله به ویژه برای پژوهشگران برد بزرگی است. به گفته او: «بسیاری از اثراتی که ما از آنها مطمئن نبودیم، نیازمند دسترسی به دادههای بسیار عمیقی است.»
مقررات مشابهی در انگلستان، استرالیا، برزیل و کانادا نیز در راه هستند. سازمان ملل نیز در حال طراحی یک آییننامه رفتاری است. اما ایالات متحده هنوز فعالیتی در بحث رگولاتوری ندارد. یکی از دلایل اصلی این موضوع، متمم اول قانون اساسی ایالات متحده به تاریخ سال ۱۷۹۱ است که براساس آن کنگره نمیتواند هیچ قانونی برای محدود کردن آزادی بیان تصویب کند.
اما آزادی بیان شاید برگ برنده بزرگی نباشد. مطالعه جدیدی از استفان لواندوفسکی در دانشگاه بریستل انگلستان، از ۲۵۶۴ آمریکایی درمورد رویکردشان نسبت به نظارت محتوا نظرسنجی کرده است. او میگوید: «کشف اصلی این بود که آنها با نظارت محتوا مشکلی ندارند. آنها با حذف اطلاعات نادرستی که باعث آسیب میشود موافقند.»
اما شاید بزرگترین مشکل این باشد که تمام این حوادث را به موازات یک تهدید بزرگ دیگر شاهد هستیم: ابزارهای هوش مصنوعی که میتوانند در جواب دستورهای انسان، متن، تصویر و ویدیو متقاعدکنندهای تولید کنند. استفن کینگ، مدیرعامل بنیاد لومینیت (Luminate)، که برای برطرف کردن تهدیدهای دیجیتال برای دموکراسی تلاش میکند، میگوید: «وقتی به روش تولید و توزیع اطلاعات وارونه در جهان امروز فکر میکنیم، هوش مصنوعی آن را تقویت میکند. یک یا دو سال دیگر، گستره و دامنه موضوع بسیار فراتر از آن چیزی است که تصورش را میکنیم. مساله این است که پیش از بهبودی، قرار است وضع بدتر شود.»
هاوارد میگوید تبهکاران میتوانند از مولدهای رایگانی مثل ChatGPT استفاده کنند یا حتی الگوریتمهای پروپاگاندای خودشان را براساس اطلاعات وارونه بسازند. فرنسس هوگن، کارمند سابق فیسبوک که در سال ۲۰۲۱ مستنداتی را درمورد ناتوانی این شرکت در مبارزه با اطلاعات نادرست منتشر کرد و حالا در شرکت Beyond the Screen، یک سازمان غیردولتی که برای تفحص و اعتدال بیشتر شبکههای اجتماعی تلاش میکند، فعال است میگوید: «شما در حال حاضر میتوانید ۱۰ هزار دروغ تولید کرده و ببینید کدامشان وایرال میشود. زمین بازی در آینده بسیار متفاوت است.»
تحقیقات از یک نبرد بازنده حکایت دارند. سندر ون در لیندن، روانشناس دانشگاه کمبریج، میگوید: «وقتی هوش مصنوعی مولد را با پروپاگاندای انسانی آموزش دهید، پروپاگاندای الگوریتمی حداقل تا اندازهای متقاعد کنندهتر خواهد بود، زیرا فشردهتر، کوتاهتر و گیراتر است.»
شرکت تکنولوژی Logically که به مبارزه با اطلاعات وارون مشغول است در ماه جولای نتایج آزمایشی جالب توجه با هوش مصنوعی مولد را منتشر کرد. محققان از سه هوش مصنوعی مولد عکس-میدجرنی، DALL-E 2 و استیبل دیفیوژن- خواستند تا درمورد موضوعات داغ سیاسی آمریکا، هند و انگلستان تصاویر جعلی تولید کنند. گاه به دلیل محدودیتهایی که توسعهدهندگان در نظر گرفتهاند، ممکن است هوش مصنوعی از پاسخ به یک سری سوالات امتناع کند. با این حال، بیشتر پرامپتهای محققان پذیرفته شد و تصاویر جعلی و به ظاهر واقعی خلق شدند که یکی از آنها به تقلب در انتخابات الکتروال آمریکا اشاره داشت، دیگری به نابودی مجسمه آیزاک نیوتون در کمبریج انگلستان و تصویر آخر هم از زن مسلمانی با روسری، در حالی که از حزب ملیگرای هندو در دهلی هند حمایت میکرد.
بت لمبرت از شلکت Logically، و رئیس سابق مرکز مبارزه با اطلاعات وارونه وزارت فرهنگ، رسانه و ورزش انگلستان، میگوید: «هشتاد و شش درصد از عکسهایی که ما امتحان کردیم واقعا سطحی از اطلاعات وارونه را به شکل تصاویر بسیار واقعی منتقل میکردند.» به گفته او وقتی انسانها به تولید اطلاعات وارونه میپرداختند، کیفیت و کمیت در کنار هم ممکن نبود. اما دیگر اینگونه نیست.
سرعت پیشرفت این تکنولوژی باعث نگرانی است. در حال حاضر، هوش مصنوعیهای مختلف میتوانند متن، تصویر و ویدیو تولید کنند اما هنوز یک ابزار همهکاره نداریم. به گفته استیو برگام از تیم پژوهش اخلاقی گوگل دیپمایند، مرحله بعدی ساخت نسخههایی است که بتوانند هرسه کار را برای یک موضوع خاص انجام دهند. او میگوید: «انجام چند مورد از این کارها پیامدهای خاصی را به ویژه در زمینه محدود کردن اطلاعات وارونه و نادرست و حتی شکل و شمایل اطلاعات نادرست یا وارونه دارد.» او میگوید هوش مصنوعی چندعاملی، که براساس آن چند هوش مصنوعی برای رفع مشکلات با هم مکالمه میکنند، هم با پیامدهای ناشناختهای به سرعت در حال پیشرفت است.
سم استاکول از موسسه Alan Turing لندن، یک احتمال بعید دیگر را عاملیتهای هوشمند خودکار مینامد: نوعی هوش مصنوعی که وظیفهای را به آن میگویید و خودش بدون پرامپت بیشتری نحوه انجام کار را پیدا میکند. او میگوید: «این احتمال وجود دارد که یک عاملیت هوش مصنوعی استراتژی اطلاعات نادرست را به دست بگیرد.»
البته که این لیوان نیمه پری هم دارد. در حال حاضر بسیاری از حقیقتسنجها از هوش مصنوعی برای شناسایی اطلاعات نادرست استفاده میکنند و هوش مصنوعی مولد بهرهوری بیشتری در این حوزه دارد. سارا شیرازیان، مدیر سیاست محتوایی متا، میگوید: «بدون هوش مصنوعی، ما نمیتوانیم در زمان مناسب این حجم از نظارت بر محتوا را انجام دهیم. برای مثال، هوش مصنوعی به شکل فعالی محتوای خطرناک، از نفرتپراکنی گرفته تا خلق گسترده حسابهای جعلی، را شناسایی و مشخص کند و پیش از گزارش کاربران یا حتی مشاهده آنها چنین چیزهایی را حذف کند.»
اما تحقیقات پیشین نشان میدهند که نظارت بر محتوا به تنهایی کفایت نمیکند. سیلان میگوید: «حقیقتسنجی و رد یک موضوع به رفع مشکلات ما کمکی نمیکند.»
پاول رامر از کالج بوستون، که سال ۲۰۱۸ جایزه مشترک نوبل اقتصاد را دریافت کرد، میگوید یکی از راهکارهای موثر را میتوان از تکنیکهای کریپتوگرافی برداشت کرد. او میگوید «باید یکی از مشکلات بنیادین مربوط به اعتبار دیجیتال را برطرف کنیم: چطور بدانم چه کسی پشت این محتوا است؟ این مشکل با کریپتوگرافی حل شده است، سیستمی به نام امضاهای دیجیتال وجود دارد، اما ما هنوز زحمت اجرای آن را [در شبکههای اجتماعی] به خودمان ندادهایم.»
در کریپتوگرافی، اعتبار فرستنده یک متن یا مستند با امضاهای دیجیتال تایید میشود و به گفته رامر با همین سیستم میتوان انسان بودن تولید کننده محتوا در شبکه اجتماعی را تایید کرد. محتوای ساخته هوش مصنوعی را نیز میتوان نهاننگاری کرد تا پلتفرمهای شبکه اجتماعی به سادگی آن را شناخته و علامتگذاری کنند. به گفته شیرازیان، شرکتهای بزرگی مثل متا، گوگل و اوپنایآی در یک تعهد داوطلبانه به نهاننگاری یا واترمارک متعهد شدهاند.
راههای دیگری هم برای مبارزه رفع آلودگی اطلاعات وجود دارد. هاوارد میگوید: «بسیاری معتقدند که راهحل بلندمدت، تدریس سواد دیجیتال در دبیرستانها است تا مردم بهتر از تکنولوژی استفاده کنند. اما مشخص نیست که یک طرح سواد دیجیتالی چگونه خواهد بود. همین مساله احتمالا یکی از موضوعات مورد توجه ما در IPIE خواهد بود.»
اما حداقل مدلهای خوبی داریم. به گفته جوسی تویوانن در مرکز ملی امنیت سایبری فنلاند، کشور او- که با روسیه هم مرز است و به تازگی هدف کارزار شایعهپراکنی کرملین قرار گرفته بود-مبارزه با اطلاعات نادرست را شدیدتر کرده است. او میگوید: «سواد رسانهای از دهه ۱۹۷۰ بخشی از برنامه رسمی تحصیل در مدارس ما است. این روند از مهد کودک آغاز میشود، به ابتدایی میآید و تا بزرگسالی ادامه دارد.»
ون در لیندن، که چیزی به نام «ایمنسازی» (inoculation) را آزمایش میکند معتقد است فنلاند نمونه خوبی است. در روند ایمنسازی، مردم در معرض دوزهای ضعیفی از برخی تکنیکهای دستکاری روانی- انکار، انحراف، نظریههای توطئه، تسمخر، جریحهدار کردن احساسات، حراسافکنی، خشم و دوراهی اشتباهی مثل «یا با منی یا در مقابل من»-قرار گرفته و سپس این ترفندها را برایشان توضیح میدهند تا یک مقاومت ذهنی ایجاد شود. شواهد تحقیقات نشان میدهد که رویکرد ایمنسازی در عمل بازدهی دارد.
درنتیجه جبهههای جنگ مشخص است. در یک سو غولهای شبکه اجتماعی و تبهکارانی هستند که این خدمات را از اطلاعات غلط پر میکنند و حالا به هوش مصنوعی مولد هم دسترسی دارند و در سوی دیگر هم محققان، قانونگذاران و جامعه. به سختی میتوان نتیجه را پیشبینی کرد اما نتیجه این جنگ بر همه ما تاثیرگذار است و هیچکدام از آن مصون نیستیم.
هاوارد میگوید: «بهترین حالت ماجرا این است که جامعه تحقیاتی بتواند به گونهای یکپارچه برای دسترسی به دادهها درخواست دهد. بدترین حالت اینکه پلتفرمهای تکنولوژی امتنا کرده و رگولاتورها هم اراده سیاسی کافی نداشته باشند.»