skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

جنگ علیه اطلاعات وارونه: جدال با اخبار جعلی در عصر هوش مصنوعی

۲۹ شهریور ۱۴۰۲

زمان مطالعه : ۱۴ دقیقه

فیل هاوارد، پژوهشگر اینترنت دانشگاه آکسفورد، در اکتبر ۲۰۲۱ از یک روایت عجیب در شبکه‌های اجتماعی مطلع شد. روایتی با این مضمون که کووید-۱۹ با محموله‌ای از میگو‌های ایالت مین آمریکا، که چند روزی پیش از اولین موارد ابتلا در ووهان چین بندرگرفته، به آمریکا آمده است. او و همکارانش ماه‌ها به جستجو برای منبع این خبر پرداختند اما نتیجه‌ای نداشت.

هاوارد می‌گوید: «حس می‌کردم حرفه‌ام دچار بحران شده است، مسخره‌تر از همه اینکه رسوا کردن اقدامی برای دستکاری انظار عمومی، مستلزم تلاش زیادی بود. به این نتیجه رسیدم که خودم میلی به این کار ندارم و تصمیم به ایجاد طرحی گرفتم که به گونه‌ای سیستماتیک چاره‌ای برای این مشکل ارائه کند.»

هاوارا امروز رئیس یک سازمان جدید به نام هیئت بین‌المللی محیط اطلاعات (IPIE) است. یکی از طرح‌های متعددی که برای مبارزه با آلودگی اکوسیستم اطلاعات فعالیت دارند. رگولاتو‌ها هم پس از سال‌ها بی‌توجهی، بالاخره وارد عمل شده‌اند.

با توجه به پیشرفت شگرف هوش مصنوعی مولد و ظرفیتی که این تکنولوژی در تولید اطلاعات وارونه اما متقاعد کننده دارد، شرایط بسیار حساسی را شاهد هستیم. از نظر بسیاری از پژوهشگران، سرنوشت جنگ با اطلاعات وارونه در دو ساله آینده مشخص می‌شود. در یک سو تبهکاران ثروتمند و کارزار‌های اطلاعات وارونه و در سوی دیگر میدان نبرد هم عده‌ای که برای مبارزه با آن تلاش می‌کنند. پیروزی هرکدام از این جبهه‌ها، عملکرد محیط اطلاعات-و همه‌ی موضوعات متاثر از آن از جمله باور‌های مردم درمورد واکسن تا نتایج انتخابات-در آینده را مشخص می‌کند.

اطلاعات نادرست (Misinformation) و برادر بدکارش، اطلاعات وارونه (Disinformation) که بذرش با هدف گمراهی کاشته شده، هزاران سال قدمت دارند. اما با روی کار آمدن شبکه اجتماعی و عمومی شدن ابزارهای ساخت و انتشار اطلاعات وارونه، پیامد‌های ویرانگری را شاهد هستیم.

سرعت انتشار اخبار جعلی زیاد است

به گفته تریستن هریس، کارمند سابق گوگل که حالا مرکز Humane Technology در سن‌فرانسیسکو را اداره می‌کند،‌ تحقیقات پیشین نشان داده که اخبار جعلی با سرعتی شش برابر اخبار واقعی منتشر می شوند. او می‌گوید: «حتی با اینکه تعداد کمی سر و صدای زیادی به پا می‌کنند، اما شبکه اجتماعی این ۵ درصد جمعیت را گرفته و آن را روی پرده‌ای به گستره‌ زمین به نمایش می‌گذارد.»

مشخص است که چرا اطلاعات نادرست با چنین سرعتی منتشر می‌شوند. الگوریتم‌های ارائه دهنده محتوا در فیسبوک، اینستاگرام و اکس (توییتر سابق)، دو هدف اصلی دارند: جلب و حفظ توجه کاربران و ترغیب آنها به هم‌رسانی محتوا در ازای پاداش. هرچه محتوا جنجالی‌تر باشد، موفقیت این استراتژی بیشتر است. گیزم سیلان، از دانشگاه ییل، می‌گوید: «مردم در ازای هم‌رسانی اطلاعات احساسی و تحریک‌آمیز یا اطلاعاتی که دقت کافی ندارد، پاداش اجتماعی می‌گیرند و با گذشت زمان و بدون اینکه متوجه باشید، شما به پرنده‌ای تبدیل می‌شوید که به امید دریافت غذا دکمه‌ای را فشار می‌دهد.»

تحقیقات سیلان، نمود ظاهری این مساله را مشخص می‌کند. او به همراه دو همکار در آزمایشی تیتر‌های صحیح و اشتباه را به کاربران فیسبوک نشان داده و از آنها پرسیدند کدام مورد را هم‌رسانی می‌کنند. وفادارترین کاربران سایت اعلام کردند ۳۷ درصد از تیتر‌های اشتباه و ۴۳ درصد از تیت‌های صحیح را به اشتراک می‌گذارند. سیلان می‌گوید: «حقیقت اطلاعات هیچ اهمیتی برای آنها نداشت.» به گفته او بیشتر مردم یک محیط اطلاعات پاک را ترجیح می‌دهند اما مشکل اینجاست که ساختار ارائه پاداش در شبکه‌های اجتماعی بر اراده مردم غلبه دارد.

این مساله در جهان واقعی هم در اذهان بسیاری از مردم نفوذ کرده و به شکل موضوعاتی مثل حمله به ساختمان مجلس آمریکا در ۶ ژانویه ۲۰۲۱ نمود پیدا می‌کند که به نظر در یک نظریه توطئه درمورد تقلب انتخابات ریشه داشت. اطلاعات نادرست هم به پدیده‌های اجتماعی، از جمله دوقطبی سیاسی، تکذیب تغییرات اقلیمی و نتیجه انتخابات و رویکرد ضد-واکسن، دامن زده است. اما شواهد کافی برای متصل کردن این دو مساله وجود ندارد. هاوارد می‌گوید: «بخش دشوار ماجرا این است که بدانیم چه تعداد از مردم نظر یا رای‌شان را با یک شنیده تغییر می‌دهند.»

در واقع، تحقیقات جدید نشان می‌دهد که شبکه اجتماعی را نمی‌توان دلیل اصلی دوقطبی سیاسی دانست، اما نتایج ضد و نقیضی را شاهد هستیم. در اوایل سال ۲۰۲۰، تیمی از محققان شرکت متا برای پیشنهاد یک پروژه تحقیقاتی درمورد تاثیر فیسبوک و اینستاگرام بر کاربران در دوره انتخابات، به سراغ دو پژوهشگر اجتماعی، تالیا استرود از دانشگاه تگزاس و جاشوا تاکر از دانشگاه نیویورک، رفتند. متا سطح دسترسی و آزادی‌عمل بی‌سابقه‌ای را برای سوالات و طراحی مطالعه در اختیار محققان گذاشت. حاصل این همکاری مطالعه‌ای بود که نتایج آن در ماه جولای امسال منتشر شد.

شبکه اجتماعی به هدف انتقادات بدل شده است

این تحقیقات نشان داد که الگوریتم‌های متا تاثیر بسیار زیادی بر محتوای پیش روی کاربران دارند و افرادی با ایدئولوژی‌های متفاوت، محتوای سیاسی بسیار متفاوتی را مشاهده می‌کنند. البته که چنین نتیجه عجیب به نظر نمی‌رسد. قسمت جالب این یافته‌ها مربوط به سوالات دیگری است که مشخص می‌کنند آیا دستکاری الگوریتم‌های ارائه محتوا، تاثیری بر جبهه‌گیری سیاسی کاربران دارد.

آخرین انتخابات آمریکا در روز ۳ نوامبر انجام شد. بین ۲۳ سپتامبر تا ۲۳ دسامبر ۲۰۲۰، محققان پس از اعمال سه تغییر عمده در الگوریتم‌های متا، آن‌ها را روی سه گروه مجزای متشکل از ۲۳ هزار کاربر آزمایش کرده و تاثیرات آن را اندازه‌گیری کردند. تغییر اول، حذف پست‌های هم‌رسانی شده از دوستان بود. تغییر دوم، خاموش کردن فید شخصی‌سازی شده،‌ بخشی که محتوایی با انتظار بیشترین سطح مشارکت را در اختیار کاربر می‌گذارد، و جایگزین کردن آن با محتوایی به ترتیب تاریخ بود.

کشف مهم در همینجا رخ داد: هیچکدام از تغییرات هیچ تاثیری بر رویکرد سیاسی کاربران یا رای آنها نداشت. صفر. استرود می‌گوید: «حالا می‌دانیم که تغییر الگوریتم، حتی برای چند ماه، تغییری در رفتار سیاسی مردم ایجاد نمی‌کند.»

متا از این نتایج استقبال کرد. نیک‌ کلگ، رئیس امور بین‌الملل متا، در یک بیانیه بلند‌ بالای خبری گفت این مطالعات نیز «تایید دیگری بر شواهد روزافزون تحقیقاتی هستند که نشان می‌دهد قابلیت‌های اصلی پلتفرم‌های متا به تنهایی باعث قطبی‌سازی خطرناک نشده یا اثرات معناداری بر رویکرد‌ها، باور‌ها یا رفتار‌های مهم سیاسی ندارند.» اما به گفته پژوهشگران برای این نتیجه‌گیری زود است. هاوارد می‌گوید: «به نظرم یافته‌ی آنها این است که اثر کوتاه‌مدت چندانی وجود ندارد. اما هنوز شناختی از اثرات بلند‌مدت نداریم.»

همین عدم شفافیت در مورد تاثیر شبکه اجتماعی بر نتایج سیاسی هاوارد را متقاعد کرد که به یک اقدام علمی سیستماتیک برای ردیابی، درک و مبارزه با اطلاعات نادرست نیاز است. او با شلدون هایمفارب، رئیس یک سازمان خیریه به نام PeaceTech Lab در واشنگتن وارد همکاری شد. در آوریل ۲۰۲۱، آنها ساخت یک نهاد بین‌المللی درمورد اطلاعات نادرست را با برداشتی از هیئت بین‌دولتی تغییر اقلیم، پیشنهاد دادند. هیئت بین‌المللی محیط اطلاعات یا IPIE، ماه مه در آکادمی ملی علوم آمریکا در واشنگتن‌ دی‌سی، راه‌اندازی شد.

در اولین اقدام، IPIE صدها مقاله مربوط به مبارزه با اطلاعات نادرست در شبکه اجتماعی را بررسی کرد. این سازمان دریافت که از بین چندین راهکار، به نظر دو مورد آنها بازدهی دارند: نشانه‌گذاری محتوا، که براساس آن محتوا با تگ‌های حقیقت‌سنجی همراه می‌شود و شفاف‌سازی درمورد افرادی که هزینه تبلیغات را پرداخت کرده است؛ و ارائه اطلاعات اصلاحی، که فرد مسئولی اطلاعات درستی برای شایعه‌پراکنی‌ها ارائه می‌کند. هاوارد می‌گوید: «فعلا این دو تنها مواردی هستند که به آن اعتماد داریم.»

نحوه مبارزه با اطلاعات نادرست

نظارت بر محتوا، از جمله حذف محتوا یا معلق و مسدود کردن حساب کاربری یا آموزش سوال رسانه‌ای، تا حدی جواب می‌دهد. اما دیگر روش‌ها- از جمله گزارش اطلاعات نادرست، منع اشتراک‌گذاری محتوا، اطلاع‌رسانی درمورد نادرست بودن محتوا، ارجاع به منابع معتبر و غیره-هنوز اثبات نشده‌اند.

هاوارد می‌گوید، مساله اصلی این است که هیچ کدام از این راه‌کارها پلفترم‌ها را ترغیب نمی‌کنند. ملیسا فلمینگ، نایب‌رئیس ارتباطات جهانی سازمان‌ملل، می‌گوید: «تجربه نشان داده نمی‌توانیم همه‌چیز را بر عهده پلتفرم‌های شبکه اجتماعی یا دیگر پلتفرم‌های تکنولوژی بگذاریم. احساس ما این است که در یک جنگ اطلاعاتی هستیم.»

اینجا همان جایی است که دولت‌ها وارد عمل شده و بالاخره دست به کار شده‌اند. قانون خدمات دیجیتال (DSA)، اتحادیه اروپا، پیشتاز این تلاش‌ها است. براساس این قانون، که از ۱۷ فوریه سال ۲۰۲۴ لازم‌الاجرا است، پلتفرم‌های شبکه اجتماعی بزرگ باید از انتشار محتوای غیرقانونی جلوگیری کنند، تصمیمات نظارتی خود را شفاف‌تر کرده و این امکان را برای کاربران فراهم کنند تا به حذف یا تعدیل نادرست محتوای خود اعتراض کنند.

اگنی کارلپ، مدیر سابق نظارت خدمات دیجیتال و پلتفرم‌ها در کمیسیون اروپا و رئیس حال حاضر سیاست شرکت نظارت بر محتوای Tremau، می‌گوید: «مهم‌ترین موضوع اینکه، [پلتفرم‌ها] متعهد می‌شوند تا ارزیابی خطری برای تاثیر طراحی و عملکرد پلتفرم‌های خود بر انتخابات، روابط مدنی و نحوه حذف محتوای غیرقانونی داشته باشند.»

براساس قانون خدمات دیجیتال، شرکت‌های شبکه اجتماعی باید، اطلاعات بیشتری درمورد داده‌ها ارائه کنند. هاوارد می‌گوید، این مساله به ویژه برای پژوهشگران برد بزرگی است. به گفته او: «بسیاری از اثراتی که ما از آنها مطمئن نبودیم، نیازمند دسترسی به داده‌های بسیار عمیقی است.»

مقررات مشابهی در انگلستان، استرالیا، برزیل و کانادا نیز در راه هستند. سازمان ملل نیز در حال طراحی یک آیین‌نامه رفتاری است. اما ایالات متحده هنوز فعالیتی در بحث رگولاتوری ندارد. یکی از دلایل اصلی این موضوع،‌ متمم اول قانون اساسی ایالات متحده به تاریخ سال ۱۷۹۱ است که براساس آن کنگره نمی‌تواند هیچ قانونی برای محدود کردن آزادی بیان تصویب کند.

اما آزادی بیان شاید برگ برنده بزرگی نباشد. مطالعه جدیدی از استفان لواندوفسکی در دانشگاه بریستل انگلستان، از ۲۵۶۴ آمریکایی درمورد رویکردشان نسبت به نظارت محتوا نظرسنجی کرده است. او می‌گوید: «کشف اصلی این بود که آنها با نظارت محتوا مشکلی ندارند. آنها با حذف اطلاعات نادرستی که باعث آسیب می‌شود موافقند.»

اما شاید بزرگترین مشکل این باشد که تمام این حوادث را به موازات یک تهدید بزرگ دیگر شاهد هستیم: ابزارهای هوش مصنوعی که می‌توانند در جواب دستور‌های انسان، متن، تصویر و ویدیو متقاعدکننده‌ای تولید کنند. استفن کینگ، مدیرعامل بنیاد لومینیت (Luminate)، که برای برطرف کردن تهدید‌های دیجیتال برای دموکراسی تلاش می‌کند، می‌گوید: «وقتی به روش تولید و توزیع اطلاعات وارونه در جهان امروز فکر می‌کنیم، هوش مصنوعی آن را تقویت می‌کند. یک یا دو سال دیگر، گستره و دامنه موضوع بسیار فراتر از آن چیزی است که تصورش را می‌کنیم. مساله این است که پیش از بهبودی، قرار است وضع بدتر شود.»

هاوارد می‌گوید تبهکاران می‌توانند از مولد‌های رایگانی مثل ChatGPT استفاده کنند یا حتی الگوریتم‌های پروپاگاندای خودشان را براساس اطلاعات وارونه بسازند. فرنسس هوگن، کارمند سابق فیسبوک که در سال ۲۰۲۱ مستنداتی را درمورد ناتوانی این شرکت در مبارزه با اطلاعات نادرست منتشر کرد و حالا در شرکت Beyond the Screen، یک سازمان غیردولتی که برای تفحص و اعتدال بیشتر شبکه‌های اجتماعی تلاش می‌کند، فعال است می‌گوید: «شما در حال حاضر می‌توانید ۱۰ هزار دروغ تولید کرده و ببینید کدامشان وایرال می‌شود. زمین بازی در آینده بسیار متفاوت است.»

تحقیقات از یک نبرد بازنده حکایت دارند. سندر ون در لیندن، روانشناس دانشگاه کمبریج، می‌گوید: «وقتی هوش مصنوعی مولد را با پروپاگاندای انسانی آموزش دهید، پروپاگاندای الگوریتمی حداقل تا اندازه‌ای متقاعد کننده‌تر خواهد بود، زیرا فشرده‌تر، کوتاه‌تر و گیراتر است.»

شرکت تکنولوژی Logically که به مبارزه با اطلاعات وارون مشغول است در ماه جولای نتایج آزمایشی جالب توجه با هوش مصنوعی مولد را منتشر کرد. محققان از سه هوش مصنوعی مولد عکس-میدجرنی، DALL-E 2 و استیبل دیفیوژن- خواستند تا درمورد موضوعات داغ سیاسی آمریکا، هند و انگلستان تصاویر جعلی تولید کنند. گاه به دلیل محدودیت‌هایی که توسعه‌دهندگان در نظر گرفته‌اند، ممکن است هوش مصنوعی از پاسخ به یک سری سوالات امتناع کند. با این حال، بیشتر پرامپت‌های محققان پذیرفته شد و تصاویر جعلی و به ظاهر واقعی خلق شدند که یکی از آنها به تقلب در انتخابات الکتروال آمریکا اشاره داشت، دیگری به نابودی مجسمه آیزاک نیوتون در کمبریج انگلستان و تصویر آخر هم از زن مسلمانی با روسری، در حالی که از حزب ملی‌گرای هندو در دهلی هند حمایت می‌کرد.

هوش مصنوعی پشت رول اطلاعات وارونه

بت لمبرت از شلکت Logically، و رئیس سابق مرکز مبارزه با اطلاعات وارونه وزارت فرهنگ، رسانه و ورزش انگلستان، می‌گوید: «هشتاد و شش درصد از عکس‌هایی که ما امتحان کردیم واقعا سطحی از اطلاعات وارونه‌ را به شکل تصاویر بسیار واقعی منتقل می‌کردند.» به گفته او وقتی انسان‌ها به تولید اطلاعات وارونه می‌پرداختند، کیفیت و کمیت در کنار هم ممکن نبود. اما دیگر اینگونه نیست.

سرعت پیشرفت این تکنولوژی باعث نگرانی است. در حال حاضر، هوش مصنوعی‌های مختلف می‌توانند متن، تصویر و ویدیو‌ تولید کنند اما هنوز یک ابزار همه‌کاره نداریم. به گفته استیو برگام از تیم پژوهش اخلاقی گوگل دیپ‌مایند، مرحله بعدی ساخت نسخه‌هایی است که بتوانند هرسه کار را برای یک موضوع خاص انجام دهند. او می‌گوید: «انجام چند مورد از این کارها پیامد‌های خاصی را به ویژه در زمینه محدود کردن اطلاعات وارونه و نادرست و حتی شکل و شمایل اطلاعات نادرست یا وارونه دارد.» او می‌گوید هوش مصنوعی چند‌عاملی، که براساس آن چند هوش مصنوعی برای رفع مشکلات با هم مکالمه می‌کنند،‌ هم با پیامد‌های ناشناخته‌ای به سرعت در حال پیشرفت است.

سم استاکول از موسسه Alan Turing لندن، یک احتمال بعید دیگر را عاملیت‌های هوشمند خودکار می‌نامد: نوعی هوش مصنوعی که وظیفه‌ای را به آن می‌گویید و خودش بدون پرامپت بیشتری نحوه انجام کار را پیدا می‌کند. او می‌گوید: «این احتمال وجود دارد که یک عاملیت هوش مصنوعی استراتژی اطلاعات نادرست را به دست بگیرد.»

البته که این لیوان نیمه پری هم دارد. در حال حاضر بسیاری از حقیقت‌سنج‌ها از هوش مصنوعی برای شناسایی اطلاعات نادرست استفاده می‌کنند و هوش مصنوعی مولد بهره‌وری بیشتری در این حوزه دارد. سارا شیرازیان، مدیر سیاست محتوایی متا، می‌گوید: «بدون هوش مصنوعی، ما نمی‌توانیم در زمان مناسب این حجم از نظارت بر محتوا را انجام دهیم. برای مثال، هوش مصنوعی به شکل فعالی محتوای خطرناک، از نفرت‌پراکنی گرفته تا خلق گسترده حساب‌های جعلی، را شناسایی و مشخص کند و پیش از گزارش کاربران یا حتی مشاهده آنها چنین چیزهایی را حذف کند.»

اما تحقیقات پیشین نشان می‌دهند که نظارت بر محتوا به تنهایی کفایت نمی‌کند. سیلان می‌گوید: «حقیقت‌سنجی و رد یک موضوع به رفع مشکلات ما کمکی نمی‌کند.»

پاول رامر از کالج بوستون، که سال ۲۰۱۸ جایزه مشترک نوبل اقتصاد را دریافت کرد، می‌گوید یکی از راهکارهای موثر را می‌توان از تکنیک‌های کریپتوگرافی برداشت کرد. او می‌گوید «باید یکی از مشکلات بنیادین مربوط به اعتبار دیجیتال را برطرف کنیم: چطور بدانم چه کسی پشت این محتوا است؟ این مشکل با کریپتوگرافی حل شده است، سیستمی به نام امضاهای دیجیتال وجود دارد، اما ما هنوز زحمت اجرای آن را [در شبکه‌های اجتماعی] به خودمان نداده‌ایم.»

در کریپتوگرافی، اعتبار فرستنده یک متن یا مستند با امضاهای دیجیتال تایید می‌شود و به گفته رامر با همین سیستم می‌توان انسان بودن تولید کننده محتوا در شبکه اجتماعی را تایید کرد. محتوای ساخته هوش مصنوعی را نیز می‌توان نهان‌نگاری کرد تا پلتفرم‌های شبکه‌ اجتماعی به سادگی آن را شناخته و علامت‌گذاری کنند. به گفته شیرازیان، شرکت‌های بزرگی مثل متا، گوگل و اوپن‌ای‌آی در یک تعهد داوطلبانه به نهان‌نگاری یا واترمارک متعهد شده‌اند.

راه‌های دیگری هم برای مبارزه رفع آلودگی اطلاعات وجود دارد. هاوارد می‌گوید: «بسیاری معتقدند که راه‌حل بلند‌مدت، تدریس سواد دیجیتال در دبیرستان‌ها است تا مردم بهتر از تکنولوژی استفاده کنند. اما مشخص نیست که یک طرح سواد دیجیتالی چگونه خواهد بود. همین مساله احتمالا یکی از موضوعات مورد توجه ما در IPIE خواهد بود.»

اما حداقل مدل‌های خوبی داریم. به گفته جوسی تویوانن در مرکز ملی امنیت سایبری فنلاند، کشور او- که با روسیه هم مرز است و به تازگی هدف کارزار شایعه‌پراکنی کرملین قرار گرفته بود-مبارزه با اطلاعات نادرست را شدیدتر کرده است. او می‌گوید: «سواد رسانه‌ای از دهه ۱۹۷۰ بخشی از برنامه رسمی تحصیل در مدارس ما است. این روند از مهد کودک آغاز می‌شود، به ابتدایی می‌آید و تا بزرگسالی ادامه دارد.»

ون در لیندن، که چیزی به نام «ایمن‌سازی» (inoculation) را آزمایش می‌کند معتقد است فنلاند نمونه خوبی است. در روند ایمن‌سازی، مردم در معرض دوز‌های ضعیفی از برخی تکنیک‌های دستکاری روانی- انکار، انحراف، نظریه‌های توطئه، تسمخر، جریحه‌دار کردن احساسات، حراس‌افکنی، خشم و دوراهی اشتباهی مثل «یا با منی یا در مقابل من»-قرار گرفته و سپس این ترفند‌ها را برایشان توضیح می‌دهند تا یک مقاومت ذهنی ایجاد شود. شواهد تحقیقات نشان می‌دهد که رویکرد ایمن‌سازی در عمل بازدهی دارد.

درنتیجه جبهه‌های جنگ مشخص است. در یک سو غول‌های شبکه اجتماعی و تبهکارانی هستند که این خدمات را از اطلاعات غلط پر می‌کنند و حالا به هوش مصنوعی مولد هم دسترسی دارند و در سوی دیگر هم محققان، قانون‌گذاران و جامعه. به سختی می‌توان نتیجه را پیش‌بینی کرد اما نتیجه این جنگ بر همه ما تاثیرگذار است و هیچکدام از آن مصون نیستیم.

هاوارد می‌گوید: «بهترین حالت ماجرا این است که جامعه تحقیاتی بتواند به گونه‌ای یکپارچه برای دسترسی به داده‌ها درخواست دهد. بدترین حالت اینکه پلتفرم‌های تکنولوژی امتنا کرده و رگولاتور‌ها هم اراده سیاسی کافی نداشته باشند.»

https://pvst.ir/fyb

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو