اتحادیه اروپا برای کمک به نوآوری، مقررات و الزامات فناوری را کاهش میدهد
حنا ویرکونن، معاون اجرایی سیاستهای دیجیتال کمیسیون اروپا، اعلام کرد که کاهش مقررات فناوری در…
۲۶ بهمن ۱۴۰۳
۲۶ بهمن ۱۴۰۳
زمان مطالعه : ۶ دقیقه
انتشار اطلاعات نادرست هوش مصنوعی شاید ناگزیر به نظر برسد. فناوریهای هوش مصنوعی، با قابلیت تولید متون، تصاویر، صدا و ویدئوهای جعلی متقاعدکننده (که اغلب به عنوان «دیپفیک» شناخته میشوند)، مشکلات قابلتوجهی در تشخیص محتوای معتبر از آثار مصنوعی ایجاد میکنند. این قابلیت به متخلفان اجازه میدهد کمپینهای حاوی اطلاعات نادرست را خودکارسازی کرده و گسترش دهند. همچنین دامنه و تأثیر آنها را تا حد زیادی افزایش خواهد داد.
با این حال، هوش مصنوعی در این داستان عامل بدذات و شرور نیست. برعکس، نقش مهمی در مبارزه با اطلاعات نادرست و اطلاعات تحریف شده دارد. سیستمهای پیشرفته مبتنی بر هوش مصنوعی میتوانند الگوها، استفاده از زبان و متن را تجزیه و تحلیل کنند تا به تعدیل محتوا، بررسی حقایق و تشخیص اطلاعات نادرست هوش مصنوعی کمک کنند.
تجزیه و تحلیل محتوا با AI به ما کمک میکند تا تفاوتهای ظریف بین اطلاعات نادرست (misinformation) که به صورت ناخواسته منتشر شدهاند و اطلاعات تحریف شده (disinformation) که به صورت عمدی گسترش پیدا میکنند را بهتر درک کنیم.
عواقب اطلاعات نادرست هوش مصنوعی که غیرعمدی منتشر شده عمیق است و میتواند ساختار جامعه را تخریب کند.
گزارش ریسکهای جهانی مجمع بینالمللی اقتصاد در سال 2024، اطلاعات نادرست غیرعمدی منتشر شده و اطلاعات نادرست تحریف شده را به عنوان تهدیدهای جدی در سالهای آینده شناسایی میکند. همچنین بر افزایش احتمالی تبلیغات داخلی یا پروپاگاندا و سانسور تاکید دارد.
سوءاستفاده سیاسی از هوش مصنوعی خطرات شدیدی را به همراه دارد. گسترش سریع محتوای دیپفیک و تولید شده توسط هوش مصنوعی، تشخیص حقیقت از دروغ را برای رأیدهندگان دشوارتر میکند و به طور بالقوه بر رفتار رأیدهندگان تأثیر میگذارد. این موضوع موجب تضعیف روند دموکراتیک خواهد شد. میتوان انتخابات را تحت تأثیر قرار داد، اعتماد عمومی به نهادها را کاهش داد، ناآرامیهای اجتماعی را شعلهور کرد و حتی ممکن است خشونت تشدید شود.
علاوه بر این، کمپینهای اطلاعات نادرست هوش مصنوعی تحریف شده (disinformation) میتوانند افراد خاصی را با محتوای مضر تولید شده توسط هوش مصنوعی هدف قرار دهند. برای مثال، اطلاعات نادرست تحریف شده جنسیتی، کلیشهها و زنستیزی را تداوم میبخشد و گروههای آسیبپذیر را بیشتر به حاشیه میبرد.
چنین کمپینهایی درک عمومی را دستکاری میکنند که منجر به آسیبهای اجتماعی گسترده و عمیقتر شدن شکافهای اجتماعی موجود میشود.
توسعه سریع فناوریهای هوش مصنوعی اغلب بر نظارت دولتی پیشی میگیرد و در صورت عدم مدیریت دقیق، منجر به آسیبهای اجتماعی بالقوه میشود.
ابتکارات صنعتی نگرانیهای کلیدی در مورد اطلاعات نادرست هوش مصنوعی (disinformation) و مالکیت محتوا را برطرف میکند. از جمله این ابتکارات میتوانیم به ابزارهای بررسی اصالت محتوا و تشخیص نهاننگاری یا پنهانسازی داده (watermarking) اشاره کنیم. این ابزارها برای جلوگیری از سوءاستفادههایی مانند از بین بردن حریم خصوصی نیاز به طراحی دقیق و نظرات ذینفعان متعدد دارند.
به عنوان مثال، ائتلاف ایجاد شده توسط Adobe، Arm، Intel، Microsoft و TruePic برای بررسی منشأ و اعتبار محتوا (C2PA) یا Coalition for Content Provenance and Authenticity به اطلاعات آنلاین گمراهکننده رسیدگی میکند. و این کار را از طریق توسعه استانداردهای فنی برای تأیید منبع و تاریخچه یا منشأ محتوای رسانهای انجام میدهد.
برای کاهش بیشتر خطرات مرتبط با هوش مصنوعی، توسعهدهندگان و سازمانها باید حفاظهای قوی، اقدامات شفافیت و چارچوبهای پاسخگویی را اجرا کنند.
توسعهدهندگان میتوانند با ایجاد سیستمهای جامع اطمینان حاصل کنند که هوش مصنوعی به صورت اخلاقی و مسئولانه مستقر شده است. در نتیجه اعتماد را تقویت و کمک میکنند تا استفاده مفید از هوش مصنوعی در حوزههای مختلف ترویج شود.
علاوه بر اقدامات فنی، آموزش عمومی در مورد سواد رسانهای و تفکر انتقادی به توانمندسازی افراد کمک میکند. این توانمندسازی برای حرکت در چشمانداز پیچیده اطلاعات دیجیتال ضروری است.
مدارس، کتابخانهها و سازمانهای اجتماعی در ارتقای این مهارتها نقش حیاتی ایفا میکنند. به عنوان مثال با ارائه منابع و برنامههای آموزشی به افراد کمک میکنند تا در مسیر افزایش توانایی ارزیابی منتقدانه منابع اطلاعاتی، تشخیص اطلاعات نادرست هوش مصنوعی از محتوای واقعی و تصمیمگیری آگاهانه گام بردارند.
علاوه بر این، همکاری میان ذینفعان برای مقابله موثر با چالشهای چند وجهی ناشی از اطلاعات نادرست غیرعمدی و اطلاعات نادرست تحریف شده مبتنی بر هوش مصنوعی ضروری است. منظور از ذینفعان، سیاستگذاران، شرکتهای فناوری، محققان و سازمانهای غیردولتی هستند.
این وضعیت به اهمیت تقویت یک درک و همکاری جهانی تاکید میکند. هدف این همکاری جهانی باید مقابله با انتشار اطلاعات نادرستی باشد که با افزایش محتوای ساخت انسان و فناوریهای هوش مصنوعی تسهیل میشود.
اتحاد حاکمیت هوش مصنوعی (AI Governance Alliance)، یک ابتکار شاخص توسط مجمع جهانی اقتصاد (World Economic Forum) و بخشی از مرکز انقلاب صنعتی چهارم (Centre for the Fourth Industrial Revolution) است. این اتحاد کارشناسان و سازمانها را در سراسر جهان متحد میکند تا به چالشهای پیچیده هوش مصنوعی رسیدگی کنند. تولید محتوای گمراهکننده یا مضر و تجاوز به حقوق مالکیت فکری از جمله این شاخصها هستند.
این اتحاد از طریق تلاشهای مشترک، توصیههای عملگرایانه ایجاد میکند تا اطمینان حاصل کنیم که هوش مصنوعی به طور مسئولانه، اخلاقی و برای بیشترین منافع بشریت توسعه مییابد و به کار گرفته میشود.
یکی دیگر از ابتکارات انجمن، ائتلاف جهانی برای ایمنی دیجیتال است. این ائتلاف رویکرد افزایش سواد رسانهای برای کل جامعه را ترویج میکند. همچنین رهبری تلاشها برای مبارزه با اطلاعات نادرست تحریف شده را بر عهده دارد. فعالیتهای این ائتلاف در جهت درک چگونگی تولید، توزیع و مصرف اطلاعات نادرست و شناسایی مهارتهای لازم در هر مرحله برای مقابله با آن است.
این ائتلاف شرکتهای فناوری، مقامات دولتی، جامعه غیردولتی و سازمانهای بینالمللی را گرد هم جمع میکند تا بهترین شیوهها را با هم تبادل کرده و اقدامات لازم برای کاهش آسیبهای آنلاین را با هم هماهنگ کنند.
همانطور که هوش مصنوعی به تغییر جهان ما ادامه میدهد، ضروری است که رویکرد خود را به ایمنی دیجیتال و یکپارچگی اطلاعات ارتقا دهیم.
میتوانیم از طریق افزایش همکاری، نوآوری و مقررات، از مزایای هوش مصنوعی بهره ببریم و در عین حال جامعه را از خطرات اطلاعات نادرست هوش مصنوعی محافظت کنیم. بنابراین آیندهای را تضمین میکنیم که در آن فناوری به جای تضعیف اعتماد عمومی و ارزشهای دموکراتیک به ارتقای آنها منجر شود.
با همکاری یکدیگر، میتوانیم اطمینان حاصل کنیم که هوش مصنوعی به عنوان ابزاری برای حقیقت و پیشرفت عمل میکند، نه دستکاری و ایجاد اختلاف.
منبع
https://www.weforum.org/stories/2024/06/ai-combat-online-misinformation-disinformation/