skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

فناوری

نسرین ابوئی نویسنده میهمان

محفاظت از حقیقت در دنیای دیجیتال با جلوگیری از انتشار اطلاعات نادرست هوش مصنوعی

نسرین ابوئی
نویسنده میهمان

۲۶ بهمن ۱۴۰۳

زمان مطالعه : ۶ دقیقه

محفاظت از حقیقت با جلوگیری از انتشار اطلاعات نادرست هوش مصنوعی

انتشار اطلاعات نادرست هوش مصنوعی شاید ناگزیر به نظر برسد. فناوری‌های هوش مصنوعی، با قابلیت تولید متون، تصاویر، صدا و ویدئوهای جعلی متقاعدکننده (که اغلب به عنوان «دیپ‌فیک» شناخته می‌شوند)، مشکلات قابل‌توجهی در تشخیص محتوای معتبر از آثار مصنوعی ایجاد می‌کنند. این قابلیت به متخلفان اجازه می‌دهد کمپین‌های حاوی اطلاعات نادرست را خودکارسازی کرده و گسترش دهند. همچنین دامنه و تأثیر آنها را تا حد زیادی افزایش خواهد داد.

با این حال، هوش مصنوعی در این داستان عامل بدذات و شرور نیست. برعکس، نقش مهمی در مبارزه با اطلاعات نادرست و اطلاعات تحریف ‌شده دارد. سیستم‌های پیشرفته مبتنی بر هوش مصنوعی می‌توانند الگوها، استفاده از زبان و متن را تجزیه و تحلیل کنند تا به تعدیل محتوا، بررسی حقایق و تشخیص اطلاعات نادرست هوش مصنوعی کمک کنند.

تجزیه و تحلیل محتوا با AI به ما کمک می‌کند تا تفاوت‌های ظریف بین اطلاعات نادرست (misinformation) که به صورت ناخواسته منتشر شده‌اند و اطلاعات تحریف شده (disinformation) که به صورت عمدی گسترش پیدا می‌کنند را بهتر درک کنیم.

هزینه اجتماعی اطلاعات نادرست هوش مصنوعی؛ منتشر شده به صورت غیرعمد (disinformation)

عواقب اطلاعات نادرست هوش مصنوعی که غیرعمدی منتشر شده عمیق است و می‌تواند ساختار جامعه را تخریب کند.

گزارش ریسک‌های جهانی مجمع بین‌المللی اقتصاد در سال 2024، اطلاعات نادرست غیرعمدی منتشر شده و اطلاعات نادرست تحریف شده را به عنوان تهدیدهای جدی در سال‌های آینده شناسایی می‌کند. همچنین بر افزایش احتمالی تبلیغات داخلی یا پروپاگاندا و سانسور تاکید دارد.

سوءاستفاده سیاسی از هوش مصنوعی خطرات شدیدی را به همراه دارد. گسترش سریع محتوای دیپ‌فیک و تولید شده توسط هوش مصنوعی، تشخیص حقیقت از دروغ را برای رأی‌دهندگان دشوارتر می‌کند و به طور بالقوه بر رفتار رأی‌دهندگان تأثیر می‌گذارد. این موضوع موجب تضعیف روند دموکراتیک خواهد شد. می‌توان انتخابات را تحت تأثیر قرار داد، اعتماد عمومی به نهادها را کاهش داد، ناآرامی‌های اجتماعی را شعله‌ور کرد و حتی ممکن است خشونت تشدید شود.

علاوه بر این، کمپین‌های اطلاعات نادرست هوش مصنوعی تحریف شده (disinformation) می‌توانند افراد خاصی را با محتوای مضر تولید شده توسط هوش مصنوعی هدف قرار دهند. برای مثال، اطلاعات نادرست تحریف شده جنسیتی، کلیشه‌ها و زن‌ستیزی را تداوم می‌بخشد و گروه‌های آسیب‌پذیر را بیشتر به حاشیه می‌برد.

چنین کمپین‌هایی درک عمومی را دستکاری می‌کنند که منجر به آسیب‌های اجتماعی گسترده و عمیق‌تر شدن شکاف‌های اجتماعی موجود می‌شود.

رویکرد چندجانبه برای مقابله با اطلاعات نادرست هوش مصنوعی
به یک رویکرد چندجانبه برای مقابله با محتوای جعلی و اطلاعات نادرست هوش مصنوعی نیاز داریم.

یک رویکرد چندجانبه برای مقابله با محتوای جعلی و اطلاعات نادرست هوش مصنوعی

توسعه سریع فناوری‌های هوش مصنوعی اغلب بر نظارت دولتی پیشی می‌گیرد و در صورت عدم مدیریت دقیق، منجر به آسیب‌های اجتماعی بالقوه می‌شود.

ابتکارات صنعتی نگرانی‌های کلیدی در مورد اطلاعات نادرست هوش مصنوعی (disinformation) و مالکیت محتوا را برطرف می‌کند. از جمله این ابتکارات می‌توانیم به ابزارهای بررسی اصالت محتوا و تشخیص نهان‌نگاری یا پنهان‌سازی داده (watermarking) اشاره کنیم. این ابزارها برای جلوگیری از سوءاستفاده‌هایی مانند از بین بردن حریم خصوصی نیاز به طراحی دقیق و نظرات ذینفعان متعدد دارند.

به عنوان مثال، ائتلاف ایجاد شده توسط Adobe، Arm، Intel، Microsoft و TruePic برای بررسی منشأ و اعتبار محتوا (C2PA) یا Coalition for Content Provenance and Authenticity به اطلاعات آنلاین گمراه‌کننده رسیدگی می‌کند. و این کار را از طریق توسعه استانداردهای فنی برای تأیید منبع و تاریخچه یا منشأ محتوای رسانه‌ای انجام می‌دهد.

برای کاهش بیشتر خطرات مرتبط با هوش مصنوعی، توسعه‌دهندگان و سازمان‌ها باید حفاظ‌های قوی، اقدامات شفافیت و چارچوب‌های پاسخگویی را اجرا کنند.

توسعه‌دهندگان می‌توانند با ایجاد سیستم‌های جامع اطمینان حاصل کنند که هوش مصنوعی به صورت اخلاقی و مسئولانه مستقر شده است. در نتیجه اعتماد را تقویت و کمک می‌کنند تا استفاده مفید از هوش مصنوعی در حوزه‌های مختلف ترویج شود.

علاوه بر اقدامات فنی، آموزش عمومی در مورد سواد رسانه‌ای و تفکر انتقادی به توانمندسازی افراد کمک می‌کند. این توانمندسازی برای حرکت در چشم‌انداز پیچیده اطلاعات دیجیتال ضروری است.

مدارس، کتابخانه‌ها و سازمان‌های اجتماعی در ارتقای این مهارت‌ها نقش حیاتی ایفا می‌کنند. به عنوان مثال با ارائه منابع و برنامه‌های آموزشی به افراد کمک می‌کنند تا در مسیر افزایش توانایی ارزیابی منتقدانه منابع اطلاعاتی، تشخیص اطلاعات نادرست هوش مصنوعی از محتوای واقعی و تصمیم‌گیری آگاهانه گام بردارند.

اهمیت تشخیص اطلاعات نادرست هوش مصنوعی از محتوای واقعی
ارائه منابع آموزشی برای تشخیص اطلاعات نادرست هوش مصنوعی از محتوای واقعی

همکاری، کلیدی برای مقابله با اطلاعات نادرست غیرعمدی (misinformation) محسوب می‌شود.

علاوه بر این، همکاری میان ذینفعان برای مقابله موثر با چالش‌های چند وجهی ناشی از اطلاعات نادرست غیرعمدی و اطلاعات نادرست تحریف‌ شده مبتنی بر هوش مصنوعی ضروری است. منظور از ذی‌نفعان، سیاست‌گذاران، شرکت‌های فناوری، محققان و سازمان‌های غیردولتی هستند.

این وضعیت به اهمیت تقویت یک درک و همکاری جهانی تاکید می‌کند. هدف این همکاری جهانی باید مقابله با انتشار اطلاعات نادرستی باشد که با افزایش محتوای ساخت انسان و فناوری‌های هوش مصنوعی تسهیل می‌شود.

اتحاد حاکمیت هوش مصنوعی (AI Governance Alliance)، یک ابتکار شاخص توسط مجمع جهانی اقتصاد (World Economic Forum) و بخشی از مرکز انقلاب صنعتی چهارم (Centre for the Fourth Industrial Revolution) است. این اتحاد کارشناسان و سازمان‌ها را در سراسر جهان متحد می‌کند تا به چالش‌های پیچیده هوش مصنوعی رسیدگی کنند. تولید محتوای گمراه‌کننده یا مضر و تجاوز به حقوق مالکیت فکری از جمله این شاخص‌ها هستند.

این اتحاد از طریق تلاش‌های مشترک، توصیه‌های عمل‌گرایانه ایجاد می‌کند تا اطمینان حاصل کنیم که هوش مصنوعی به طور مسئولانه، اخلاقی و برای بیشترین منافع بشریت توسعه می‌یابد و به کار گرفته می‌شود.

یکی دیگر از ابتکارات انجمن، ائتلاف جهانی برای ایمنی دیجیتال است. این ائتلاف رویکرد افزایش سواد رسانه‌ای برای کل جامعه را ترویج می‌کند. هم‌چنین رهبری تلاش‌ها برای مبارزه با اطلاعات نادرست تحریف شده را بر عهده دارد. فعالیت‌های این ائتلاف در جهت درک چگونگی تولید، توزیع و مصرف اطلاعات نادرست و شناسایی مهارت‌های لازم در هر مرحله برای مقابله با آن است.

این ائتلاف شرکت‌های فناوری، مقامات دولتی، جامعه غیردولتی و سازمان‌های بین‌المللی را گرد هم جمع می‌کند تا بهترین شیوه‌ها را با هم تبادل کرده و اقدامات لازم برای کاهش آسیب‌های آنلاین را با هم هماهنگ کنند.

پیشبرد رویکرد ما به ایمنی دیجیتال

همان‌طور که هوش مصنوعی به تغییر جهان ما ادامه می‌دهد، ضروری است که رویکرد خود را به ایمنی دیجیتال و یکپارچگی اطلاعات ارتقا دهیم.

می‌توانیم از طریق افزایش همکاری، نوآوری و مقررات، از مزایای هوش مصنوعی بهره ببریم و در عین حال جامعه را از خطرات اطلاعات نادرست هوش مصنوعی محافظت کنیم. بنابراین آینده‌ای را تضمین می‌کنیم که در آن فناوری به جای تضعیف اعتماد عمومی و ارزش‌های دموکراتیک به ارتقای آن‌ها منجر شود.

با همکاری یکدیگر، می‌توانیم اطمینان حاصل کنیم که هوش مصنوعی به عنوان ابزاری برای حقیقت و پیشرفت عمل می‌کند، نه دستکاری و ایجاد اختلاف.

 

منبع

https://www.weforum.org/stories/2024/06/ai-combat-online-misinformation-disinformation/

 

 

https://pvst.ir/kbb

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو