skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

فناوری

پرستو توکلی نویسنده میهمان

سخنرانی TED کارا هانتر: آینده دموکراسی متاثر از کنترل هوش مصنوعی است

پرستو توکلی
نویسنده میهمان

۱۱ فروردین ۱۴۰۴

زمان مطالعه : ۴ دقیقه

تاریخ به‌روزرسانی: ۱ فروردین ۱۴۰۴

سخنرانی تد کارا هانتر، سیاستمدار اهل ایرلند

کارا هانتر، سیاستمدار اهل ایرلند در سخنرانی خود بر لزوم قانونمند شدن هوش مصنوعی و آموزش سواد رسانه در جوامع تاکید کرد. او با اشاره به تجربه تلخ خود از تاثیر ویدیوهای جعلی بر زندگی شخصی و حرفه‌ای، ادامه و آینده دموکراسی را متاثر از کنترل فناوری هوش مصنوعی دانست.

به گزارش پیوست، کارا هانتر در سخنرانی خود تجربه کابوس‌وار خود را از مواجهه با انتشار یک ویدیوی جعلی در فضای مجازی بازگو کرد. این ویدیو که به‌صورت گسترده در شبکه‌های اجتماعی منتشر شد، حقیقت را دستخوش تحریف کرد و نشان داد که چگونه هوش مصنوعی می‌تواند تهدیدی ویرانگر برای دموکراسی باشد. او در این سخنرانی جسورانه، به تهدیدهای هوش مصنوعی برای حقیقت و دموکراسی پرداخت و راهکارهایی برای استفاده مثبت از این فناوری پیشنهاد کرده و از ضرورت کنترل و تنظیم مقررات برای جلوگیری از سوءاستفاده از فناوری‌های جدید سخن گفته است.

تجربه‌ تلخ یک سیاستمدار

در آوریل ۲۰۲۲، زمانی که کارا هانتر در جشن تولد ۹۰ سالگی مادربزرگش حضور داشت، پیامکی با مضمون بی‌آبرویی دریافت کرد. این پیام آغازگر سیلی از پیام‌های مشابه از سراسر کشور بود. هانتر که تنها سه هفته با انتخابات فاصله داشت، با وحشت به بررسی محتوا و ویدیوهایی پرداخت و متوجه شد که شخصیت حاضر در ویدیو شباهتی غیرقابل‌انکار با او دارد. او بلافاصله به پلیس مراجعه کرد، اما آنها اعلام کردند که فناوری لازم برای ردیابی منبع این ویدیو را ندارند و آنجا بود که هانتر فهمید که در این مسیر تنهاست.

انتشار گسترده یک دروغ

هانتر اهل ایرلند شمالی است، جایی که تنها ۱.۸ میلیون نفر جمعیت دارد. او خیلی زود متوجه شد که این شایعه در فضای سیاست به سرعت گسترش یافته است.

او در هفته‌های منتهی به انتخابات، پیام‌های توهین‌آمیز و بی‌رحمانه‌ای دریافت کرد. برخی مردم که سال‌ها او را می‌شناختند، در خیابان از کنار او بی‌هیچ کلامی عبور می‌کردند. حتی برخی از اعضای خانواده‌اش نیز شروع به باور این دروغ کردند. شایعه فراتر از مرزهای کشور رفت و هانتر از لندن، دوبلین، نیویورک و ماساچوست پیام‌هایی دریافت می‌کرد.

هزاران نفر به صفحات اجتماعی او حمله کردند. این افراد عمدتا مردان بودند. هانتر در نهایت مجبور شد پدرش را در جریان این ماجرا بگذارد، که به گفته‌ خودش، یکی از سخت‌ترین لحظات زندگی‌اش بود.

با این حال، حتی دو سال پس از انتشار آن ویدیوی جعلی، هنوز مشخص نیست چه کسانی پشت این ماجرا بودند.

آسیب‌های عمیق هوش مصنوعی بر دموکراسی

هانتر با اشاره به پیامدهای این تجربه، درباره‌ی خطرات هوش مصنوعی برای سیاست و حقیقت گفت: فناوری دیپ‌فیک می‌تواند دروغ‌هایی بسازد که به‌راحتی قابل‌ تشخیص نیستند و می‌توانند به‌طور جدی بر انتخابات و افکار عمومی تأثیر بگذارد.

اگر کنترل مناسبی بر هوش مصنوعی اعمال نشود، این فناوری می‌تواند منجر به گسترش اطلاعات نادرست، دستکاری افکار عمومی و حتی فساد سیاسی شود

او به نمونه‌هایی مانند ویدیوهای دیپ‌فیک از نانسی پلوسی، جو بایدن، و ولودیمیر زلنسکی اشاره کرد که همگی برای اهداف سیاسی مورد سوءاستفاده قرار گرفته‌اند.

هانتر معتقد است که بدون حقیقت، دموکراسی سقوط خواهد کرد و اگر کنترل مناسبی بر هوش مصنوعی اعمال نشود، این فناوری می‌تواند منجر به گسترش اطلاعات نادرست، دستکاری افکار عمومی و حتی فساد سیاسی شود.

نیاز شدید به قانون

هانتر در این سخنرانی بر ابزام قانون‌مند شدن فناوری هوش مصنوعی تاکید کرد و خواستار تنظیم قوانین سخت‌گیرانه برای جلوگیری از سوءاستفاده از فناوری‌های مبتنی بر هوش مصنوعی شد. او بر این باور است که سیاستمداران، توسعه‌دهندگان و مصرف‌کنندگان باید برای استفاده اخلاقی از این فناوری همکاری کنند.

هانتر با تاکید گفت: باید اخلاق را در این فناوری نهادینه کنیم، سوگیری‌ها را حذف کنیم و اطمینان حاصل کنیم که هوش مصنوعی با ارزش‌های انسانی همسوست.

او همچنین به لزوم آموزش شهروندان برای تشخیص ویدیوهای جعلی و افزایش سواد رسانه‌ در جوامع مختلف برای مقابله با این تهدیدها اشاره کرد.

هانتر در پایان، از تمام کسانی که به دنبال کنترل این فناوری هستند، درخواست کرد که برای آینده‌ای بهتر همکاری کنند چرا که احتمالا در آینده ادامه حیات دموکراسی به این اقدامات ما بستگی خواهد داشت.

https://pvst.ir/kp7

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو