گوگل دیپمایند برای حفظ مزیت رقابتی انتشار تحقیقات هوش مصنوعی را محدود میکند
گزارشی از فایننشال تایمز میگوید دیپمایند (DeepMind)، بازوی هوش مصنوعی گوگل، در ماههای اخیر رویکرد…
۱۲ فروردین ۱۴۰۴
۱۱ فروردین ۱۴۰۴
زمان مطالعه : ۴ دقیقه
تاریخ بهروزرسانی: ۱ فروردین ۱۴۰۴
کارا هانتر، سیاستمدار اهل ایرلند در سخنرانی خود بر لزوم قانونمند شدن هوش مصنوعی و آموزش سواد رسانه در جوامع تاکید کرد. او با اشاره به تجربه تلخ خود از تاثیر ویدیوهای جعلی بر زندگی شخصی و حرفهای، ادامه و آینده دموکراسی را متاثر از کنترل فناوری هوش مصنوعی دانست.
به گزارش پیوست، کارا هانتر در سخنرانی خود تجربه کابوسوار خود را از مواجهه با انتشار یک ویدیوی جعلی در فضای مجازی بازگو کرد. این ویدیو که بهصورت گسترده در شبکههای اجتماعی منتشر شد، حقیقت را دستخوش تحریف کرد و نشان داد که چگونه هوش مصنوعی میتواند تهدیدی ویرانگر برای دموکراسی باشد. او در این سخنرانی جسورانه، به تهدیدهای هوش مصنوعی برای حقیقت و دموکراسی پرداخت و راهکارهایی برای استفاده مثبت از این فناوری پیشنهاد کرده و از ضرورت کنترل و تنظیم مقررات برای جلوگیری از سوءاستفاده از فناوریهای جدید سخن گفته است.
در آوریل ۲۰۲۲، زمانی که کارا هانتر در جشن تولد ۹۰ سالگی مادربزرگش حضور داشت، پیامکی با مضمون بیآبرویی دریافت کرد. این پیام آغازگر سیلی از پیامهای مشابه از سراسر کشور بود. هانتر که تنها سه هفته با انتخابات فاصله داشت، با وحشت به بررسی محتوا و ویدیوهایی پرداخت و متوجه شد که شخصیت حاضر در ویدیو شباهتی غیرقابلانکار با او دارد. او بلافاصله به پلیس مراجعه کرد، اما آنها اعلام کردند که فناوری لازم برای ردیابی منبع این ویدیو را ندارند و آنجا بود که هانتر فهمید که در این مسیر تنهاست.
هانتر اهل ایرلند شمالی است، جایی که تنها ۱.۸ میلیون نفر جمعیت دارد. او خیلی زود متوجه شد که این شایعه در فضای سیاست به سرعت گسترش یافته است.
او در هفتههای منتهی به انتخابات، پیامهای توهینآمیز و بیرحمانهای دریافت کرد. برخی مردم که سالها او را میشناختند، در خیابان از کنار او بیهیچ کلامی عبور میکردند. حتی برخی از اعضای خانوادهاش نیز شروع به باور این دروغ کردند. شایعه فراتر از مرزهای کشور رفت و هانتر از لندن، دوبلین، نیویورک و ماساچوست پیامهایی دریافت میکرد.
هزاران نفر به صفحات اجتماعی او حمله کردند. این افراد عمدتا مردان بودند. هانتر در نهایت مجبور شد پدرش را در جریان این ماجرا بگذارد، که به گفته خودش، یکی از سختترین لحظات زندگیاش بود.
با این حال، حتی دو سال پس از انتشار آن ویدیوی جعلی، هنوز مشخص نیست چه کسانی پشت این ماجرا بودند.
هانتر با اشاره به پیامدهای این تجربه، دربارهی خطرات هوش مصنوعی برای سیاست و حقیقت گفت: فناوری دیپفیک میتواند دروغهایی بسازد که بهراحتی قابل تشخیص نیستند و میتوانند بهطور جدی بر انتخابات و افکار عمومی تأثیر بگذارد.
اگر کنترل مناسبی بر هوش مصنوعی اعمال نشود، این فناوری میتواند منجر به گسترش اطلاعات نادرست، دستکاری افکار عمومی و حتی فساد سیاسی شود
او به نمونههایی مانند ویدیوهای دیپفیک از نانسی پلوسی، جو بایدن، و ولودیمیر زلنسکی اشاره کرد که همگی برای اهداف سیاسی مورد سوءاستفاده قرار گرفتهاند.
هانتر معتقد است که بدون حقیقت، دموکراسی سقوط خواهد کرد و اگر کنترل مناسبی بر هوش مصنوعی اعمال نشود، این فناوری میتواند منجر به گسترش اطلاعات نادرست، دستکاری افکار عمومی و حتی فساد سیاسی شود.
هانتر در این سخنرانی بر ابزام قانونمند شدن فناوری هوش مصنوعی تاکید کرد و خواستار تنظیم قوانین سختگیرانه برای جلوگیری از سوءاستفاده از فناوریهای مبتنی بر هوش مصنوعی شد. او بر این باور است که سیاستمداران، توسعهدهندگان و مصرفکنندگان باید برای استفاده اخلاقی از این فناوری همکاری کنند.
هانتر با تاکید گفت: باید اخلاق را در این فناوری نهادینه کنیم، سوگیریها را حذف کنیم و اطمینان حاصل کنیم که هوش مصنوعی با ارزشهای انسانی همسوست.
او همچنین به لزوم آموزش شهروندان برای تشخیص ویدیوهای جعلی و افزایش سواد رسانه در جوامع مختلف برای مقابله با این تهدیدها اشاره کرد.
هانتر در پایان، از تمام کسانی که به دنبال کنترل این فناوری هستند، درخواست کرد که برای آیندهای بهتر همکاری کنند چرا که احتمالا در آینده ادامه حیات دموکراسی به این اقدامات ما بستگی خواهد داشت.