skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

کشورها برای مقررات‌گذاری هوش مصنوعی آبان ماه در انگلستان گرد هم می‌آیند

۱۱ شهریور ۱۴۰۲

زمان مطالعه : ۵ دقیقه

انگلستان می‌خواهد نشست بین‌المللی مقررات‌گذاری برای هوش مصنوعی را در آبان ماه سال جاری (نوامبر) به منظور بررسی چالش‌ها و خطرات ناشی از این فناوری برگزار کند.

به گزارش پیوست، در این نشست تاثیرگذاری هوش مصنوعی بر ابعاد مختلف زندگی مورد بحث قرار خواهد گرفت. امنیت ملی، حریم خصوصی و تاثیرات هوش مصنوعی بر نسل آینده از اصلی‌ترین عناوینی است که به آن اشاره شده است.

گردهمایی کشورها برای قانون‌گذاری

نخست‌وزیر انگلستان و دیگر رهبران جهان قرار است در رویدادی که ماه نوامبر در پارک بلچلی انگلستان برگزار می‌شود، گرد هم آمده و درباره احتمالات و خطرات ناشی از هوش مصنوعی گفت‌وگو کنند.

نمایندگان مجلس انگلستان هشدار داده‌اند تهدید با‌لقوه‌ای که هوش مصنوعی برای زندگی بشر ایجاد می‌کند باید کانون توجه مقررات دولتی قرارگیرد.

نگرانی‌ها در مورد رفاه عمومی و امنیت ملی از جمله چالش‌هایی است که اعضای کمیته علم، نوآوری و فناوری  آن را بیان کردند. این موارد باید توسط وزرا پیش از میزبانی انگلستان از اولین اجلاس جهانی در پارک بلچلی مورد بررسی قرار بگیرد.

گرگ کلارک، رئیس کمیته و نماینده محافظه‌کار پارلمان اعلام کرد که به شدت از این نشست استقبال می‌کند اما هشدار داده، دولت ممکن است لازم ببیند که فوریت بیشتری نشان دهد تا اطمینان حاصل شود قوانین بالقوه به زودی منسوخ نخواهند شد. علت این هشدار و حساسیت این است که قدرت‌هایی مانند ایالات متحده، چین و اتحادیه اروپا قوانین خود را در مورد قانون‌گذاری هوش مصنوعی در سطح جهانی در نظر خواهند گرفت.

چالش‌های هوش مصنوعی

۱۲ چالشی که طبق گفته کمیته باید به آنها رسیدگی شود عبارت است از:

۱- تهدید وجودی: بنا بر هشدارهای برخی از کارشناسان که هوش مصنوعی را تهدیدی بزرگ برای زندگی انسان معرفی کرده‌اند، باید که مقررات مطرح شده از امنیت ملی محافظت کرده و خطرات این تهدید را کاهش دهد.
۲- تعصب: هوش مصنوعی ممکن است زمینه‌ساز ایجاد سوگیری‌های جدید یا تداوم یک‌سری از تعصب‌ها باشد.
۳- حریم خصوصی: اطلاعات حساس در مورد افراد یا مشاغل می‌تواند برای آموزش انواع مدل‌های هوش مصنوعی استفاده شود. در این صورت امکان درز اطلاعات و سوءاستفاده از آنها وجود دارد. مسائل مربوط به حریم خصوصی باید در تدوین مقررات لحاظ شود.
۴- ارائه نادرست: مدل‌های زبانی مانند ChatGPT ممکن است مطالبی ارائه دهد که رفتار، دیدگاه شخصی و شخصیت افراد را گمراه کند.
۵- داده: داده‌های زیادی برای توسعه و توانمندتر کردن مدل‌های هوش مصنوعی احتیاج است. چگونگی کسب و بهره‌مندی از این اطلاعات باید طبق استاندارهای تعریف شده انجام شود.
۶-  قدرت محاسباتی: توسعه مدل‌های قدرتمند هوش مصنوعی نیازمند تجهیز به توانایی محاسباتی بزرگ است.
۷- شفافیت: مدل‌های هوش مصنوعی اغلب در توضیح چرایی نتیجه‌ای که ارائه می‌دهند یا اطلاعاتی که کسب کرده‌اند مشکل دارند.
۸- کپی‌ رایت: هوش مصنوعی برای تولید متن، عکس و حتی ویدئو از محتوایی استفاده می‌کنند که قبلا ساخته شده است، بنابراین باید در تدوین قوانین به حفاظت از منبع اصلی و جلوگیری از تضعیف صنایع خلاق توجه شود.
۹- مسئولیت: سیاست‌ها باید مشخص کنند که در صورت استفاده آسیب‌زا و خطرناک از هوش مصنوعی، توسعه دهندگان مسئول هستند یا ارائه دهندگان. همچنین باید توضیح داده شود در صورتی که هیچ یک از طرفین مسئولیت اتفاق رخ داده را نپذیرند چه نهادی نقش رسیدگی را عهده دار است.
 ۱۰- اشتغال: سیاستمداران باید مشاغلی را که از هوش مصنوعی متاثر شده‌اند و تحت تاثیر قرار خواهند گرفت پیش‌بینی کنند و شرایط را برای همه کسب‌وکارها مناسب سازند.
۱۱- آشکار بودن: کدهایی که ساز و کار مدل‌های هوش مصنوعی بر اساس آن انجام می‌پذیرد می‌تواند آشکارا در دسترس قرار بگیرد تا مقررات قابل اعتمادتری تدوین شده و شفافیت و نوآوری ارتقا یابد.
۱۲- هماهنگی بین‌المللی: تدوین هر گونه مقرراتی باید یک تعهد بین‌المللی باشد و اجلاس نوامبر باید تا حد امکان پذیرای طیف وسیعی از کشورها بوده و از آنها استقبال کنند.

قابلیت شگفت‌انگیز هوش مصنوعی در شبکه ملی اطلاعات

آقای کلارک، علاوه‌بر اظهار نظر درباره تدوین مقررات، در رابطه با مراقبت‌های هوش مصنوعی به عنوان هیجان انگیزترین فرصت برای این فناوری تاکید کرد.
در حال حاضر از این فناوری در حوزه پزشکی و درمان برای خواندن اشعه ایکس و اسکن و غیره استفاده می‌شود. اما محققان در تلاش هستند تا بررسی کنند که چگونه می‌توان از این سطح فراتر رفت و از این فناوری برای پیش‌بینی شرایط مخرب در بلندمدت مانند بیماری دیابت استفاده کرد.
او همچنین گفت که می‌توان از هوش مصنوعی برای کمک به «شخصی‌سازی فزاینده درمان» استفاده کرد. اما نگرانی‌هایی را در مورد تعصبات احتمالی که در داده‌های آموزشی هر مدل هوش مصنوعی وجود دارد تکرار کرد.
کلارک در ادامه افزود:«اگر در حال انجام تحقیقات پزشکی روی یک نمونه خاص یا اقلیت قومی هستید، داده‌هایی که هوش مصنوعی طبق آن آموزش دیده‌اند ممکن است توصیه‌هایی به معنای نادرست بودن فرآیند و اطلاعات ارائه کنند.»

دولت، خواهان رویکرد متناسب است

این کمیته اعلام کرد که مجموعه‌ای از توصیه‌های نهایی را در موعد مقرر منتشر خواهد کرد.
این کشور می‌خواهد هر گونه قانون پیشنهادی در رابطه با هوش مصنوعی را در پارلمان بعدی که در سپتامبر، پس از تعطیلات تابستاتی آغاز می‌شود، در اختیار نمایندگان مجلس قرار دهد.
سخنگوی دولت با اشاره به بودجه اولیه ۱۰۰ میلیون پوندی که برای توسعه ایمن‌سازی مدل‌های هوش مصنوعی در انگلستان در نظر گرفته شده است، گفت:«این بودجه به رویکرد متناسب و سازگار با مقررات متعهد است.»
در آخر نیز نگاهی به استفاده نسل‌های بعدی از این فناوری شد. آنها چنین گفتند که هوش مصنوعی قابلیت تغییر و تاثیرگذاری بر جنبه‌های مختلف زندگی را دارد و ما در برابر آیندگان مسئولیم تا خطرات این فناوری را مهار کنیم.
https://pvst.ir/fuj

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو