skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

چالش دولت‌ها در کنترل هوش مصنوعی؛ تدوین مقررات بدون ممانعت از نوآوری

۱۹ شهریور ۱۴۰۳

زمان مطالعه : ۷ دقیقه

تهیه و تدوین مقررات برای هوش مصنوعی، موضوع چالش‌برانگیز و چندجانبه‌ای است که باید با لحاظ تغییرات مستمر این فناوری اتخاذ شده و بر اصول کلی مانند حفاظت از حقوق کاربران انسانی، مسئولیت‌پذیری و شفافیت متمرکز باشد. سیاست‌های دولت‌ها نباید موجب از بین رفتن نوآوری در این زمینه شود و رویکرد مسئولانه استفاده از آن باید در اولویت قرار بگیرد. تعهد ۱۶ شرکت بزرگ هوش مصنوعی برای اولویت‌بندی ایمنی و استقرار مسئولانه این مدل‌ها گام مهمی در بهره‌مندی موثر و کم‌ضرر این فناوری به شمار می‌رود.

به گزارش پیوست، کارشناسان این حوزه معتقد در ابتدا باید تعریف دقیق و درستی از مفهوم آسیب‌های واقعی هوش مصنوعی در اختیار داشت. یافتن تعادل میان فراهم آوردن امکان پیشرفت این فناوری و جلوگیری از خطرات آن هدفی است که نیازمند تلاش‌های مشترک دولت‌ها، شرکت‌ها و جامعه جهانی است.

دولت‌ها در تلاش‌اند تا برای هوش مصنوعی تدابیر امنیتی وضع کنند اما وجود موانع و به تصمیم نرسیدن موجب شده تا توافقات بین‌المللی در مورد اولویت‌ها و موانع قابل اجتناب به تاخیر بیفتد.

بریتانیا در نوامبر ۲۰۲۳ با انتشار اعلامیه بلچی از توافق با ۲۸ کشور جهت تقویت تلاش‌های جهانی در زمینه همکاری ایمنی خبر داد. آمریکا، چین و اتحادیه اروپا از جمله این کشورها بودند.

زمان زیاد و هزینه بالا؛ دولت‌ها باید آگاهانه گام بردارند

تلاش‌ها برای دنبال کردن مقررات ایمنی هوش مصنوعی در ماه مه با برگزاری دومین اجلاس جهانی هوش مصنوعی ادامه یافت، جایی که بریتانیا و جمهوری کره تعهد ۱۶ شرکت جهانی فناوری هوش مصنوعی را برای مجموعه‌ای از نتایج ایمنی مبتنی بر آن توافق جلب کردند.

در بیانیه‌ای که همزمان با اعلامیه از سوی بریتانیا منتشر شد، آمده است:

« این اعلامیه با ایجاد توافق و مسئولیت مشترک در مورد خطرات، فرصت‌ها و یک روند پیشرو برای همکاری بین‌المللی در زمینه ایمنی و تحقیقات پیشرفته هوش مصنوعی به ویژه از طریق همکاری علمی بیشتر اهداف مجلس را محقق می‌کند.»

قانون هوش مصنوعی اتحادیه اروپا که در ماه مه به تصویب رسید به اولین قانون مهم جهان در زمینه تنظیم هوش مصنوعی تبدیل شد. این قانون شامل اختیارات اجرایی و مجازات‌ها، مانند جریمه‌های ۳۸ میلیون دلاری یا ۷ درصد از درآمد سالانه جهانی آنها در صورت نقض قانون توسط شرکت‌ها است.

پس از آن، در یک واکنش دیرهنگام، گروهی دوحزبی از سناتورهای آمریکایی توصیه کردند که کنگره، ۳۲ میلیارد دلار بودجه اضطراری برای هوش مصنوعی تدوین کند و گزارشی منتشر کرد که در آن ذکر شده است ایالات متحده نیاز دارد از فرصت‌های هوش مصنوعی بهره‌برداری و خطرات آن را برطرف کند.

جوزف تاکر، مهندس اصلی هوش مصنوعی و محقق امنیت در شرکت امنیتی SaaS AppOmni، در این باره گفت: دولت‌ها قطعا باید در زمینه هوش مصنوعی به ویژه مسائل امنیت ملی دخیل باشند. ما باید از فرصت‌های هوش مصنوعی بهره‌برداری کنیم اما در عین حال از خطرات آن نیز آگاه باشیم. تنها راه برای دولت‌ها آگاهی داشتن است که این موضوع به زمان و هزینه زیادی نیاز دارد.

ضرورت ایمنی هوش مصنوعی برای پلتفرم‌های SaaS

تاکر خاطرنشان کرد که ایمنی هوش مصنوعی، موضوعی است که روز به روز اهمیت بیشتری پیدا می‌کند. تقریبا هر محصول نرم‌افزاری، از جمله برنامه‌های هوش مصنوعی، اکنون به عنوان یک برنامه نرم‌افزار به عنوان سرویس (SaaS) ساخته می‌شود. در نتیجه، تضمین امنیت و یکپارچگی این پلتفرم‌های SaaS بسیار مهم خواهد بود.

او در ادامه گفت: ما به اقدامات امنیتی قوی برای برنامه‌های SaaS نیاز داریم. سرمایه‌گذاری در امنیت SaaS باید اولویت اصلی هر شرکتی باشد که هوش مصنوعی را توسعه یا مستقر می‌کند.

فروشندگان موجود SaaS، در حال اضافه کردن هوش مصنوعی به همه چیز هستند و خطرات بیشتری را معرفی می‌کنند. او تاکید کرد که آژانس‌های دولتی باید این موضوع را در نظر بگیرند.

قانون‌گذاری فوری و چالش‌برانگیز هوش مصنوعی در آمریکا

تاکر می‌خواهد دولت ایالات متحده رویکردی سریع‌تر و هدفمندتر برای مقابله با واقعیت‌های استاندارد گم‌ شده ایمنی هوش مصنوعی اتخاذ کند. با این حال، او تعهد ۱۶ شرکت بزرگ هوش مصنوعی برای اولویت‌بندی ایمنی و استقرار مسئولانه مدل‌های پیشرفته هوش مصنوعی را گام مهمی دانست.

او گفت: این نشان‌دهنده آگاهی روزافزون از خطرات هوش مصنوعی و تمایل به تعهد برای کاهش آنها است. با این حال، آزمون واقعی این خواهد بود که این شرکت‌ها تا چه حد به تعهدات خود عمل می‌کنند و در شیوه‌های ایمنی خود چقدر شفاف هستند.

به گفته تاکر، الزام شرکت‌های هوش مصنوعی به انتشار چارچوب‌های ایمنی نشان‌دهنده مسئولیت‌پذیری است که بینش در مورد کیفیت و عمق آزمایش‌های آنها را فراهم می‌کند. همچنین شفافیت موجب امکان نظارت عمومی نیز می‌شود.

او افزود: این امر ممکن است باعث اجبار به اشتراک‌گذاری دانش و توسعه بهترین روش‌ها در کل صنعت شود.

تاکر همچنین خواهان اقدام سریع‌تر قانونگذاری در این فضا است. با این حال، او فکر می‌کند که حرکت قابل توجهی در آینده نزدیک برای دولت ایالات متحده چالش‌برانگیز خواهد بود.

او گفت: یک گروه دوحزبی که برای ارائه این توصیه‌ها گرد هم می‌آیند، امیدواریم گفت‌وگوهای زیادی را آغاز کند.

 پیمایش ناشناخته‌ها در مقررات هوش مصنوعی

ملیسا روزی، مدیر هوش مصنوعی در AppOmni، از اجلاس جهانی هوش مصنوعی به عنوان یک گام بزرگ در جهت حفظ تکامل این فناوری یاد کرد و نقش مقررات را در این زمینه کلیدی دانست.

او در این باره گفت: قبل از اینکه به تنظیم مقررات هوش مصنوعی فکر کنیم، باید کاوش‌های بیشتری انجام شود. همکاری بین شرکت‌ها در صنعت هوش مصنوعی برای پیوستن به ابتکارات ایمنی هوش مصنوعی به صورت داوطلبانه بسیار مهم است.

روزی در ادامه افزود: تنظیم آستانه‌ها و معیارهای عینی، اولین چالش قابل بررسی است. من فکر نمی‌کنم ما هنوز برای کل حوزه هوش مصنوعی آماده تنظیم این موارد باشیم.

روزی بررسی و داده‌های بیشتری را برای در نظر گرفتن این موارد لازم دانست و یکی از بزرگترین چالش‌ها برای مقررات‌گذاری هوش مصنوعی را تدوین مقررات بدون مانع کردن هوش مصنوعی همگام با پیشرفت‌های فناوری اعلام کرد.

تعریف آسیب AI

به گفته دیوید براوچلر، مشاور ارشد امنیت در گروه NCC، دولت‌ها باید به عنوان نقطه شروع برای تنظیم دستورالعمل‌های AI، به بررسی تعاریف آسیب فکر کنند.

با رایج‌تر شدن فناوری هوش مصنوعی، ممکن است از طبقه‌بندی خطر AI بر اساس ظرفیت محاسباتی آموزش آن، به سمت طبقه‌بندی خطر بر اساس آسیب ملموسی که این فناوری ممکن است در زمینه اجرای خود وارد کند، تغییر ایجاد شود. این استاندارد بخشی از دستور اجرایی اخیر ایالات متحده بود. او اشاره کرد که برخی از قوانین به این احتمال اشاره دارد.

براوچلر همچنین گفت: به عنوان مثال، یک سیستم هوش مصنوعی که چراغ‌های راهنمایی را کنترل می‌کند، باید اقدامات ایمنی بسیار بیشتری نسبت به یک دستیار خرید داشته باشد، حتی اگر دستیار خرید برای آموزش به قدرت محاسباتی بیشتری نیاز داشته باشد.

تاکنون، دیدگاه روشنی از اولویت‌های مقررات برای توسعه و استفاده از هوش مصنوعی وجود ندارد. دولت‌ها باید تأثیر واقعی بر مردم را در نحوه اجرای این فناوری ها در اولویت قرار دهند. او اظهار کرد که قانون نباید برای پیش‌بینی آینده بلندمدت یک فناوری به سرعت در حال تغییر، تلاش کند.

اگر خطری از فناوری‌های هوش مصنوعی پدیدار شود، دولت‌ها می‌توانند پس از مشخص شدن اطلاعات، به آن واکنش نشان دهند. براچلر تصریح کرد که تلاش برای از پیش قانونی کردن این تهدیدها احتمالاً تیری در تاریکی است.

او گفت: اما اگر بخواهیم با قوانین درست و دقیق از آسیب دیدن انسان‌ها توسط هوش مصنوعی جلوگیری کنیم، نیازی نیست که پیش‌بینی کنیم هوش مصنوعی در آینده چه شکلی خواهد شد یا چه تغییراتی خواهد کرد.

تعادل میان کنترل دولتی و نظارت قانونی

تاکر امکان برقراری تعادل میان کنترل دولتی  و نظارت قانونی را هنگام تنظیم مقررات هوش مصنوعی، دشوار می‌بینید. او معتقد است نتیجه نباید از بین بردن نوآوری با قوانین سنگین یا تکیه صرف بر خودتنظیمی شرکت‌ها باشد.

او در این باره گفت: من معتقدم یک چارچوب نظارتی همراه با مکانیسم‌های نظارتی با کیفیت بالا، راه پیش رو تنظیم مقررات و نظارت بر نحوه عملکرد آنها است. دولت‌ها باید حصارها را تعیین کنند و در عین حال به توسعه مسئولانه اجازه ادامه دهند.

منبع: technewsworld

https://pvst.ir/iwg

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو