مشکل فنی بانکی موجب تاخیر در تسویه پرداختیارها شد
براساس اطلاعیه پرداختیارهای زرینپال، وندار و جیبیت، تسویه پرداختیاری امروز، یکم آذر ۱۴۰۳، با تاخیر…
۱ آذر ۱۴۰۳
۱۹ شهریور ۱۴۰۳
زمان مطالعه : ۷ دقیقه
تهیه و تدوین مقررات برای هوش مصنوعی، موضوع چالشبرانگیز و چندجانبهای است که باید با لحاظ تغییرات مستمر این فناوری اتخاذ شده و بر اصول کلی مانند حفاظت از حقوق کاربران انسانی، مسئولیتپذیری و شفافیت متمرکز باشد. سیاستهای دولتها نباید موجب از بین رفتن نوآوری در این زمینه شود و رویکرد مسئولانه استفاده از آن باید در اولویت قرار بگیرد. تعهد ۱۶ شرکت بزرگ هوش مصنوعی برای اولویتبندی ایمنی و استقرار مسئولانه این مدلها گام مهمی در بهرهمندی موثر و کمضرر این فناوری به شمار میرود.
به گزارش پیوست، کارشناسان این حوزه معتقد در ابتدا باید تعریف دقیق و درستی از مفهوم آسیبهای واقعی هوش مصنوعی در اختیار داشت. یافتن تعادل میان فراهم آوردن امکان پیشرفت این فناوری و جلوگیری از خطرات آن هدفی است که نیازمند تلاشهای مشترک دولتها، شرکتها و جامعه جهانی است.
دولتها در تلاشاند تا برای هوش مصنوعی تدابیر امنیتی وضع کنند اما وجود موانع و به تصمیم نرسیدن موجب شده تا توافقات بینالمللی در مورد اولویتها و موانع قابل اجتناب به تاخیر بیفتد.
بریتانیا در نوامبر ۲۰۲۳ با انتشار اعلامیه بلچی از توافق با ۲۸ کشور جهت تقویت تلاشهای جهانی در زمینه همکاری ایمنی خبر داد. آمریکا، چین و اتحادیه اروپا از جمله این کشورها بودند.
تلاشها برای دنبال کردن مقررات ایمنی هوش مصنوعی در ماه مه با برگزاری دومین اجلاس جهانی هوش مصنوعی ادامه یافت، جایی که بریتانیا و جمهوری کره تعهد ۱۶ شرکت جهانی فناوری هوش مصنوعی را برای مجموعهای از نتایج ایمنی مبتنی بر آن توافق جلب کردند.
در بیانیهای که همزمان با اعلامیه از سوی بریتانیا منتشر شد، آمده است:
« این اعلامیه با ایجاد توافق و مسئولیت مشترک در مورد خطرات، فرصتها و یک روند پیشرو برای همکاری بینالمللی در زمینه ایمنی و تحقیقات پیشرفته هوش مصنوعی به ویژه از طریق همکاری علمی بیشتر اهداف مجلس را محقق میکند.»
قانون هوش مصنوعی اتحادیه اروپا که در ماه مه به تصویب رسید به اولین قانون مهم جهان در زمینه تنظیم هوش مصنوعی تبدیل شد. این قانون شامل اختیارات اجرایی و مجازاتها، مانند جریمههای ۳۸ میلیون دلاری یا ۷ درصد از درآمد سالانه جهانی آنها در صورت نقض قانون توسط شرکتها است.
پس از آن، در یک واکنش دیرهنگام، گروهی دوحزبی از سناتورهای آمریکایی توصیه کردند که کنگره، ۳۲ میلیارد دلار بودجه اضطراری برای هوش مصنوعی تدوین کند و گزارشی منتشر کرد که در آن ذکر شده است ایالات متحده نیاز دارد از فرصتهای هوش مصنوعی بهرهبرداری و خطرات آن را برطرف کند.
جوزف تاکر، مهندس اصلی هوش مصنوعی و محقق امنیت در شرکت امنیتی SaaS AppOmni، در این باره گفت: دولتها قطعا باید در زمینه هوش مصنوعی به ویژه مسائل امنیت ملی دخیل باشند. ما باید از فرصتهای هوش مصنوعی بهرهبرداری کنیم اما در عین حال از خطرات آن نیز آگاه باشیم. تنها راه برای دولتها آگاهی داشتن است که این موضوع به زمان و هزینه زیادی نیاز دارد.
تاکر خاطرنشان کرد که ایمنی هوش مصنوعی، موضوعی است که روز به روز اهمیت بیشتری پیدا میکند. تقریبا هر محصول نرمافزاری، از جمله برنامههای هوش مصنوعی، اکنون به عنوان یک برنامه نرمافزار به عنوان سرویس (SaaS) ساخته میشود. در نتیجه، تضمین امنیت و یکپارچگی این پلتفرمهای SaaS بسیار مهم خواهد بود.
او در ادامه گفت: ما به اقدامات امنیتی قوی برای برنامههای SaaS نیاز داریم. سرمایهگذاری در امنیت SaaS باید اولویت اصلی هر شرکتی باشد که هوش مصنوعی را توسعه یا مستقر میکند.
فروشندگان موجود SaaS، در حال اضافه کردن هوش مصنوعی به همه چیز هستند و خطرات بیشتری را معرفی میکنند. او تاکید کرد که آژانسهای دولتی باید این موضوع را در نظر بگیرند.
تاکر میخواهد دولت ایالات متحده رویکردی سریعتر و هدفمندتر برای مقابله با واقعیتهای استاندارد گم شده ایمنی هوش مصنوعی اتخاذ کند. با این حال، او تعهد ۱۶ شرکت بزرگ هوش مصنوعی برای اولویتبندی ایمنی و استقرار مسئولانه مدلهای پیشرفته هوش مصنوعی را گام مهمی دانست.
او گفت: این نشاندهنده آگاهی روزافزون از خطرات هوش مصنوعی و تمایل به تعهد برای کاهش آنها است. با این حال، آزمون واقعی این خواهد بود که این شرکتها تا چه حد به تعهدات خود عمل میکنند و در شیوههای ایمنی خود چقدر شفاف هستند.
به گفته تاکر، الزام شرکتهای هوش مصنوعی به انتشار چارچوبهای ایمنی نشاندهنده مسئولیتپذیری است که بینش در مورد کیفیت و عمق آزمایشهای آنها را فراهم میکند. همچنین شفافیت موجب امکان نظارت عمومی نیز میشود.
او افزود: این امر ممکن است باعث اجبار به اشتراکگذاری دانش و توسعه بهترین روشها در کل صنعت شود.
تاکر همچنین خواهان اقدام سریعتر قانونگذاری در این فضا است. با این حال، او فکر میکند که حرکت قابل توجهی در آینده نزدیک برای دولت ایالات متحده چالشبرانگیز خواهد بود.
او گفت: یک گروه دوحزبی که برای ارائه این توصیهها گرد هم میآیند، امیدواریم گفتوگوهای زیادی را آغاز کند.
ملیسا روزی، مدیر هوش مصنوعی در AppOmni، از اجلاس جهانی هوش مصنوعی به عنوان یک گام بزرگ در جهت حفظ تکامل این فناوری یاد کرد و نقش مقررات را در این زمینه کلیدی دانست.
او در این باره گفت: قبل از اینکه به تنظیم مقررات هوش مصنوعی فکر کنیم، باید کاوشهای بیشتری انجام شود. همکاری بین شرکتها در صنعت هوش مصنوعی برای پیوستن به ابتکارات ایمنی هوش مصنوعی به صورت داوطلبانه بسیار مهم است.
روزی در ادامه افزود: تنظیم آستانهها و معیارهای عینی، اولین چالش قابل بررسی است. من فکر نمیکنم ما هنوز برای کل حوزه هوش مصنوعی آماده تنظیم این موارد باشیم.
روزی بررسی و دادههای بیشتری را برای در نظر گرفتن این موارد لازم دانست و یکی از بزرگترین چالشها برای مقرراتگذاری هوش مصنوعی را تدوین مقررات بدون مانع کردن هوش مصنوعی همگام با پیشرفتهای فناوری اعلام کرد.
به گفته دیوید براوچلر، مشاور ارشد امنیت در گروه NCC، دولتها باید به عنوان نقطه شروع برای تنظیم دستورالعملهای AI، به بررسی تعاریف آسیب فکر کنند.
با رایجتر شدن فناوری هوش مصنوعی، ممکن است از طبقهبندی خطر AI بر اساس ظرفیت محاسباتی آموزش آن، به سمت طبقهبندی خطر بر اساس آسیب ملموسی که این فناوری ممکن است در زمینه اجرای خود وارد کند، تغییر ایجاد شود. این استاندارد بخشی از دستور اجرایی اخیر ایالات متحده بود. او اشاره کرد که برخی از قوانین به این احتمال اشاره دارد.
براوچلر همچنین گفت: به عنوان مثال، یک سیستم هوش مصنوعی که چراغهای راهنمایی را کنترل میکند، باید اقدامات ایمنی بسیار بیشتری نسبت به یک دستیار خرید داشته باشد، حتی اگر دستیار خرید برای آموزش به قدرت محاسباتی بیشتری نیاز داشته باشد.
تاکنون، دیدگاه روشنی از اولویتهای مقررات برای توسعه و استفاده از هوش مصنوعی وجود ندارد. دولتها باید تأثیر واقعی بر مردم را در نحوه اجرای این فناوری ها در اولویت قرار دهند. او اظهار کرد که قانون نباید برای پیشبینی آینده بلندمدت یک فناوری به سرعت در حال تغییر، تلاش کند.
اگر خطری از فناوریهای هوش مصنوعی پدیدار شود، دولتها میتوانند پس از مشخص شدن اطلاعات، به آن واکنش نشان دهند. براچلر تصریح کرد که تلاش برای از پیش قانونی کردن این تهدیدها احتمالاً تیری در تاریکی است.
او گفت: اما اگر بخواهیم با قوانین درست و دقیق از آسیب دیدن انسانها توسط هوش مصنوعی جلوگیری کنیم، نیازی نیست که پیشبینی کنیم هوش مصنوعی در آینده چه شکلی خواهد شد یا چه تغییراتی خواهد کرد.
تاکر امکان برقراری تعادل میان کنترل دولتی و نظارت قانونی را هنگام تنظیم مقررات هوش مصنوعی، دشوار میبینید. او معتقد است نتیجه نباید از بین بردن نوآوری با قوانین سنگین یا تکیه صرف بر خودتنظیمی شرکتها باشد.
او در این باره گفت: من معتقدم یک چارچوب نظارتی همراه با مکانیسمهای نظارتی با کیفیت بالا، راه پیش رو تنظیم مقررات و نظارت بر نحوه عملکرد آنها است. دولتها باید حصارها را تعیین کنند و در عین حال به توسعه مسئولانه اجازه ادامه دهند.
منبع: technewsworld