چتبات هوشمند «دانابات» برای پشتیبانی مشتریان معرفی شد
چتبات هوشمند دانابات از فناوری هوش مصنوعی مولد (Generative AI) و مدلهای بزرگ زبانی (LLMs)…
۴ آذر ۱۴۰۳
۱۹ آذر ۱۴۰۲
زمان مطالعه : ۴ دقیقه
سیاستگذاران و قانونگذاران اتحادیه اروپا پس از یک مذاکرات ۳۷ ساعته روز جمعه پیرامون اولین قوانین جامع تنظیمگری استفاده از هوش مصنوعی (AI) برسر موضوعات کلیدی به توافق رسیدند. این قانون یکی از مهمترین صنایع حال حاضر جهان و ابزارهایی مثل ChatGPT و نظارت بیومتریک را متاثر میکند و جریمههای سنگینی را برای خاطیان در نظر میگیرد. قاره سبز محدودیتهای بیشتری را برای ابزارهای فراگیری مثل ChatGPT در نظر میگیرد و موضوعاتی مثل استفاده از این ابزارها برای نظارت و جهتدهی به افکار عمومی نیز در مرکز توجه هستند.
به گزارش پیوست، اتحادیه اروپا که همواره به عنوان پیشتاز قانونگذاری در جهان غرب به حساب میآید با وجود ممنوع کردن استفاده از ابزارهای نظارت بیومتریک، در برخی موارد همچون ردیابی تروریستها استفاده از این ابزارها را برای نیروهای امنیتی مجاز میداند. با این حال هیچ ابزاری نباید براساس نژاد، مذهب یا باورهای سیاسی شهروند قاره سبز را دستهبندی کند و استخراج بیهدف تصاویر چهره شهروندان برای ایجاد یک پایگاه داده تشخیص چهره نیز ممنوع است.
چنین محدودیتهایی باعث میشود تا برخلاف مناطقی مثل چین که مدتها است از ابزارهای نظارت بیومتریک به صورت گسترده استفاده میکند، نیروهای امنیتی و شرکتهای تکنولوژی فعال در اتحادیه اروپا دست بستهای در این حوزه داشته باشند. گزارشی که سه سال پیش (۱۳۹۹) از سوی کامپریتک منتشر شد نشان میداد که چین در رتبه اول بیشترین دادههای بیومتریک را از شهروندان خود جمعآوری میکند و ایران نیز براساس همین گزارش در رتبه سوم قرار دارد.
با این حال سابقه نشان داده که نهادهای امنیتی ممکن است از موارد استثنا به گونهای برای اعمال نفوذ بیش از حد سو استفاده کنند و باید دید آیا این قوانین از بازدارندگی و شفافیت کافی برای جلوگیری از چنین اقداماتی برخوردار هستند.
رویترز در گزارشی پیرامون بخشهای مختلف این مقررات که در حال حاضر اطلاعات آن منتشر شده میگوید، جزئیات این مقررات که ممکن است متن نهایی قانون را تغییر دهد در هفتههای پیش رو اعلام میشوند و در صورت تصویب این قانون اوایل سال آینده به اجرا درآمده و شرکتها از سال ۲۰۲۶ در قبال آن مسئول شناخته میشوند.
اتحادیه اروپا شرکتهای فعال در این حوزه را تشویق کرده است تا پیش از تاریخ اجرایی شدن این مقررات براساس یک تعهد داوطلبانه هوش مصنوعی یک سری از تعهدات کلیدی را برعهده بگیرند.
با وجود اینکه متن نهایی این قانون هنوز ارائه نشده است، اما برخی از نکاتی مهمی که تا به اینجای کار توافقی روی آنها صورت گرفته عبارتند از:
سیستمهای پرخطر هوش مصنوعی، آنهایی که پتانسیل چشمگیری در آسیب به سلامتی، امنیت، حقوق اساسی، محیطزیست، دموکراسی، انتخابات و برقرار قانون دارند، باید از یک سری پیشنیازها مثل ارزیابی تاثر بر حقوق اساسی پیروی کنند و برای دسترسی به بازار اتحادیه اروپا تعهداتی را ارائه دهند.
استفاده از سیستمهای شناسایی بیومتریک لحظهای تنها در صورتی که پای قربانیان آدم ربایی، قاچاق انسان، سو استفاده جنسی و جلوگیری از یک تهدید مشخص و حاضر تروریستی برای نیروهای امنیتی مجاز است.
استفاده از این تکنولوژی برای ردیابی مظنونهای تروریسم، قاچاق انسان، سو استفاده جنسی، قطر، آدم ربایی، تجاوز، سرقت مسلحانه، مشارکت در جرایم سازماندهی شده و جرایم محیطزیستی نیز مجاز است.
مدلهای بنیادی و GPAIها باید یک سری پیشنیازها را در رابطه با شفافسزای رعایت کنند و برای مثال مستندات فنی خود را ارائه کنند. این ابزارها همچنین باید قوانین کپیرایت اتحادیه اروپا را نیز رعایت کرده و چکیده دقیقی از آنچه برای آموزش الگوریتم خود استفاده کردهاند ارائه کنند.
آن دسته مدلهای بنیادی که خطر سیستمیک به دنبال دارند و GPAIهای پرنفوذ ملزم به ارزیابی، بررسی و جلوگیری از خطرات و آزمون خصمانه هستند و باید در عین گزارش حوادث جدی به کمیسیون اروپا، امنیت سایبری را تضمین کرده و درمورد بازدهی عملکرد خود گزارشی ارائه کنند.
تا زمان انتشار استانداردهای جامع اتحادیه اروپا، GPAIهایی که خطر سیستمیک دارند باید برای پیروی از مقررات به آییننامه رجوع کنند.
قوانین اتحادیه برخی از ابزارهای هوش مصنوعی را ممنوع میکند:
سیستمهای دستهبندی بیومتریک که از مشخصههای حساسی مثل باورهای سیاسی، مذهبی، فلسفی، سوگیری جنسی و نژاد استفاده میکنند.
استخراج بی هدف تصاویر چهره از اینترنت یا تصاویر دوربینهای مداربسته برای ساخت پایگاههای داده تشخیص چهره.
امتیازدهی اجتماعی براساس رفتار اجتماعی یا مشخصههای فردی.
سیستمهای هوش مصنوعی که برای دستکاری و جهتدهی به رفتار انسان طراحی میشوند و مانع آزادی عمل هستند.
هوش مصنوعی که برای بهرهبرداری از نقاط ضعف ناشی از سن، معلولیت یا شرایط اقتصادی و اجتماعی طراحی میشوند.
با توجه به مقیاس شرکت خاطی، جریمهای از حداقل ۷.۵ میلیون یورو یا ۱.۵ درصد از ورودی پول سالانه شرکت از سراسر جهان تا سرحد ۳۵ میلیون یورو یا ۷ درصد از ورودی پول بینالمللی، برای متخلفان در نظر گرفته شده است.