انگلستان فعالیت اپل و گوگل را برای مبارزه با انحصار در بازار مرورگرهای موبایلی بررسی میکند
انگلستان میخواهد به طور رسمی فعالیت شرکت اپل و الفابت را به دلیل سلطه بر…
۳ آذر ۱۴۰۳
۱۹ تیر ۱۴۰۲
زمان مطالعه : ۱۸ دقیقه
مقررات پیشنهادی جدید اتحادیه اروپا در مورد هوش مصنوعی یا به طور خلاصه «مقررات پیشنهادی هوش مصنوعی»، در آوریل ۲۰۲۱ منتشر شد. مقررات هوش مصنوعی اتحادیه اروپا تأثیر زیادی در برخی از زمینههای هوش مصنوعی خواهد داشت. به علاوه ابهامات زیادی در مورد نحوه اعمال و اجرای آنها در عمل وجود دارد.
این متن را از قول یک دانشمند ارشد دادهها ارائه میدهیم که در پروژههای مرتبط با علوم دادهها سابقه فعالیت دارد. همچنین دارای تخصص در اجرای روشهای هوش مصنوعی و اخلاق هوش مصنوعی است. به همین دلیل با مطالعه این مطلب در مورد میزان امکانپذیر بودن مقررات پیشنهادی اطلاعات مفیدی کسب میکنید.
البته نویسنده به این موضوع هم اشاره کرده که پروپوزال حاوی جزئیات بسیار کوچکی است. به همین دلیل یک پست نمیتواند همه آنها و مخصوصاً تصورات اشتباه موجود در آن را پوشش دهد. طرح کلی این مطلب به شرح زیر است: ابتدا در مورد لزوم این مقررات صحبت کردهایم. سپس قسمتهای اصلی و نحوه تحقق الزامات آن را توضیح دادیم. مجازات تخلف و موارد مرتبط با آن را بیان کردیم. در ادامه برنامه زمانی مورد انتظار برای اجرای آن را مرور کردیم. در نهایت برخی افکار و نگرانیهای نویسنده در مورد مقررات پیشنهادی هوش مصنوعی را مطالعه میکنیم.
قانون هوش مصنوعی اتحادیه اروپا اولین مجموعه مقررات جامع برای صنعت هوش مصنوعی است. این قانون پیشنهاد میکند که سیستمهای هوش مصنوعی مولد، مانند ChatGPT، قبل از انتشار تجاری مورد بازبینی قرار گیرند. همچنین به دنبال ممنوعیت تشخیص چهره به صورت همزمان و در لحظه است.
برای درک فوریت این اقدام، لازم است در مورد انگیزه پشت ارائه مقررات هوش مصنوعی اتحادیه اروپا اطلاعاتی داشته باشیم. دو دلیل اصلی برای ارائه این مقررات وجود دارد که شامل موارد زیر است.
قانون اتحادیه اروپا مبتنی بر ارزشهای اساسی اتحادیه شامل احترام به کرامت انسانی، آزادی و دموکراسی است. اتحادیه اروپا برای حقوق اساسی شامل حق عدم تبعیض، برابری بین زنان و مردان، حفاظت از دادهها، حریم خصوصی و حقوق کودک اهمیت زیادی قائل است.
فناوری هوش مصنوعی مزایای متعددی ارائه دارد. ولی سیستمهای هوش مصنوعی میتوانند به شدت با ارزشها و حقوق اتحادیه در تضاد باشند. بنابراین ابزارهای قدرتمندی برای انجام فعالیتهای زیانآور محسوب میشوند. اطمینان از توسعه هوش مصنوعی با احترام به حقوق مردم و جلب اعتماد آنها، فضای اروپا را برای ورود به عصر دیجیتال مناسب میسازد.
خطرات سیستمهای هوش مصنوعی در حال آشکار شدن است. بنابراین برخی از کشورهای عضو در حال بررسی و وضع مقررات پیشنهادی هوش مصنوعی در سطح ملی هستند. از طرفی محصولات و خدمات به احتمال زیاد از مرزهای کشورها عبور میکنند. پس وجود قوانین ملی متفاوت در داخل اتحادیه اروپا بازار آن را تکه تکه میکند. به علاوه حفاظت از حقوق اساسی و ارزشهای اتحادیه را در کشورهای مختلف عضو به خطر میاندازد.
سطح مقررات پیشنهادی هوش مصنوعی بستگی به سطح ریسکی دارد که سیستم هوش مصنوعی ایجاد میکند. هدف مقررات پیشنهادی کاهش هزینههای غیرضروری و جلوگیری از کند شدن فرایند درک برنامههای هوش مصنوعی جدید است. بنابراین نسبت به سیستمهای هوش مصنوعی دارای خطر کم یا حداقلی برای افراد ملایمت دارد.
بنابراین صرفا سیستمهای هوش مصنوعی مورد هدف هستند که بالاترین خطر را دارند. مقررات هوش مصنوعی اتحادیه اروپا اجرای برخی از شیوههای هوش مصنوعی را ممنوع میکند. تعهداتی را برای سیستمهای هوش مصنوعی پرخطر وضع میکند و لزوم شفافیت را برای برخی دیگر اپلیکیشنها الزامی خواهد کرد. همچنین مقررات پیشنهاد کردهاند که یک هیئت اروپایی در مورد مسائل خاص هوش مصنوعی مشاوره دهد و به اجرای روان و مؤثر این مقررات کمک کند.
مقررات پیشنهادی هوش مصنوعی اصطلاح AI را بسیار گسترده تعریف کرده است. عجیب است که بسیاری از اپلیکیشنهای عرضه شده زیرمجموعه AI قرار میگیرند. در این مقررات «سیستم هوش مصنوعی» به معنای نرمافزاری است که با یک یا چند مورد از تکنیکهای لیست شده در پیوست I توسعه یافته باشد. این تکنیکها شامل موارد زیر است:
از جمله یادگیری تحت نظارت، بدون نظارت و تقویت شده که توسط طیف گستردهی از روشها از جمله یادگیری عمیق عمل میکنند.
از جمله بازنمایی دانش، برنامهنویسی استقرایی (منطقی)، پایگاههای دانش، موتورهای استنتاجی و استقرایی، استدلال (نمادین) و سیستمهای خبره.
تخمین بیزی، روشهای جستجو و بهینهسازی.
سطوح ریسک در مقررات پیشنهادی هوش مصنوعی به سه گروه ریسک غیرقابل قبول، ریسک بالا و ریسک کم یا حداقل طبقهبندی میشوند.
ریسک سیستم هوش مصنوعی طبقهبندی شده در این دسته به میزانی زیاد است که استفاده از آنها توسط مقررات پیشنهادی هوش مصنوعی ممنوع اعلام شده است (با سه استثنا). فعالیتهای ممنوع عبارتند از:
البته این سه استثنا در مقررات پیشنهادی هوش مصنوعی اتحادیه اروپاباید از نظر میزان جدی بودن و میزان آسیب احتمالی در صورت استفاده از سیستم ارزیابی شوند. یعنی مزایا و معایب استفاده از سیستم در مقابل عدم استفاده از آن مورد مقایسه و ارزیابی قرار گیرد. همچنین استفاده از آنها همواره منوط به تایید مقامات ذیربط است.
سیستمهایی که در مقررات پیشنهادی هوش مصنوعی بهعنوان پرخطر شناسایی میشوند ممکن است تأثیر قابلتوجهی بر زندگی و توانایی افراد برای تأمین معیشت خود داشته باشند یا به عنوان مثال مشارکت یک فرد در جامعه را پیچیده کنند. سیستمهایی که به درستی طراحی نشدهاند ممکن است به روشی مغرضانه و تبعیضآمیز در مقابل برخی افراد عمل کنند. بنابراین به منظور کاهش خطرات این سیستمها، تنها در صورتی میتوان آنها را به خدمت گرفت که با الزامات اجباری خاصی مطابقت پیدا کنند که در بخش بعدی توضیح میدهیم. یک سیستم هوش مصنوعی به عنوان یک سیستم پرخطر در نظر گرفته می شود اگر:
8 موثر در کمک به سیستمهای قضایی (مثلا کمک در بررسی حقایق و قانون)
برای سیستمهایی که در مقررات پیشنهادی هوش مصنوعی اتحادیه اروپا به عنوان پرخطر در نظر گرفته نشدهاند، فقط شفافیت مشخص قوانین و تعهدات زیر کافی است:
با این حال، در مقررات پیشنهادی هوش مصنوعی توصیه شده که ارائهدهندگان سیستمهای هوش مصنوعی کم خطر خودشان به صورت داوطلبانه کدهای رفتاری شامل ارزشها، قوانین و اصول لازم را ایجاد و اجرا کنند. این کدهای رفتاری میتوانند از الزامات تعیین شده برای سیستمهای پرخطر پیروی کنند یا شامل مواردی مانند تعهد به پایداری محیط زیست، ایجاد دسترسی برای افراد دارای معلولیت، تنوعبخشی به تیمهای توسعه و مشارکت سهامداران در طراحی و فرآیند توسعه سیستم هوش مصنوعی باشد.
سیستمهای هوش مصنوعی که برای مقاصد نظامی توسعه یافته یا مورد استفاده قرار میگیرند در مقررات پیشنهادی هوش مصنوعی اتحادیه اروپا از شمول این قوانین مستثنی هستند. مقررات برای همه سیستمهایی اعمال میشود که:
الف) در بازار عرضه میشوند
ب) برای استفاده ارائه میشود
ج) در اتحادیه اروپا استفاده میشوند
د) بر افراد مستقر در اتحادیه تأثیر میگذارد (به عنوان مثال فعالیتی انجام شده توسط هوش مصنوعی که در خارج از اتحادیه اروپا فعالیت میکند. اما نتایج آن در اتحادیه مورد استفاده قرار میگیرد). هیچ تفاوتی وجود ندارد که سیستم هوش مصنوعی در ازای پرداخت هزینه کار میکند یا به صورت رایگان.
این مقررات به شدت بر ارزیابی داخلی از طریق گزارشگیری متکی است. فهرست الزامات اپلیکیشنها در مقررات پیشنهادی هوش مصنوعی پرخطر طولانی و اغلب گیجکننده است و تشخیص صحیح آن به دقت زیادی نیاز دارد. ارائه دهندگان سیستمهای پرخطر حداقل باید کارهای زیر را انجام دهند:
این سیستم باید به صورت منظم در طول چرخه عمر یک سیستم هوش مصنوعی پرخطر به روزرسانی شود. ارائه دهندگان باید تمام خطرات شناخته شده و قابل پیشبینی احتمالی در زمان استفاده از سیستم هوش مصنوعی پرخطر را شناسایی و تحلیل کنند. به خصوص اگر بر کودکان تأثیر بگذارد.
مستندات فنی باید همیشه به روز نگه داشته شوند و از عناصر مندرج در پیوست IV پیروی کنند، بنابراین باید حداقل شامل موارد زیر باشند:
الف) یک توصیف کلی از سیستم هوش مصنوعی به عنوان مثال هدف مورد نظر آن، یک نسخه از سیستم و شرح سخت افزار آن.
ب) شرح مفصلی از سیستم هوش مصنوعی شامل منطق کلی سیستم هوش مصنوعی، انتخابهای کلیدی طراحی، ویژگی اصلی دادههای آموزشی، گروه کاربران مورد هدف سیستم و آنچه که سیستم به دنبال بهینهسازی آن است.
ج) اطلاعات دقیق در مورد قابلیتها و محدودیتهای سیستم هوش مصنوعی در عملکرد، از جمله سطح کلی مورد انتظار از دقت و سطوح دقت برای گروههای خاصی از افراد، ارزیابی خطرات احتمالی برای سلامت، ایمنی، حقوق اساسی و تبعیض.
همچنین در صورتی که یک سیستم هوش مصنوعی پرخطر بخشی از محصولی باشد که با قوانین مندرج در پیوستII مقررات پیشنهادی هوش مصنوعی (شامل ماشینآلات، دستگاههای پزشکی و اسباببازیها) تناسب دارد، سند فنی باید حاوی اطلاعات مورد نیاز مطابق با آن مقررات پیشنهادی قانونی نیز باشد.
(البته در صورتی که سیستم توسط دادهها آموزش ببیند)، مجموعه دادهها باید مرتبط، معرف هدف مورد نظر، عاری از خطا و کامل باشند. آنها باید حاوی ویژگیهای آماری مناسب در مورد گروههایی از افراد باشند که سیستم هوش مصنوعی پرخطر برای آنها مورد استفاده قرار میگیرد. ملاحظات باید مفروضات دادهها (آنچه دادهها قرار است اندازهگیری کنند و نمایش دهند)، بررسی سوگیری احتمالی و شناسایی هرگونه دادههای احتمالی حاوی شکاف و کاستی را در بر داشته باشد.
سیستمی که مطابق با مقررات پیشنهادی هوش مصنوعی به عنوان پرخطر مشخص شود باید در برابر خطاها و ناهماهنگیهای احتمالی در زمان استفاده انعطافپذیر و دقیق باشد. کاربران باید بتوانند سیستم را قطع کنند یا تصمیم بگیرند که از خروجی سیستم استفاده نکنند. همچنین سیستمهای هوش مصنوعی باید در برابر تلاش برای تغییر کاربری یا عملکردشان انعطافپذیر باشند. این تلاشهای معمولاً با استفاده از آسیبپذیریهای سیستم انجام میشود.
برای آن دسته از سیستمهای پرخطر که تحت مقررات مندرج در پیوست II قرار میگیرند (مانند ماشینآلات، وسایل پزشکی و اسباببازی)، ارزیابی انطباق باید توسط مقامات تعیین شده در مقررات پیشنهادی انجام شود.
کاربران باید بتوانند خروجی سیستم را تفسیر کنند، بر عملکرد آن نظارت کنند (به عنوان مثال برای شناسایی علائم ناهنجاری، اختلالات و عملکردهای پیشبینی نشده) و همچنین باید نحوه استفاده مناسب از سیستم را بدانند. دستورالعملها باید حاوی اطلاعات تماس ارائهدهنده و نماینده مجاز آن باشد، ویژگیها، قابلیتها و محدودیتهای عملکرد را مشخص کند (از جمله شرایطی که ممکن است بر سطح عملکرد مورد انتظار تأثیر بگذارد)، به علاوه دستورالعملها باید مشخصات دادههای ورودی را به روشنی بیان کنند.
همه سیستمهای پرخطر و اوراق خلاصه آنها باید در پایگاه دادههای اتحادیه اروپا ثبت شده و این اطلاعات باید همیشه به روز باشند. اوراق خلاصه باید شامل تمام اطلاعات فهرست شده در پیوست VIII مقررات پیشنهادی هوش مصنوعی از جمله اطلاعات تماس ارائه دهنده، نام تجاری سیستم هوش مصنوعی (به علاوه سایر اطلاعات شناسایی مرتبط)، شرح استفاده مورد نظر از سیستم، وضعیت سیستم هوش مصنوعی (در بازار / دیگر در بازار نیست / از بازار مرجوع شده است)، کپی از گواهیهای خاص، لیست کشورهای عضوی که سیستم در آن موجود است و دستورالعملهای الکترونیکی برای استفاده باشد.
سیستم هوش مصنوعی باید در زمان فعالیت مطابق با ترتیبات قراردادی یا طبق قانون، به صورت خودکار رویدادها (logها) را ثبت کند. این گزارشها را میتوان برای نظارت بر عملیات مورد استفاده قرار داد، به ارزیابی عملکرد مناسب سیستم هوش مصنوعی کمک میکند و توجه خاصی به وقوع موقعیتهای مخاطرهآمیز دارد.
ارائهدهنده موظف است دادههای جمعآوریشده از کاربران (یا از طریق منابع دیگر) را در مورد عملکرد سیستمهای هوش مصنوعی پرخطر در طول عمرشان مستند و تجزیه و تحلیل کند و هر گونه حادثه جدی یا نقصی را گزارش دهند.
مقامات باید ضمن احترام به محرمانه بودن اطلاعات کسب و کارها به مجموعه دادههای آموزش، اعتبارسنجی و آزمایش و در صورت لزوم به کد منبع (سورس کد) دسترسی کامل داشته باشند. از آنجایی که مقامات مورد بحث قدرت زیادی برای تعیین سیستمهای هوش مصنوعی مجاز به راهاندازی در بازار اتحادیه اروپا در اختیار دارند، این مقررات قوانین سختگیرانهای را برای طرفهایی تعیین میکند که قادر به انجام ارزیابیها هستند. به عنوان مثال، هیچگونه تضاد منافع مجاز نیست و مقامات اجازه ندارند هیچ فعالیت یا خدمات مشاورهای را ارائه دهند که قادر به رقابت با سیستمهای هوش مصنوعی باشد.
همچنین کاربران سیستمهای هوش مصنوعی پرخطر تعهداتی دارند: به عنوان مثال، آنها باید اطمینان حاصل کنند که دادههای ورودی برای کاربری مورد هدف از سیستم هوش مصنوعی پرخطر مناسب است و اگر کاربر با حادثه جدی یا نقص سیستم مواجه شود، باید استفاده از سیستم هوش مصنوعی را قطع کرده و به ارائهدهنده یا توزیع کننده رویداد اطلاع دهد.
جریمههای تخلف از مقررات پیشنهادی هوش مصنوعی به سه گروه زیر طبقهبندی میشوند:
در مارس ۲۰۱۸، کمیسیون اروپا یک گروه متخصص هوش مصنوعی را برای تهیه طرح پیشنهادی دستورالعملهای رعایت اصول اخلاقی در هوش مصنوعی تشکیل داد. درآوریل ۲۰۱۹ «دستورالعملهای اخلاقی برای هوش مصنوعی قابل اعتماد» منتشر شد. اولین پیشنویس مقررات هوش مصنوعی اتحادیه اروپا در فوریه ۲۰۲۰ با نام «وایت پیپر در مورد هوش مصنوعی» منتشر شد.
در این وایت پیپر از همه علاقهمندان دعوت کردند تا نظرات خود را در مورد مقررات پیشنهادی بیان کنند و دعوتکنندگان در مجموع بیش از هزار مورد مشارکت از شرکتها، سازمانهای تجاری، افراد، مؤسسات دانشگاهی و مقامات دولتی دریافت کردند.
بر اساس بازخوردها، نسخه فعلی مقررات پیشنهادی هوش مصنوعی درآوریل ۲۰۲۱ منتشر شد. زمان اجرایی شدن این مقررات به صورت دقیق مشخص نشده است. اما پذیرش آن را در اوایل سال ۲۰۲۳ تخمین زدند و پیشبینی کردند که با فرض یک دوره زمانی دو ساله، این مقررات در سال ۲۰۲۵ قابل اجرا باشد.
نویسنده نظر خود را در مورد مقررات پیشنهادی هوش مصنوعی به این صورت عنوان کرده: «به نظر میرسد که افراد بیشتری در حال درک خطرات اعتماد کورکورانه به سیستمهای هوش مصنوعی هستند. پیش از این ما شاهد مواردی بودیم که یک سیستم هوش مصنوعی با دادن اعتبار کمتر و امتیازات پایینتر به زنان در ابزارهای استخدامی کارکنان، تبعیضهایی را بر علیه آنان قائل شده است. همچنین، یک سیستم هوش مصنوعی که برای کار بر روی بیمارستانهای ایالات متحده طراحی شده بود، تصمیم گرفت که بیماران سفیدپوست نسبت به سیاهپوستان به کمک فوریتر نیاز دارند، حتی اگر سیاهپوستان به طور قابلتوجهی بیمارتر از فرد سفیدپوست بودند. چون دادههای آموزشی وارد شده به سیستم مغرضانه بود و به دلیل اینکه سفیدپوستان بیمههای درمانی بهتری داشتند، بیماریهای آنها با تشخیص بهتری مواجه شد. به همین دلیل است که باید خطرات هوش مصنوعی را باور کنید.»
بنابراین نویسنده ارائه مقررات پیشنهادی هوش مصنوعی و به طور کلی هر تلاشی برای تنظیم سیستمهای هوش مصنوعی در جهت اطمینان از رفتار برابر با افراد تحسین میکند. ولی معتقد است که حجم بیش از حد گزارشدهی پیشنهاد شده در این مقررات، راه درستی برای تحقق اهداف مورد نظر نیست. به علاوه با وجودی که برخی از الزامات مناسب به نظر میرسند، ولی انجام آنها سخت یا غیرممکن است.
همچنین به نظر میرسد جریمههای تعیین شده در مقررات پیشنهادی هوش مصنوعی بسیار بالا باشد. به گونهای که اگر شرکتی به طور تصادفی فراموش کرده باشد چیزی را ذکر کند، در صورت محکوم شدن به پرداخت جریمه محکوم به فنا خواهد شد. در واقع به نظر میرسد قانونگذاران کاملاً نمیدانند که انجام برخی از الزامات چقدر دشوار است. در این صورت به دلیل ترس سرمایه گذاران از جریمههای بالا و غیرقابل پیشبینی، میزان سرمایهگذاری در سیستمهای هوش مصنوعی کاهش مییابد.
از نظر نویسنده پس از چندین بار مطالعهی این مقررات پیشنهادی هوش مصنوعی، توجه ما به چند جمله به خصوص جلب میشود. به عنوان مثال، اگر دادههای مورد استفاده برای آموزش سیستم هوش مصنوعی الزامات تعیین شده در این مقررات را برآورده نکنند، بالاترین سطح جریمه اعمال میشود. طبق استناد مستقیم از پروپوزال: «مجموعه دادههای آموزش، اعتبارسنجی و آزمایش باید مرتبط، معرف هدف مورد نظر، عاری از خطا و کامل باشند.» همچنین دادهها باید از ویژگیهای آماری مناسبی مطابق با کاربران مورد نظر سیستم برخوردار باشند. چنین الزاماتی برای نمونههای واقعی در علم دادهها بسیار سنگین است.
به عنوان مثال: یک مجموعه دادهها شامل تعداد مناسبی از گروههای سنی مختلف، نژادها و تعداد مساوی مرد و زن باشد، ولی پس از تجزیه و تحلیل دقیق متوجه میشویم که زنان جوان سیاهپوست بسیار کمی داریم. یعنی اگر به یکی از ویژگیهای آماری توجه کنیم، مجموعه دادهها خوب به نظر میرسد. اما اگر به ترکیب سه ویژگی، مثلاً سن، نژاد و جنسیت نگاه کنیم، مشکلات برای ما روشن میشود. اگر به طور همزمان روی چندین ویژگی تمرکز کنیم، اجتناب ناپذیر است که اندازه گروه آنقدر کوچک شود که دیگر از نظر آماری معنیدار نباشد. پس چگونه میتوان در مورد عدم وجود هیچگونه سوگیری در مجموعه دادههای موجود اطمینان حاصل کرد و نگران پرداخت 30 میلیون یورو جریمه نبود؟
بنابراین نویسنده کاملاً از ایجاد مقررات پیشنهادی هوش مصنوعی در جهت کمک به تنظیم آن پشتیبانی میکند. زیرا توسعهدهندگان هوش مصنوعی بیش از حد بر روی ساخت سریع مدلها تمرکز میکنند و در بسیاری از موارد اهمیتی به رعایت اخلاق هوش مصنوعی نمیدهند. ولی اظهار امیدواری کرده که قانونگذاران مقررات پیشنهادی را اصلاح کنند و فقط الزاماتی را قرار دهند که سیستمهای هوش مصنوعی قادر به انجام آنها در دنیای واقعی باشند.