skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

فناوری

نسرین ابویی نویسنده میهمان

تفسیری بر مقررات پیشنهادی هوش مصنوعی در اتحادیه اروپا

نسرین ابویی
نویسنده میهمان

۱۹ تیر ۱۴۰۲

زمان مطالعه : ۱۸ دقیقه

مقررات پیشنهادی هوش مصنوعی در اتحادیه اروپا

مقررات پیشنهادی جدید اتحادیه اروپا در مورد هوش مصنوعی یا به طور خلاصه «مقررات پیشنهادی هوش مصنوعی»، در آوریل ۲۰۲۱ منتشر شد. مقررات هوش مصنوعی اتحادیه اروپا تأثیر زیادی در برخی از زمینه‌های هوش مصنوعی خواهد داشت. به علاوه ابهامات زیادی در مورد نحوه اعمال و اجرای آن‌ها در عمل وجود دارد.

این متن را از قول یک دانشمند ارشد داده‌ها ارائه می‌دهیم که در پروژه‌های مرتبط با علوم داده‌ها سابقه فعالیت دارد. هم‌چنین دارای تخصص در اجرای روش‌های هوش مصنوعی و اخلاق هوش مصنوعی است. به همین دلیل با مطالعه این مطلب در مورد میزان امکان‌پذیر بودن مقررات پیشنهادی اطلاعات مفیدی کسب می‌کنید.

البته نویسنده به این موضوع هم اشاره کرده که پروپوزال حاوی جزئیات بسیار کوچکی است. به همین دلیل یک پست نمی‌تواند همه آن‌ها و مخصوصاً تصورات اشتباه موجود در آن را پوشش دهد. طرح کلی این مطلب به شرح زیر است: ابتدا در مورد لزوم این مقررات صحبت کرده‌ایم. سپس قسمت‌های اصلی و نحوه تحقق الزامات آن را توضیح دادیم.  مجازات تخلف و موارد مرتبط با آن را بیان کردیم. در ادامه برنامه زمانی مورد انتظار برای اجرای آن را مرور کردیم. در نهایت برخی افکار و نگرانی‌های نویسنده در مورد مقررات پیشنهادی هوش مصنوعی را مطالعه می‌کنیم.

قانون هوش مصنوعی اتحادیه اروپا اولین مجموعه مقررات جامع برای صنعت هوش مصنوعی است. این قانون پیشنهاد می‌کند که سیستم‌های هوش مصنوعی مولد، مانند ChatGPT، قبل از انتشار تجاری مورد بازبینی قرار گیرند. همچنین به دنبال ممنوعیت تشخیص چهره به صورت همزمان و در لحظه است.

چرا اتحادیه اروپا مقررات پیشنهادی هوش مصنوعی را تدوین کرده است؟

برای درک فوریت این اقدام، لازم است در مورد انگیزه پشت ارائه مقررات هوش مصنوعی اتحادیه اروپا اطلاعاتی داشته باشیم. دو دلیل اصلی برای ارائه این مقررات وجود دارد که شامل موارد زیر است.

  • اطمینان از ایمنی و احترام به حقوق اساسی و ارزش‌های اتحادیه اروپا

قانون اتحادیه اروپا مبتنی بر ارزش‌های اساسی اتحادیه شامل احترام به کرامت انسانی، آزادی و دموکراسی است. اتحادیه اروپا برای حقوق اساسی شامل حق عدم تبعیض، برابری بین زنان و مردان، حفاظت از داده‌ها، حریم خصوصی و حقوق کودک اهمیت زیادی قائل است.

فناوری هوش مصنوعی مزایای متعددی ارائه دارد. ولی سیستم‌های هوش مصنوعی می‌توانند به شدت با ارزش‌ها و حقوق اتحادیه در تضاد باشند. بنابراین ابزارهای قدرتمندی برای انجام فعالیت‌های زیان‌آور محسوب می‌شوند. اطمینان از توسعه هوش مصنوعی با احترام به حقوق مردم و جلب اعتماد آن‌ها، فضای اروپا را برای ورود به عصر دیجیتال مناسب می‌سازد.

  • جلوگیری از تکه شدن بازار در داخل اتحادیه اروپا

خطرات سیستم‌های هوش مصنوعی در حال آشکار شدن است. بنابراین برخی از کشورهای عضو در حال بررسی و وضع مقررات پیشنهادی هوش مصنوعی در سطح ملی هستند. از طرفی محصولات و خدمات به احتمال زیاد از مرزهای کشورها عبور می‌کنند. پس وجود قوانین ملی متفاوت در داخل اتحادیه اروپا بازار آن را تکه تکه می‌کند. به علاوه حفاظت از حقوق اساسی و ارزش‌های اتحادیه را در کشورهای مختلف عضو به خطر می‌اندازد.

فوریت تدوین مقررات پیشنهادی هوش مصنوعی
مقررات پیشنهادی هوش مصنوعی برای اطمینان از ایمن بودن سیستم‌های هوش مصنوعی و احترام به حقوق اساسی بوده است.

مقررات پیشنهادی هوش مصنوعی چه مواردی را شامل می‌شود؟

سطح مقررات پیشنهادی هوش مصنوعی بستگی به سطح ریسکی دارد که سیستم هوش مصنوعی ایجاد می‌کند. هدف مقررات پیشنهادی کاهش هزینه‌های غیرضروری و جلوگیری از کند شدن فرایند درک برنامه‌های هوش مصنوعی جدید است. بنابراین نسبت به سیستم‌های هوش مصنوعی دارای خطر کم یا حداقلی برای افراد ملایمت دارد.

بنابراین صرفا سیستم‌های هوش مصنوعی مورد هدف هستند که بالاترین خطر را دارند. مقررات هوش مصنوعی اتحادیه اروپا اجرای برخی از شیوه‌های هوش مصنوعی را ممنوع می‌کند. تعهداتی را برای سیستم‌های هوش مصنوعی پرخطر وضع می‌کند و لزوم شفافیت را برای برخی دیگر اپلیکیشن‌ها الزامی خواهد کرد. هم‌چنین مقررات پیشنهاد کرده‌اند که یک هیئت اروپایی در مورد مسائل خاص هوش مصنوعی مشاوره دهد و به اجرای روان و مؤثر این مقررات کمک کند.

تعریف AI در مقررات هوش مصنوعی اتحادیه اروپا 

مقررات پیشنهادی هوش مصنوعی اصطلاح AI را بسیار گسترده تعریف کرده است. عجیب است که بسیاری از اپلیکیشن‌های عرضه شده زیرمجموعه AI قرار می‌گیرند. در این مقررات «سیستم هوش مصنوعی» به معنای نرم‌افزاری است که با یک یا چند مورد از تکنیک‌های لیست شده در پیوست I توسعه یافته باشد. این تکنیک‌ها شامل موارد زیر است:

  • رویکردهای یادگیری ماشینی

از جمله یادگیری تحت نظارت، بدون نظارت و تقویت شده که توسط طیف گسترده‌ی از روش‌ها از جمله یادگیری عمیق عمل می‌کنند.

  • رویکردهای منطقی و مبتنی بر دانش

از جمله بازنمایی دانش، برنامه‌نویسی استقرایی (منطقی)، پایگاه‌های دانش، موتورهای استنتاجی و استقرایی، استدلال (نمادین) و سیستم‌های خبره.

  • رویکردهای آماری

تخمین بیزی، روش‌های جستجو و بهینه‌سازی.

تعریف AI در مقررات پیشنهادی هوش مصنوعی
اصطلاح AI در مقررات پیشنهادی هوش مصنوعی بسیار گسترده تعریف شده است.

سطوح ریسک در مقررات پیشنهادی هوش مصنوعی 

سطوح ریسک در مقررات پیشنهادی هوش مصنوعی به سه گروه ریسک غیرقابل قبول، ریسک بالا و ریسک کم یا حداقل طبقه‌بندی می‌شوند.

الف) ریسک غیرقابل قبول

ریسک سیستم هوش مصنوعی طبقه‌بندی شده در این دسته به میزانی زیاد است که استفاده از آن‌ها توسط مقررات پیشنهادی هوش مصنوعی ممنوع اعلام شده است (با سه استثنا). فعالیت‌های ممنوع عبارتند از:

  1. سیستم‌های دستکاری: تکنیک‌هایی که فراتر از آگاهی فرد هستند یا از آسیب‌پذیری‌های یک گروه خاص (از نظر سنی، ناتوانی جسمی یا ذهنی) برای تحریف رفتار یک فرد به نحوی استفاده می‌کنند که به آن شخص یا شخص دیگری آسیب وارد می‌شود.
  2. الگوریتم‌های امتیازدهی اجتماعی: یک سیستم هوش مصنوعی توسط مقامات دولتی استفاده می‌شود. این سیستم با ارزیابی قابلیت اعتماد اشخاص حقیقی «امتیازدهی اجتماعی» شهروندان را انجام می‌دهد.
  3. سیستم‌های بیومتریک مبتنی بر زمان واقعی: این نوع سیستم‌ها از یک سیستم مبتنی بر زمان واقعی استفاده می‌کنند. کارکرد آن‌ها شناسایی افراد از راه دور در مکان‌های در دسترس عموم به منظور اجرای قانون است. در سه موقعیت کاملاً ضروری زیر با استثناء در ممنوعیت مواجه هستیم:
  • جستجوی هدفمند برای قربانیان احتمالی جنایت یا کودکان گم شده
  • جلوگیری از تهدیدات ایمنی حتمی یا حملات تروریستی
  • پیدا کردن یک مرتکب جنایت یا مظنون به یک جرم جنایی جدی

البته این سه استثنا در مقررات پیشنهادی هوش مصنوعی اتحادیه اروپاباید از نظر میزان جدی بودن و میزان آسیب احتمالی در صورت استفاده از سیستم ارزیابی شوند. یعنی مزایا و معایب استفاده از سیستم در مقابل عدم استفاده از آن مورد مقایسه و ارزیابی قرار گیرد. هم‌چنین استفاده از آن‌ها همواره منوط به تایید مقامات ذیربط است.

ب) ریسک بالا

سیستم‌هایی که در مقررات پیشنهادی هوش مصنوعی به‌عنوان پرخطر شناسایی می‌شوند ممکن است تأثیر قابل‌توجهی بر زندگی و توانایی افراد برای تأمین معیشت خود داشته باشند یا به عنوان مثال مشارکت یک فرد در جامعه را پیچیده کنند. سیستم‌هایی که به درستی طراحی نشده‌اند ممکن است به روشی مغرضانه و تبعیض‌آمیز در مقابل برخی افراد عمل کنند. بنابراین به منظور کاهش خطرات این سیستم‌ها، تنها در صورتی می‌توان آنها را به خدمت گرفت که با الزامات اجباری خاصی مطابقت پیدا کنند که در بخش بعدی توضیح می‌دهیم. یک سیستم هوش مصنوعی به عنوان یک سیستم پرخطر در نظر گرفته می شود اگر:

  • تحت پوشش قانون هماهنگ‌سازی اتحادیه باشد که در ضمیمه II لیست است. بنابراین باید پیش از عرضه به بازار باید توسط نهادهای شخص ثالث مورد ارزیابی قرار گیرد. برخی محصولاتی که در این دسته قرار می‌گیرند شامل ماشین‌آلات، وسایل پزشکی و اسباب بازی هستند.
  • در پیوست III سیستم‌های موجود در این گروه به هشت گروه اصلی زیر تقسیم‌بندی می‌شوند.
  1. سیستم‌هایی که از شناسایی بیومتریک استفاده می‌کنند.
  2. سیستم‌های فعال در زیرساخت‌های حیاتی (ترافیک جاده‌ای، آب، گرما، گاز، برق)
  3. سیستم‌های مورد استفاده برای تعیین دسترسی به آموزش یا ارزیابی دانش‌آموزان
  4. سیستم‌های کاربردی برای استخدام، تصمیم‌گیری در مورد ترفیع سازمانی، فسخ قراردادها یا تخصیص وظایف
  5. مورد استفاده برای تعیین دسترسی به خدمات و مزایا (مانند کمک‌های اجتماعی، کمک‌های مالی، امتیازات اعتباری).
  6. قابل استفاده برای اجرای قانون
  7. قابل استفاده در مدیریت مهاجرت، پناهندگی یا کنترل مرز

8 موثر در کمک به سیستم‌های قضایی (مثلا کمک در بررسی حقایق و قانون)

سه سطح ریسک در مقررات پیشنهادی هوش مصنوعی
سطوح ریسک در مقررات پیشنهادی هوش مصنوعی به سه گروه ریسک غیرقابل قبول، ریسک بالا و ریسک کم یا حداقل طبقه‌بندی می‌شوند.

ج) ریسک کم یا دارای حداقل ریسک

برای سیستم‌هایی که در مقررات پیشنهادی هوش مصنوعی اتحادیه اروپا به عنوان پرخطر در نظر گرفته نشده‌اند، فقط شفافیت مشخص قوانین و تعهدات زیر کافی است:

  1. اگر یک سیستم هوش مصنوعی با افراد تعامل داشته باشد، باید به کاربر اطلاع بدهند که در حال تعامل با یک سیستم هوش مصنوعی است، مگر اینکه این موضوع برای کاربر روشن باشد.
  2. اگر افراد در معرض سیستم‌های تشخیص احساسات یا سیستم‌هایی قرار بگیرند که افراد را بر اساس جنسیت، سن، رنگ مو، خالکوبی و غیره به گروه‌های خاصی طبقه‌بندی می‌کند، باید مطلع شوند.
  3. برای محتواهای دستکاری شده، صوتی یا ویدیویی که شبیه افراد، مکان‌ها یا رویدادهای واقعی است یا ممکن است به دروغ واقعی به نظر برسند (مانند دیپ فیک) باید به وضوح بیان شود که محتوا به طور مصنوعی تولید شده است.

با این حال، در مقررات پیشنهادی هوش مصنوعی توصیه شده که ارائه‌دهندگان سیستم‌های هوش مصنوعی کم خطر خودشان به صورت داوطلبانه کدهای رفتاری شامل ارزش‌ها، قوانین و اصول لازم را ایجاد و اجرا کنند. این کدهای رفتاری می‌توانند از الزامات تعیین شده برای سیستم‌های پرخطر پیروی کنند یا شامل مواردی مانند تعهد به پایداری محیط زیست، ایجاد دسترسی برای افراد دارای معلولیت، تنوع‌بخشی به تیم‌های توسعه و مشارکت سهامداران در طراحی و فرآیند توسعه سیستم هوش مصنوعی باشد.

استثنائات

سیستم‌های هوش مصنوعی که برای مقاصد نظامی توسعه یافته یا مورد استفاده قرار می‌گیرند در مقررات پیشنهادی هوش مصنوعی اتحادیه اروپا از شمول این قوانین مستثنی هستند. مقررات برای همه سیستم‌هایی اعمال می‌شود که:

الف) در بازار عرضه می‌شوند

ب) برای استفاده ارائه می‌‎شود

ج) در اتحادیه اروپا استفاده می‌شوند

د) بر افراد مستقر در اتحادیه تأثیر می‌گذارد (به عنوان مثال فعالیتی انجام شده توسط هوش مصنوعی که در خارج از اتحادیه اروپا فعالیت می‌کند. اما نتایج آن در اتحادیه مورد استفاده قرار می‌گیرد). هیچ تفاوتی وجود ندارد که سیستم هوش مصنوعی در ازای پرداخت هزینه کار می‌کند یا به صورت رایگان.

الزامات مقررات هوش مصنوعی اتحادیه اروپا برای اپلیکیشن‌ها

این مقررات به شدت بر ارزیابی داخلی از طریق گزارش‌گیری متکی است. فهرست الزامات اپلیکیشن‌ها در مقررات پیشنهادی هوش مصنوعی پرخطر طولانی و اغلب گیج‌کننده است و تشخیص صحیح آن به دقت زیادی نیاز دارد. ارائه دهندگان سیستم‌های پرخطر حداقل باید کارهای زیر را انجام دهند:

1. ایجاد یک سیستم مدیریت ریسک

این سیستم باید به صورت منظم در طول چرخه عمر یک سیستم هوش مصنوعی پرخطر به روزرسانی شود. ارائه دهندگان باید تمام خطرات شناخته شده و قابل پیش‌بینی احتمالی در زمان استفاده از سیستم هوش مصنوعی پرخطر را شناسایی و تحلیل کنند. به خصوص اگر بر کودکان تأثیر بگذارد.

2. ثبت مستندات فنی

مستندات فنی باید همیشه به روز نگه داشته شوند و از عناصر مندرج در پیوست IV پیروی کنند، بنابراین باید حداقل شامل موارد زیر باشند:

الف) یک توصیف کلی از سیستم هوش مصنوعی به عنوان مثال هدف مورد نظر آن، یک نسخه از سیستم و شرح سخت افزار آن.

ب) شرح مفصلی از سیستم هوش مصنوعی شامل منطق کلی سیستم هوش مصنوعی، انتخاب‌های کلیدی طراحی، ویژگی اصلی داده‌های آموزشی، گروه کاربران مورد هدف سیستم و آن‌چه که سیستم به دنبال بهینه‌سازی آن است.

ج) اطلاعات دقیق در مورد قابلیت‌ها و محدودیت‌های سیستم هوش مصنوعی در عملکرد، از جمله سطح کلی مورد انتظار از دقت و سطوح دقت برای گروه‌های خاصی از افراد، ارزیابی خطرات احتمالی برای سلامت، ایمنی، حقوق اساسی و تبعیض.

هم‌چنین در صورتی که یک سیستم هوش مصنوعی پرخطر بخشی از محصولی باشد که با قوانین مندرج در پیوستII  مقررات پیشنهادی هوش مصنوعی (شامل ماشین‌آلات، دستگاه‌های پزشکی و اسباب‌بازی‌ها) تناسب دارد، سند فنی باید حاوی اطلاعات مورد نیاز مطابق با آن مقررات پیشنهادی قانونی نیز باشد.

الزامات مقررات پیشنهادی هوش مصنوعی برای اپلیکیشن‌ها در اتحادیه اروپا
الزامات اپلیکیشن‌ها در مقررات پیشنهادی هوش مصنوعی پرخطر طولانی و اغلب گیج‌کننده است.

3. انجام الزامات مربوط به آموزش، آزمایش و مجموعه داده‌های اعتبارسنجی استفاده شده

(البته در صورتی که سیستم توسط داده‌ها آموزش ببیند)، مجموعه داده‌ها باید مرتبط، معرف هدف مورد نظر، عاری از خطا و کامل باشند. آن‌ها باید حاوی ویژگی‌های آماری مناسب در مورد گروه‌هایی از افراد باشند که سیستم هوش مصنوعی پرخطر برای آن‌ها مورد استفاده قرار می‌گیرد. ملاحظات باید مفروضات داده‌ها (آنچه داده‌ها قرار است اندازه‌گیری کنند و نمایش دهند)، بررسی سوگیری احتمالی و شناسایی هرگونه داده‌های احتمالی حاوی شکاف‌ و کاستی‌ را در بر داشته باشد.

4. دستیابی به سطح مناسبی از دقت، استحکام و امنیت سایبری

سیستمی که مطابق با مقررات پیشنهادی هوش مصنوعی به عنوان پرخطر مشخص شود باید در برابر خطاها و ناهماهنگی‌های احتمالی در زمان استفاده انعطاف‌پذیر و دقیق باشد. کاربران باید بتوانند سیستم را قطع کنند یا تصمیم بگیرند که از خروجی سیستم استفاده نکنند. هم‌چنین سیستم‌های هوش مصنوعی باید در برابر تلاش‌ برای تغییر کاربری یا عملکردشان انعطاف‌پذیر باشند. این تلاش‌های معمولاً با استفاده از آسیب‌پذیری‌های سیستم انجام می‌شود.

5. ارزیابی انطباق سیستم

برای آن دسته از سیستم‌های پرخطر که تحت مقررات مندرج در پیوست II قرار می‌گیرند (مانند ماشین‌آلات، وسایل پزشکی و اسباب‌بازی)، ارزیابی انطباق باید توسط مقامات تعیین شده در مقررات پیشنهادی انجام شود.

6. ارائه دستورالعمل‌های دقیق به کاربر

کاربران باید بتوانند خروجی سیستم را تفسیر کنند، بر عملکرد آن نظارت کنند (به عنوان مثال برای شناسایی علائم ناهنجاری، اختلالات و عملکردهای پیش‌بینی نشده) و هم‌چنین باید نحوه استفاده مناسب از سیستم را بدانند. دستورالعمل‌ها باید حاوی اطلاعات تماس ارائه‌دهنده و نماینده مجاز آن باشد، ویژگی‌ها، قابلیت‌ها و محدودیت‌های عملکرد را مشخص کند (از جمله شرایطی که ممکن است بر سطح عملکرد مورد انتظار تأثیر بگذارد)، به علاوه دستورالعمل‌ها باید مشخصات داده‌های ورودی را به روشنی بیان کنند.

7. ثبت سیستم در پایگاه داده‌های اتحادیه اروپا که در دسترس عموم قرار دارد

همه سیستم‌های پرخطر و اوراق خلاصه آن‌ها باید در پایگاه داده‌های اتحادیه اروپا ثبت شده و این اطلاعات باید همیشه به روز باشند. اوراق خلاصه باید شامل تمام اطلاعات فهرست شده در پیوست VIII مقررات پیشنهادی هوش مصنوعی از جمله اطلاعات تماس ارائه دهنده، نام تجاری سیستم هوش مصنوعی (به علاوه سایر اطلاعات شناسایی مرتبط)، شرح استفاده مورد نظر از سیستم، وضعیت سیستم هوش مصنوعی (در بازار / دیگر در بازار نیست / از بازار مرجوع شده است)، کپی از گواهی‌های خاص، لیست کشورهای عضوی که سیستم در آن موجود است و دستورالعمل‌های الکترونیکی برای استفاده باشد.

8. ثبت رکوردها در زمان استفاده از سیستم

سیستم هوش مصنوعی باید در زمان فعالیت مطابق با ترتیبات قراردادی یا طبق قانون، به صورت خودکار رویدادها (logها) را ثبت کند. این گزارش‌ها را می‌توان برای نظارت بر عملیات مورد استفاده قرار داد، به ارزیابی عملکرد مناسب سیستم هوش مصنوعی کمک می‌کند و توجه خاصی به وقوع موقعیت‌های مخاطره‌آمیز دارد.

9. حفظ نظارت پس از عرضه به بازار و گزارش حوادث و نقص‌های جدی

ارائه‌دهنده موظف است داده‌های جمع‌آوری‌شده از کاربران (یا از طریق منابع دیگر) را در مورد عملکرد سیستم‌های هوش مصنوعی پرخطر در طول عمرشان مستند و تجزیه و تحلیل کند و هر گونه حادثه جدی یا نقصی را گزارش دهند.

مقامات باید ضمن احترام به محرمانه بودن اطلاعات کسب و کارها به مجموعه داده‌های آموزش، اعتبارسنجی و آزمایش و در صورت لزوم به کد منبع (سورس کد) دسترسی کامل داشته باشند.  از آنجایی که مقامات مورد بحث قدرت زیادی برای تعیین سیستم‌های هوش مصنوعی مجاز به راه‌اندازی در بازار اتحادیه اروپا در اختیار دارند، این مقررات قوانین سخت‌گیرانه‌ای را برای طرف‌هایی تعیین می‌کند که قادر به انجام ارزیابی‌ها هستند. به عنوان مثال، هیچ‌گونه تضاد منافع مجاز نیست و مقامات اجازه ندارند هیچ فعالیت یا خدمات مشاوره‌ای را ارائه دهند که قادر به رقابت با سیستم‌های هوش مصنوعی باشد.

هم‌چنین کاربران سیستم‌های هوش مصنوعی پرخطر تعهداتی دارند: به عنوان مثال، آنها باید اطمینان حاصل کنند که داده‌های ورودی برای کاربری مورد هدف از سیستم هوش مصنوعی پرخطر مناسب است و اگر کاربر با حادثه جدی یا نقص سیستم مواجه شود، باید استفاده از سیستم هوش مصنوعی را قطع کرده و به ارائه‌دهنده یا توزیع کننده رویداد اطلاع دهد.

تعهدات ارائه دهندگان سیستم‌های پرخطر مطابق با مقررات پیشنهادی هوش مصنوعی
مطابق با مقررات پیشنهادی هوش مصنوعی ارائه دهندگان سیستم‌های پرخطر باید تعهداتی را انجام دهند.

تخلف از مقررات پیشنهادی هوش مصنوعی چه مجازاتی در پی دارد؟

جریمه‌های تخلف از مقررات پیشنهادی هوش مصنوعی به سه گروه زیر طبقه‌بندی می‌شوند:

  1. اجرای فعالیت‌های ممنوعه هوش مصنوعی یا نقض الزامات تعیین شده برای داده‌ها: ۳۰ میلیون یورو یا ۶% از کل گردش مالی سالانه جهانی برای سال مالی قبل، هرکدام بیشتر باشد.
  2. عدم رعایت هر یک از الزامات دیگر این مقررات: ۲۰ میلیون یورو یا ۴% از کل گردش مالی سالانه جهانی برای سال مالی قبل، هر کدام بیشتر باشد.
  3. ارائه اطلاعات نادرست، ناقص یا گمراه‌کننده در مورد الزامات تعیین شده در این مقررات: ۱۰ میلیون یورو یا ۲% از کل گردش مالی سالانه جهانی برای سال مالی قبل، هر کدام بیشتر باشد.

چه زمانی قرار است مقررات پیشنهادی هوش مصنوعی لازم الاجرا شوند؟

در مارس ۲۰۱۸، کمیسیون اروپا یک گروه متخصص هوش مصنوعی را برای تهیه طرح پیشنهادی دستورالعمل‌های رعایت اصول اخلاقی در هوش مصنوعی تشکیل داد. در‌آوریل ۲۰۱۹ «دستورالعمل‌های اخلاقی برای هوش مصنوعی قابل اعتماد» منتشر شد. اولین پیش‌نویس مقررات هوش مصنوعی اتحادیه اروپا در فوریه ۲۰۲۰ با نام «وایت پیپر در مورد هوش مصنوعی» منتشر شد.

در این وایت پیپر از همه علاقه‌مندان دعوت کردند تا نظرات خود را در مورد مقررات پیشنهادی بیان کنند و دعوت‌کنندگان در مجموع بیش از هزار مورد مشارکت از شرکت‌ها، سازمان‌های تجاری، افراد، مؤسسات دانشگاهی و مقامات دولتی دریافت کردند.

بر اساس بازخورد‌ها، نسخه فعلی مقررات پیشنهادی هوش مصنوعی در‌آوریل ۲۰۲۱ منتشر شد. زمان اجرایی شدن این مقررات به صورت دقیق مشخص نشده است. اما پذیرش آن را در اوایل سال  ۲۰۲۳ تخمین زدند و پیش‌بینی کردند که با فرض یک دوره زمانی دو ساله، این مقررات در سال ۲۰۲۵ قابل اجرا باشد.

زمان اجرای مقررات پیشنهادی هوش مصنوعی
پیش‌بینی شده که این مقررات در سال 2025 قابل اجرا باشد.

نظر نویسنده در مورد مقررات پیشنهادی هوش مصنوعی چیست؟

نویسنده نظر خود را در مورد مقررات پیشنهادی هوش مصنوعی به این صورت عنوان کرده: «به نظر می‌رسد که افراد بیشتری در حال درک خطرات اعتماد کورکورانه به سیستم‌های هوش مصنوعی هستند. پیش از این ما شاهد مواردی بودیم که یک سیستم هوش مصنوعی با دادن اعتبار کمتر و امتیازات پایین‌تر به زنان در ابزارهای استخدامی کارکنان، تبعیض‌هایی را بر علیه آنان قائل شده است. هم‌چنین، یک سیستم هوش مصنوعی که برای کار بر روی بیمارستان‌های ایالات متحده طراحی شده بود، تصمیم گرفت که بیماران سفیدپوست نسبت به سیاه‌پوستان به کمک فوری‌تر نیاز دارند، حتی اگر سیاه‌پوستان به طور قابل‌توجهی بیمارتر از فرد سفیدپوست بودند. چون داده‌های آموزشی وارد شده به سیستم مغرضانه بود و به دلیل این‌که سفیدپوستان بیمه‌های درمانی بهتری داشتند، بیماری‌های آن‌ها با تشخیص بهتری مواجه شد. به همین دلیل است که باید خطرات هوش مصنوعی را باور کنید.»

بنابراین نویسنده ارائه مقررات پیشنهادی هوش مصنوعی و به طور کلی هر تلاشی برای تنظیم سیستم‌های هوش مصنوعی در جهت اطمینان از رفتار برابر با افراد تحسین می‌کند. ولی معتقد است که حجم بیش از حد گزارش‌دهی پیشنهاد شده در این مقررات، راه درستی برای تحقق اهداف مورد نظر نیست. به علاوه با وجودی که برخی از الزامات مناسب به نظر می‌رسند، ولی انجام آن‌ها سخت یا غیرممکن است.

هم‌چنین به نظر می‌رسد جریمه‌های تعیین شده در مقررات پیشنهادی هوش مصنوعی بسیار بالا باشد. به گونه‌ای که اگر شرکتی به طور تصادفی فراموش کرده باشد چیزی را ذکر کند، در صورت محکوم شدن به پرداخت جریمه محکوم به فنا خواهد شد. در واقع به نظر می‌رسد قانون‌گذاران کاملاً نمی‌دانند که انجام برخی از الزامات چقدر دشوار است. در این صورت به دلیل ترس سرمایه گذاران از جریمه‌های بالا و غیرقابل پیش‌بینی، میزان سرمایه‌گذاری در سیستم‌های هوش مصنوعی کاهش می‌یابد.

مثال‌های نویسنده در مورد مشکلات موجود در مقررات پیشنهادی هوش مصنوعی

از نظر نویسنده پس از چندین بار مطالعه‌ی این مقررات پیشنهادی هوش مصنوعی، توجه ما به چند جمله به خصوص جلب می‌شود. به عنوان مثال، اگر داده‌های مورد استفاده برای آموزش سیستم هوش مصنوعی الزامات تعیین شده در این مقررات را برآورده نکنند، بالاترین سطح جریمه اعمال می‌شود. طبق استناد مستقیم از پروپوزال: «مجموعه‌ داده‌های آموزش، اعتبارسنجی و آزمایش باید مرتبط، معرف هدف مورد نظر، عاری از خطا و کامل باشند.» هم‌چنین داده‌ها باید از ویژگی‌های آماری مناسبی مطابق با کاربران مورد نظر سیستم برخوردار باشند. چنین الزاماتی برای نمونه‌های واقعی در علم داده‌ها بسیار سنگین است.

به عنوان مثال: یک مجموعه داده‌ها شامل تعداد مناسبی از گروه‌های سنی مختلف، نژادها و تعداد مساوی مرد و زن باشد، ولی پس از تجزیه و تحلیل دقیق متوجه می‌شویم که زنان جوان سیاه‌پوست بسیار کمی داریم. یعنی اگر به یکی از ویژگی‌های آماری توجه کنیم، مجموعه داده‌ها خوب به نظر می‌رسد. اما اگر به ترکیب سه ویژگی، مثلاً سن، نژاد و جنسیت نگاه کنیم، مشکلات برای ما روشن می‌شود. اگر به طور همزمان روی چندین ویژگی تمرکز کنیم، اجتناب ناپذیر است که اندازه گروه آنقدر کوچک شود که دیگر از نظر آماری معنی‌دار نباشد. پس چگونه می‌توان در مورد عدم وجود هیچ‌گونه سوگیری در مجموعه داده‌های موجود  اطمینان حاصل کرد و نگران پرداخت 30 میلیون یورو جریمه نبود؟

جمع‌بندی

بنابراین نویسنده کاملاً از ایجاد مقررات پیشنهادی هوش مصنوعی در جهت کمک به تنظیم آن پشتیبانی می‌کند. زیرا توسعه‌دهندگان هوش مصنوعی بیش از حد بر روی ساخت سریع مدل‌ها تمرکز می‌کنند و در بسیاری از موارد اهمیتی به رعایت اخلاق هوش مصنوعی نمی‌دهند. ولی اظهار امیدواری کرده که قانون‌گذاران مقررات پیشنهادی را اصلاح کنند و فقط الزاماتی را قرار دهند که سیستم‌های هوش مصنوعی قادر به انجام آن‌ها در دنیای واقعی باشند.

 

https://pvst.ir/fdd

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو