skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

لابی اوپن‌ای‌آی در اروپا موفقیت آمیز بوده است

۳۰ خرداد ۱۴۰۲

زمان مطالعه : ۷ دقیقه

لابی اوپن‌ای‌آی در اروپا

سم‌ آلتمن، مدیرعامل  اوپن‌ای‌آی، یک ماهی است تور پایتخت‌گردی خود را با هدف کمک به قانون‌گذاری آغاز کرده و چندین مرتبه بر لزوم قانون‌گذاری هوش مصنوعی تاکید کرده است. با اینکه او نسبت به قوانین اظهار خرسندی می‌کند اما شواهد از لابی پشت پرده این شرکت برای تقلیل مقررات هوش مصنوعی در اتحادیه اورپا حکایت دارد.

به گزارش پیوست، نام اوپن‌ای‌آی سال گذشته و با عرضه چت‌بات هوشمند ChatGPT بر سر زبان‌ها افتاد. این شرکت که از حمایت تمام قد مایکروسافت برخوردار است، حال به یکی از پایه‌های اصلی صنعت هوش مصنوعی تبدیل شده است.

مجله تایم به مدارکی دست یافته که نشان می‌دهد اوپن‌ای‌آی با وجود تاکید علنی بر لزوم قانون‌گذاری، برای تقلیل دادن مقررات هوش مصنوعی اتحادیه اروپا لابی می‌کند. تایم اطلاعات مربوط به ارتباط اوپن‌ای‌آی با مقامات اتحادیه اروپا را با درخواست آزادی اطلاعات از کمیسیون اروپا به دست آورده است.

اوپن‌ای‌آی در چندین مورد اصلاحاتی را پیشنهاد کرده است که در متن نهایی قانون اتحادیه اروپا-که روز ۱۴ ژوئن به تایید پارلمان اروپا رسید و در انتظار مذاکرات نهایی است-دیده می‌شوند.

این شرکت در سال ۲۰۲۲ چنددین مرتبه به مقامات اروپا گفته است که قانون هوش مصنوعی نباید سیستم‌های هوش مصنوعی همه‌کاره- از جمله GPT-3 و مولد تصویر Dall-E 2- را «پرخطر» قلمداد کند. رده‌بندی پرخطر این سیستم‌ها را در معرض پیش نیاز‌های سفت و سخت قانونی از جمله شفافیت، قابلیت ردیابی و نظارت انسانی قرار می‌دهد.

این اقدام اوپن‌ای‌آی را در کنار مایکروسافت،‌ یکی از سهام‌داران بزرگ این شرکت با ۱۳ میلیارد دلار سرمایه‌گذاری، و گوگل قرار می‌دهد که هرکدام پیش از این برای تقلیل مسئولیت قانونی در اتحادیه اروپا لابی کرده‌اند. هردو شرکت معتقدند که بار مسئولیت پیروی از سخت‌ترین پیش‌نیاز‌ها باید بر دوش شرکت‌هایی باشد که هوش مصنوعی را در موارد پرخطر استفاده می‌کنند و نه شرکت‌هایی که سیستم‌های هوش مصنوعی همه‌کاره را می‌سازند.

اوپن‌ای‌آی در مستندی ۷ صفحه‌ای که برای مقامات کمیسیون و شورای اتحادیه اروپا در سپتامبر ۲۰۲۲ ارسال شده است می‌گوید: «GPT-3 به خودی خود یک سیستم پرخطر نیست.» در ادامه این مستند که با عنوان سپیدنامه اوپن‌ای‌آی درمورد قانون هوش مصنوعی اتحادیه اروپا، منتشر شده آمده است: «اما توانایی‌هایی را در خود جای داده که پتانسیل استفاده پرخطر را دارند.»

پیش از گزارش تایم، خبری از تلاش‌های اوپن‌ای‌آی برای لابی در اروپا منتشر نشده بود و سم آلتمن به تازگی سروصدای زیادی را درمورد قانون‌گذاری به پا کرده است. او در ماه مه به خبرنگارانی در لندن گفت اگر اوپن‌ای‌آی توان پیروی از مقررات را نداشته باشد ممکن است به فعالیت‌های خود در اروپا «پایان دهد.» او در ادامه گفت نقد‌های بسیاری به مقررات پیشنهادی دارد. البته آلتمن بعدا از هشدار خود عقب نشینی کرد و گفت هیچ برنامه‌ای برای خروج ندارد و می‌خواهد با اتحادیه اروپا همکاری کند.

موفقیت تلاش‌های اوپن‌ای‌آی برای لابی‌گری در اروپا باعث شده است تا: نسخه نهایی قانون که به تایید قانون‌گذاران اتحادیه اروپا رسید، دیگر جمله‌بندی پیشین مبنی بر پرخطر بودن سیستم‌های هوش مصنوعی همه‌کاره را شامل نشود. در عوض این قانون از ارائه دهندگان «مدل‌های بنیادی» یا سیستم‌های هوش مصنوعی قدرتمندی که براساس مقادیر زیادی داده آموزش‌ دیده‌اند، می‌خواهد تا چند پیش‌نیاز از جمله جلوگیری از تولید محتوای قانونی، شفافیت درمورد آموزش با محتوای دارای حق نشر و خطر آزمایی را رعایت کنند. سخنگوی اوپن‌ای‌آی می‌گوید این شرکت از معرفی «مدل‌های بنیادی» به عنوان یک دسته جداگانه در این قانون حمایت می‌کند.

با این حال در سپتامبر ۲۰۲۲، هنوز چنین تغییری در متن پیشنهادی قانونی ایجاد نشده بود. در یکی از بخش‌های سپیدنامه اوپن‌ای‌آی که در آن زمان برای مقامات اتحادیه اروپا ارسال شد، این شرکت به متممی در این قانون که سیستم‌های هوش مصنوعی همه‌کاره از جمله ChatGPT و Dall-E را در صورت تولید متن یا تصویری که «به اشتباه از نظر افراد واقعی و ساخته انسان به نظر آید» در دسته «پرخطر» قرار می‌دهد اعتراض کرده است.

اوپن‌ای‌آی در این سپیدنامه می‌گوید که چنین متممی باعث می‌شود تا مدل‌های آنها «سهوا» پرخطر تشخیص داده شوند. این شرکت در ادامه پیشنهاد حذف می‌دهد تا این بخش از پیش‌نویس نهایی حذف شود. به گفته اوپن‌ای‌آی اتکا به بخش دیگری از این قانون که شرکت‌های هوش مصنوعی را به نشانه‌گذاری محتوای هوش مصنوعی می‌کند برای آگاه‌سازی کاربران کافی است.

متممی که شرکت اوپن‌ای‌آی از آن گله کرده بود در متن نهایی قانونی که به تایید پارلمان رسید دیده نمی‌شود. سارا چندر، یکی از مشاوران ارشد موسسه حقوق دیجیتال اروپاییان و از جمله متخصصان این قانون، که به درخواست مجله تایم سپیدنامه اوپن‌ای‌آی را بررسی کرده می‌گوید: «آنها چیزی که درخواست کرده بودند را بدست آوردند.» به گفته او این مستند: «نشان می‌دهد که اوپن‌ای‌آی هم همانند بسیاری از شرکت‌های بزرگ تکنولوژی از استدلال کاربرد و منفعت عمومی هوش مصنوعی برای پوشاندن منافع مالی خود در تقلیل مقررات استفاده کرده است.»

سخنگوی اوپن‌ای‌آی نیز در بیانیه‌ای به مجله تایم گفت: «با درخواست سیاست‌گذاران اتحادیه اروپا، ما در سپتامبر سال ۲۰۲۲ یک ارزیابی از رویکردمان نسبت به استفاده امن از سیستم‌هایی مثل GPT-3 ارائه و درمورد پیش‌نویس [قانون هوش مصنوعی] بر اساس تجربه اظهار نظر کردیم. از آن زمان [قانون هوش مصنوعی] تکامل یافته و ما علنا درمورد افزایش استفاده و توانایی‌های تکنولوژی صحبت کرده‌ایم. ما همچنان به ارتباط با سیاست‌گذاران ادامه می‌ٔهیم و از هدف اتحادیه اروپا برای تضمین ساخت، بکارگیری واستفاده امن ابزارهای هوش مصنوعی در حال حاضر و آینده حمایت می‌کنیم.»

مجله تایم می‌گوید سه ماه پیش از ارسال این سپیدنامه،‌ کارکنان اوپن‌ای‌آی برای اولین بار با مقامات کمیسیون اروپا دیدار کرده‌اند. در این جلسه نمایندگان اوپن‌ای‌آی به قرار گرفتن سیستم‌های هوش مصنوعی همه‌کاره در لیست پرخطر اعتراض کرده و می‌گویند تمام تلاش خود را برای جلوگیری از خطرات احتمالی به کار گرفته‌اند. با این حال کارکنان این شرکت مشخص نمی‌کنند که آیا تلاش آنها به نتیجه مطلوب منتهی شده است یا خیر. به نظر سپیدنامه‌ای که سه ماه بعد برای مقامات ارسال می‌شود توضیحی بر همین اقدامات است.

اوپن‌ای‌آی در این سپیدنامه به تفصیل مکانیزم‌ها و سیاست‌های امنیتی خود برای منع سو استفاده از سیستم‌های هوش مصنوعی را برای مقامات توضیح داده و می‌گوید چنین تمهیداتی برای قرار نگرفتن سیستم‌های هوش مصنوعی همه‌کاره در دسته پرخطر کافی است.

به گفته یکی از متخصصان اما توضیحات اوپن‌ای‌آی در این باره کافی نیست. دنیل لوفر، تحلیلگر ارشد سیاست‌گذاری در دفتر بروکسل سازمان خیریه Access Now، می‌گوید: «آنها در واقع می‌گویند: به خودتنظیمی ما اعتماد کنید. خیلی عجیب است زیرا آنها به سیاست‌گذاران می‌گویند ما را قانون‌گذاری کنید و درمورد مسائل ایمنی حرف می‌زنند اما وقتی گفته می‌شود بیایید گفته خودتان را یک مبنای قانون‌ بگذاریم، پاسخ منفی می‌دهند.»

در بخشی از این سپیدنامه اوپن‌ای‌آی خواستار اصلاحاتی در قانون پیشنهادی شده تا ارائه دهندگان هوش مصنوعی بتوانند بنا بر دلایل امنیتی خیلی سریع و بدون ارزیابی بلند‌مدت مقامات اتحادیه اروپا سیستم‌های خود را بروزرسانی کنند.

ارتباط اوپن‌ای‌آی پس از ارسال سپیدنامه هم ادامه دارد. این شرکت در جلسه دیگری در ۳۱ مارس امسال نیز با مقامات اروپایی دیدار می‌کند. در این جلسه که به تمهیدات امنیتی شرکت برای کنترل خطرات هوش مصنوعی اختصاص دارد کارکنان اوپن‌ای‌آی توضیح می‌دهند که «یادگیری در عمل اهمیت بالایی دارد.»

براساس مستندات این جلسه، اوپن‌ای آی به مقامات می‌گوید «دستورالعمل‌های هوش مصنوعی را می‌توان به گونه‌ای تغییر داد که مثلا اطلاعاتی درمورد نحوه ساخت مواد خطرناک را ارائه نکند.» با این حال چنین چیزی در عمل اثبات نشده است. محققان دریافتند که با راهکار و دستورالعمل‌های کافی می‌توان محدودیت‌های امنیتی ChatGPT را دور زد و از آن برای نوشتن چیزهایی مثل ایمیل فیشین یا دستورالعمل ساخت مواد خطرناک استفاده کرد.

https://pvst.ir/f67

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو