متا مجوز استفاده از هوش مصنوعی برای اهداف نظامی آمریکا را صادر کرد
متا روز دوشنبه اعلام کرد که آژانسهای دولتی آمریکا و پیمانکاران حوزه امنیت ملی میتوانند…
۱۵ آبان ۱۴۰۳
۳۰ خرداد ۱۴۰۲
زمان مطالعه : ۷ دقیقه
سم آلتمن، مدیرعامل اوپنایآی، یک ماهی است تور پایتختگردی خود را با هدف کمک به قانونگذاری آغاز کرده و چندین مرتبه بر لزوم قانونگذاری هوش مصنوعی تاکید کرده است. با اینکه او نسبت به قوانین اظهار خرسندی میکند اما شواهد از لابی پشت پرده این شرکت برای تقلیل مقررات هوش مصنوعی در اتحادیه اورپا حکایت دارد.
به گزارش پیوست، نام اوپنایآی سال گذشته و با عرضه چتبات هوشمند ChatGPT بر سر زبانها افتاد. این شرکت که از حمایت تمام قد مایکروسافت برخوردار است، حال به یکی از پایههای اصلی صنعت هوش مصنوعی تبدیل شده است.
مجله تایم به مدارکی دست یافته که نشان میدهد اوپنایآی با وجود تاکید علنی بر لزوم قانونگذاری، برای تقلیل دادن مقررات هوش مصنوعی اتحادیه اروپا لابی میکند. تایم اطلاعات مربوط به ارتباط اوپنایآی با مقامات اتحادیه اروپا را با درخواست آزادی اطلاعات از کمیسیون اروپا به دست آورده است.
اوپنایآی در چندین مورد اصلاحاتی را پیشنهاد کرده است که در متن نهایی قانون اتحادیه اروپا-که روز ۱۴ ژوئن به تایید پارلمان اروپا رسید و در انتظار مذاکرات نهایی است-دیده میشوند.
این شرکت در سال ۲۰۲۲ چنددین مرتبه به مقامات اروپا گفته است که قانون هوش مصنوعی نباید سیستمهای هوش مصنوعی همهکاره- از جمله GPT-3 و مولد تصویر Dall-E 2- را «پرخطر» قلمداد کند. ردهبندی پرخطر این سیستمها را در معرض پیش نیازهای سفت و سخت قانونی از جمله شفافیت، قابلیت ردیابی و نظارت انسانی قرار میدهد.
این اقدام اوپنایآی را در کنار مایکروسافت، یکی از سهامداران بزرگ این شرکت با ۱۳ میلیارد دلار سرمایهگذاری، و گوگل قرار میدهد که هرکدام پیش از این برای تقلیل مسئولیت قانونی در اتحادیه اروپا لابی کردهاند. هردو شرکت معتقدند که بار مسئولیت پیروی از سختترین پیشنیازها باید بر دوش شرکتهایی باشد که هوش مصنوعی را در موارد پرخطر استفاده میکنند و نه شرکتهایی که سیستمهای هوش مصنوعی همهکاره را میسازند.
اوپنایآی در مستندی ۷ صفحهای که برای مقامات کمیسیون و شورای اتحادیه اروپا در سپتامبر ۲۰۲۲ ارسال شده است میگوید: «GPT-3 به خودی خود یک سیستم پرخطر نیست.» در ادامه این مستند که با عنوان سپیدنامه اوپنایآی درمورد قانون هوش مصنوعی اتحادیه اروپا، منتشر شده آمده است: «اما تواناییهایی را در خود جای داده که پتانسیل استفاده پرخطر را دارند.»
پیش از گزارش تایم، خبری از تلاشهای اوپنایآی برای لابی در اروپا منتشر نشده بود و سم آلتمن به تازگی سروصدای زیادی را درمورد قانونگذاری به پا کرده است. او در ماه مه به خبرنگارانی در لندن گفت اگر اوپنایآی توان پیروی از مقررات را نداشته باشد ممکن است به فعالیتهای خود در اروپا «پایان دهد.» او در ادامه گفت نقدهای بسیاری به مقررات پیشنهادی دارد. البته آلتمن بعدا از هشدار خود عقب نشینی کرد و گفت هیچ برنامهای برای خروج ندارد و میخواهد با اتحادیه اروپا همکاری کند.
موفقیت تلاشهای اوپنایآی برای لابیگری در اروپا باعث شده است تا: نسخه نهایی قانون که به تایید قانونگذاران اتحادیه اروپا رسید، دیگر جملهبندی پیشین مبنی بر پرخطر بودن سیستمهای هوش مصنوعی همهکاره را شامل نشود. در عوض این قانون از ارائه دهندگان «مدلهای بنیادی» یا سیستمهای هوش مصنوعی قدرتمندی که براساس مقادیر زیادی داده آموزش دیدهاند، میخواهد تا چند پیشنیاز از جمله جلوگیری از تولید محتوای قانونی، شفافیت درمورد آموزش با محتوای دارای حق نشر و خطر آزمایی را رعایت کنند. سخنگوی اوپنایآی میگوید این شرکت از معرفی «مدلهای بنیادی» به عنوان یک دسته جداگانه در این قانون حمایت میکند.
با این حال در سپتامبر ۲۰۲۲، هنوز چنین تغییری در متن پیشنهادی قانونی ایجاد نشده بود. در یکی از بخشهای سپیدنامه اوپنایآی که در آن زمان برای مقامات اتحادیه اروپا ارسال شد، این شرکت به متممی در این قانون که سیستمهای هوش مصنوعی همهکاره از جمله ChatGPT و Dall-E را در صورت تولید متن یا تصویری که «به اشتباه از نظر افراد واقعی و ساخته انسان به نظر آید» در دسته «پرخطر» قرار میدهد اعتراض کرده است.
اوپنایآی در این سپیدنامه میگوید که چنین متممی باعث میشود تا مدلهای آنها «سهوا» پرخطر تشخیص داده شوند. این شرکت در ادامه پیشنهاد حذف میدهد تا این بخش از پیشنویس نهایی حذف شود. به گفته اوپنایآی اتکا به بخش دیگری از این قانون که شرکتهای هوش مصنوعی را به نشانهگذاری محتوای هوش مصنوعی میکند برای آگاهسازی کاربران کافی است.
متممی که شرکت اوپنایآی از آن گله کرده بود در متن نهایی قانونی که به تایید پارلمان رسید دیده نمیشود. سارا چندر، یکی از مشاوران ارشد موسسه حقوق دیجیتال اروپاییان و از جمله متخصصان این قانون، که به درخواست مجله تایم سپیدنامه اوپنایآی را بررسی کرده میگوید: «آنها چیزی که درخواست کرده بودند را بدست آوردند.» به گفته او این مستند: «نشان میدهد که اوپنایآی هم همانند بسیاری از شرکتهای بزرگ تکنولوژی از استدلال کاربرد و منفعت عمومی هوش مصنوعی برای پوشاندن منافع مالی خود در تقلیل مقررات استفاده کرده است.»
سخنگوی اوپنایآی نیز در بیانیهای به مجله تایم گفت: «با درخواست سیاستگذاران اتحادیه اروپا، ما در سپتامبر سال ۲۰۲۲ یک ارزیابی از رویکردمان نسبت به استفاده امن از سیستمهایی مثل GPT-3 ارائه و درمورد پیشنویس [قانون هوش مصنوعی] بر اساس تجربه اظهار نظر کردیم. از آن زمان [قانون هوش مصنوعی] تکامل یافته و ما علنا درمورد افزایش استفاده و تواناییهای تکنولوژی صحبت کردهایم. ما همچنان به ارتباط با سیاستگذاران ادامه میٔهیم و از هدف اتحادیه اروپا برای تضمین ساخت، بکارگیری واستفاده امن ابزارهای هوش مصنوعی در حال حاضر و آینده حمایت میکنیم.»
مجله تایم میگوید سه ماه پیش از ارسال این سپیدنامه، کارکنان اوپنایآی برای اولین بار با مقامات کمیسیون اروپا دیدار کردهاند. در این جلسه نمایندگان اوپنایآی به قرار گرفتن سیستمهای هوش مصنوعی همهکاره در لیست پرخطر اعتراض کرده و میگویند تمام تلاش خود را برای جلوگیری از خطرات احتمالی به کار گرفتهاند. با این حال کارکنان این شرکت مشخص نمیکنند که آیا تلاش آنها به نتیجه مطلوب منتهی شده است یا خیر. به نظر سپیدنامهای که سه ماه بعد برای مقامات ارسال میشود توضیحی بر همین اقدامات است.
اوپنایآی در این سپیدنامه به تفصیل مکانیزمها و سیاستهای امنیتی خود برای منع سو استفاده از سیستمهای هوش مصنوعی را برای مقامات توضیح داده و میگوید چنین تمهیداتی برای قرار نگرفتن سیستمهای هوش مصنوعی همهکاره در دسته پرخطر کافی است.
به گفته یکی از متخصصان اما توضیحات اوپنایآی در این باره کافی نیست. دنیل لوفر، تحلیلگر ارشد سیاستگذاری در دفتر بروکسل سازمان خیریه Access Now، میگوید: «آنها در واقع میگویند: به خودتنظیمی ما اعتماد کنید. خیلی عجیب است زیرا آنها به سیاستگذاران میگویند ما را قانونگذاری کنید و درمورد مسائل ایمنی حرف میزنند اما وقتی گفته میشود بیایید گفته خودتان را یک مبنای قانون بگذاریم، پاسخ منفی میدهند.»
در بخشی از این سپیدنامه اوپنایآی خواستار اصلاحاتی در قانون پیشنهادی شده تا ارائه دهندگان هوش مصنوعی بتوانند بنا بر دلایل امنیتی خیلی سریع و بدون ارزیابی بلندمدت مقامات اتحادیه اروپا سیستمهای خود را بروزرسانی کنند.
ارتباط اوپنایآی پس از ارسال سپیدنامه هم ادامه دارد. این شرکت در جلسه دیگری در ۳۱ مارس امسال نیز با مقامات اروپایی دیدار میکند. در این جلسه که به تمهیدات امنیتی شرکت برای کنترل خطرات هوش مصنوعی اختصاص دارد کارکنان اوپنایآی توضیح میدهند که «یادگیری در عمل اهمیت بالایی دارد.»
براساس مستندات این جلسه، اوپنای آی به مقامات میگوید «دستورالعملهای هوش مصنوعی را میتوان به گونهای تغییر داد که مثلا اطلاعاتی درمورد نحوه ساخت مواد خطرناک را ارائه نکند.» با این حال چنین چیزی در عمل اثبات نشده است. محققان دریافتند که با راهکار و دستورالعملهای کافی میتوان محدودیتهای امنیتی ChatGPT را دور زد و از آن برای نوشتن چیزهایی مثل ایمیل فیشین یا دستورالعمل ساخت مواد خطرناک استفاده کرد.