معرفی سیزده هوش مصنوعی تولید و پردازش تصویر: خلق از حروف ساده
امروزه و با توسعه هوش مصنوعی ابزار پردازش تصویر بسیاری برای تبدیل متن به تصویر…
۳۰ آبان ۱۴۰۳
۱۸ دی ۱۴۰۲
زمان مطالعه : ۹ دقیقه
سالی که گذشت هوش مصنوعی از یک حوزه بکر قانونگذاری به تیتر اول اخبار تبدیل شد. این جهش را تا حدی مدیون ChatGPT و فراگیر شدن آن هستیم که باعث شد مردم هم با تواناییها و محدودیتهای هوش مصنوعی بیشتر آشنا شوند.
در بحث سیاستگذاری نیز سال مهمی را پشت سر گذاشتیم: اول از همه اتحادیه اروپا روی قانون مهم هوش مصنوعی به توافق رسید، جلسات سنای آمریکا و دستور اجرایی رئیس جمهور این کشور را شاهد بودیم و چین هم مقررات خاصی را برای چیزهایی مثل الگوریتمهای پیشنهاددهنده در نظر گرفت.
اگر سال ۲۰۲۳ را سال توافق قانونگذاران روی یک چشمانداز بدانیم، ۲۰۲۴ سالی است که سیاستها به اقدام تبدیل میشوند. در ادامه این مطلب انتظارات مجله MIT Technology Review از آینده قانونگذاری هوش مصنوعی در سال پیش رو را مطالعه میکنید.
هوش مصنوعی در سال ۲۰۲۳ به مباحث سیاسی ایالات متحده ورود کرد و چیزی فراتر از بحث مذاکره را نیز مشاهده کردیم. اقداماتی را هم در قالب دستور اجرایی بایدن در اواخر ماه اکتبر پس از درخواست روز افزون برای شفافیت بیشتر و استانداردهای جدید شاهد بودیم.
با این اقدام، رایحهای از سیاست هوش مصنوعی ایالات متحده را مشاهده کردیم: سیاستی دوستدار صنعت هوش مصنوعی با تاکید بر بهترین عملکردها، اتکا بر آژانسهای مختلف برای تنظیمگری و قانونگذاری متفاوت برای هر بخش از اقتصاد.
روندی که از ۲۰۲۳ آغاز شد در سال پیش رو قدرت میگیرد و بسیاری از جزئیات دستور اجرایی بایدن به قانون تبدیل میشوند. همچنین صحبتهای زیادی درمورد موسسه امنیت هوش مصنوعی آمریکا به گوش میرسد که احتمالا مسئول اجرای بیشتر این سیاستها است.
از نگاه کنگره اما هنوز مسیر مشخصی را شاهد نیستیم. چاک شومر، رهبر اکثریت سنا، میگوید قوانین جدیدی به دستور اجرایی اضافه میشوند. تا همین امروز هم چندین قانون پیشنهادی برای جوانب مختلف AI مثل شفافیت، دیپفیکها و مسئولیتپذیری پلتفرم ارائه شده است اما مشخص نیست کدام یکی از این پیشنهادات به تصویب میرسند و آیا اصلا قانونی در سال جدید تصویب خواهد شد.
آنچه میتوان انتظارش را داشت رویکردی است که انواع و کاربردهای مختلف هوش مصنوعی را براساس میزان خطر دستهبندی میکند. رویکردی شبیه به قانون هوش مصنوعی اتحادیه اروپا. کریس مسرول، رئیس Frontier Model Forum، از نهادهای لابی صنعتی میگوید موسسه ملی استاندادرها و فناوری چارچوبی را در این حوزه پیشنهاد کرده که هر بخش و آژانس باید آن را به اجرا بگذارد.
مساله روشن دیگری نیز وجود دارد: انتخابات سال ۲۰۲۴ ایالات متحده احتمالا رنگ و بوی مقررات هوش مصنوعی را مشخص میکند. با توجه به تاثیر هوش مصنوعی مولد بر پلتفرمهای شبکه اجتماعی و اطلاعات وارونه، میتوان بحثهایی را پیرامون نحوه جلوگیری از تاثیر و خطرات این تکنولوژی در مناظرههای انتخاباتی انتظار داشت.
اتحادیه اروپا به تازگی روی قانون هوش مصنوعی، اولین قانون کامل AI در جهان، به توافق رسید.
پس از بحث داغ و توافق رسمی کشورهای اروپایی و پارلمان اتحادیه اروپا در نیمه اول سال ۲۰۲۴، این قانون به زودی در دست اجرا قرار میگیرد. در خوشبینانهترین حالت، ممنوعیت یک سری کاربردهای هوش مصنوعی را باید تا پایان سال جاری انتظار داشت.
درنتیجه صنعت هوش مصنوعی در سال ۲۰۲۴ باید خود را برای مقررات جدید آماده کند. اگرچه بیشتر اپلیکیشنهای هوش مصنوعی از این قانون تاثیر نمیپذیرند اما شرکتهای ارائه دهنده مدلها و اپلیکیشنهای بنیادی به عنوان عاملی «پرخطر» برای حقوق اساسی قملداد میشوند و مواردی که در بخشهای آموزش، درمان و پلیس استفاده میشوند باید استانداردهای اتحادیه اروپا را رعایت کنند. در اروپا، پلیس نمیتواند در مکانهای عمومی، مگر با تایید دادگاه برای اهداف خاصی مثل تروریسم، جلوگیری از قاچاق انسان یا پیدا کردن فردی گم شده، از هوش مصنوعی استفاده کند.
کاربرداهی دیگر هوش مصنوعی مثل ایجاد پایگاههای داده تشخیص چهرهای شبیه به Clearview AI یا استفاده از تکنولوژی تشخیص احساس در محل کار یا مدارس به طور کامل در اروپا ممنوع میشوند. قانون هوش مصنوعی اتحادیه اروپا شرکتها را به شفافسازی درمورد نحوه توسعه مدلها ملزم میکند و آنهایی که از سیستمهای پرخطر هوش مصنوعی استفاده میکنند مسئولیت بیشتری در قبال آسیبهای ناشی از آن خواهند داشت.
شرکتهای توسعه دهنده مدلهای بنیادی، محصولاتی مثل GPT-4 که دیگر ابزارها براساس آنها ساخته میشوند، باید در بازه یک سال پس از اجرایی شدن این قانون از مقررات جدید پیروی کنند. دیگر شرکتهای تکنولوژی دو سال برای پیروی از قوانین زمان دارند.
شرکتهای هوش مصنوعی برای پیروی از قوانین باید توجه بیشتری به نحوه ساخت سیستمها داشته باشند و مستندات دقیقی برای بازبینی تهیه کنند. این قانون شرکتها را ملزم میکند تا شفافیت بیشتری درمرود نحوه آموزش مدلها ارائه کنند و اطمینان حاصل شود که سیستمهای پرخطر هوش مصنوعی برای به حداقل رساندن موضوعاتی مثل سوگیری، به اندازه کافی براساس دادههای فراگیر آموزش دیده و آزمایش شوند.
اتحادیه اروپا بر این باور است که بیشتر مدلهای قدرتمند هوش مصنوعی از جمله GPT-4 از اوپنایآی و Gemini از گوگل، ممکن است خطری «سیستماتیک» را برای شهروندان به دنبال داشته باشند و درنتیجه باید بیشتر برای پیروی از استانداردهای اتحادیه اروپا تلاش کنند. شرکتها باید برای ارزیابی و جلوگیری از خطرات تدابیری را در نظر گرفته و امنیت سیستمها را تضمین کنند. همچنین این شرکتها باید رخدادهای جدی را گزارش داده و جزئیاتی از مصرف انرژی خود را گزارش کنند. وظیفه ارزیابی سیستمها و تشخیص اینکه آیا مدل آنها در این دسته قرار میگیرد یا خیر بر عهده شرکتها است.
شرکتهای هوش مصنوعی متنباز از پیشنیازهای شفافیت این قانون مستثنی هستند مگر اینکه مدلهایی به قدرتمندی GPT-4 ارائه کنند. عدم پیروی از این مقررات جریمههای سنگین و یا ممنوعیت محصولات در اتحادیه اروپا را به دنبال دارد.
اتحادیه اروپا همچنین در حال آماده سازی طرح اولیه قانون دیگری به نام AI Liability Directive یا راهبرد مسئولیتپذیری هوش مصنوعی است که قرار است جبران خسارت افرادی را که درنتیجه هوش مصنوعی آسیب میبینند تضمین کند. مذاکرات در این رابطه همچنان در جریان است و در سال ۲۰۲۴ انتظار صحبتهای بیشتری در این باره را داریم.
برخی از دیگر کشورها نیز رویکرد آزادتری را در پیش گرفتهاند. برای مثال انگلستان، میزبان آزمایشگاه هوش مصنوعی گوگل دیپمایند، میگوید در کوتاهمدت قصد قانونگذاری هوش مصنوعی را ندارد. با انی حال، شرکتهای خارج از اتحادیه اروپا، دومین اقتصاد بزرگ جهان، نیز باید در صورت تمایل به فعالیت در این بلوک از قوانین قاره سبز پیروی کنند.
انو برادفورد، استاد حقوق دانشگاه کلمبیا، این مساله را «اثر بروکسل» مینامد که براساس آن اتحادیه اروپا با پیشقدم شدن در قانونگذاری به استاندارد اصلی جهان تبدیل میشود و به روند توسعه و فعالیت هر بخش شکل میدهد. اتحادیه اروپا با یک رژیم سفت و سخت محافظت از داده (GDPR) به این هدف دست یافت. حالا بخشهای مختلف جهان، از کالیفرنیا تا هند، از سیستمی مشابه پیروی میکنند و اروپا امیدوار است در هوش مصنوعی نیز به چنین هدفی دست پیدا کند.
تا به اینجای کار مقررات هوش مصنوعی چین پارهپاره و تدریجی هستند. این کشور به جای قانونگذاری کامل هوش مصنوعی، هرگاه محصولی در مرکز توجه قرار میگیرد یک قانون جداگانه برای آن معرفی میکند. به همین دلیل چین دسته مقرراتی برای خدمات پیشنهاد الگوریتمی، دسته دیگری برای دیپفیکها و دسته دیگری هم برای هوش مصنوعی مولد دارد.
نقطه قوت چنین رویکردی این است که پکن میتواند سریعا به خطرات نوپا در روند پیشرفت تکنولوژی، هم برای کاربران و هم دولت، واکنش نشان دهد. اما مشکل اینجاست که رویکرد بلندمدتی برای توسعه وجود ندارد.
شرایط احتمالا در سال جدید تغییر میکند. در ژوئن ۲۰۲۳، شورای دولتی جمهوری خلق چین، بالاترین نهاد دولتی، اعلام کرد که «یک قانون هوش مصنوعی» در حال طی کردن روند قانونگذاری است. این قانون هم شبیه به قانون هوش مصنوعی اروپا همه چیز را تحت پوشش خود میگیرد. با این حال با توجه به گستره عظیم این قانون نمیتوان گفت که دقیقا چه مدت دیگری باید در انتظار آن باشیم. شاید پیشنویس آن در سال ۲۰۲۴ ارائه شود و شاید هم زمان بیشتری نیاز باشد. با این حال عجیب نیست اگر در میان مدت رگولاتورهای اینترنت چین مقررات تازهای را برای اداره ابزارهای پرطرفدار یا محتوای جدید معرفی کنند.
تا به امروز اطلاعات کمی درمورد این قانون منتشر شده است اما یکی از مستنداتی که به ما در پیشبینی این قانون کمک میکند مربوط به پژوهشگران آکادمی علوم اجتماعی چین، یک موسسه تحقیقاتی دولتی است که نسخه «پیشنهاد تخصصی» خود از قانون هوش مصنوعی چین را در ماه آگوست سال گذشته منتشر کرد. در این مستند یک «اداره ملی هوش مصنوعی» برای نظارت بر توسعه هوش مصنوعی در چین پیشنهاد شده و خواستار «گزارش مسئولیت اجتماعی» مستقل درمورد مدلهای بنیادی به صروت سالانه است و یک «لیست منفی» از نواحی پرخطر هوش مصنوعی تهیه میکند که شرکتها بدون اجازه دولت حتی اجازه تحقیقات در این حوزه نخواهند داشت.
در حال حاضر نیز شرکتهای هوش مصنوعی چین با مقررات بسیاری روبرو هستند. هر مدل بنیادی باید پیش از عرضه در جامعه چین در دولت این کشور ثبت شود (تا پایان سال ۲۰۲۳، ۲۲ شرکت چینی مدلهای هوش مصنوعی خود را ثبت کردهاند.)
این یعنی هوش منصوعی در چین دیگر شبیه به غرب وحشی نیست. اما دقیقا مشخص نیست که این مقررات چگونه در عمل اجرا میشوند. شرکتهای هوش مصنوعی مولد باید در سال پیش رو راهکاری را برای پیروی از قانون، به ویژه از لحاظ بررسیهای ایمنی و نقض IP در نظر بگیرند.
در عین حال، از آنجایی که شرکتهای هوش مصنوعی خارجی هیچ تاییدیهای برای عرضه محصولات خود رد چین دریافت نکردهاند (و احتمالا در آینده نیز دریافت نمیکنند)، محیط تجاری داخل چین حامی شرکتهای داخلی است. شاید این مساله به برگ برندهای در مقابل شرکتهای غربی بدل شود اما در عین حال مخل رقابت است و کنترل دولت بر بیان آنلاین را بیشتر میکند.
انتظار میرود که در سال جدید مقررات بیشتری را در دیگر بخشهای جهان نیز مشاهده کنیم. یکی از مناطق مهم آفریقا است. ملودی ماسونی، مسئول سیاستهای مرکز اروپیایی مدیریت سیاست توسعهای، میگوید اتحادیه آفریقا احتمالا یک استراتژی هوش مصنوعی را اوایل سال ۲۰۲۴ برای این قاره منتشر میکند و قرار بر این است که سیاست کشورها نیز پیرو این استراتژی باشد و در عین پیشبرد رقابت، مصرفکنندگان آفریقایی را از غولهای تکنولوژی غربی محافظت کند.
بعضی کشورها از جمله رواندا، نیجریه و آفریقای جنوبی تا همین امروز هم پیش نویسی از استراتژیهای هوش مصنوعی ملی ارائه کردهاند و به دنبال ساخت برنامههای آموزشی، قدرت رایانش و سیاستهای دوستدار صنعت برای حمایت از شرکتها هستند. نهادهای بینالمللی مثل سازمان ملل، سازمان توسعه و همکاری اقتصادی (OECD)، G20 و اتحادیههای منطقهای نیز برای ساخت گروهها، هیاتهای مشاورهای، اصول، استاندادرها و بیانیههایی پیرامون هوش مصنوعی تلاش میکنند. گروههایی همچون OECD ممکن است برای حفظ یکپارچگی قانونی در مناطق مختلف و کاهش مسئولیت شرکتهای هوش مصنوعی مفید باشند.
از نگاه ژئوپلیتیک، تفاوتهای روز افزونی را بین رویکرد کشورهای مستبد و دموکراتیک نسبت به توسعه و استفاده ابزاری از هوش مصنوعی شاهد هستیم. باید دید شرکتهای هوش مصنوعی تا چه اندازه در سال ۲۰۲۴ توسعه جهانی را به نگاه ویژه به داخل اولویت میدهند. شاید تصمیمات سختی پیش روی شرکتها قرار گیرد.