درخواست انحصار اوپنایآی و محدود کردن رقبایی همچون xAI ایلان ماسک
شرکت اوپنایآی که به تازگی جدیدترین دور جذب سرمایه خود را با ارزشگذاری ۱۵۰ میلیارد…
۱۲ مهر ۱۴۰۳
۲۹ اسفند ۱۴۰۲
زمان مطالعه : ۸ دقیقه
تاریخ بهروزرسانی: ۲۶ اسفند ۱۴۰۲
سال 2023 از سالهای پرمشغله برای هوش مصنوعی به شمار میرود. عرضه محصولات بیپایان، بحثهای سیاسی شدید در مورد نابودی هوش مصنوعی و رقابت میان شرکتها برای یافتن ابزارهای دیگر در این زمینه از مهمترین مباحث مطرح شده درباره هوش مصنوعی در سال ۲۰۲۳ بود. قوانین و برنامههای ذکر شده در این باره نشان از افزایش رفتارهای مسئولانه در بخش هوش مصنوعی و پاسخگویی بازیکنان قدرتمند در این بازار دارد. این موارد موجب امید به آینده هوش مصنوعی و نگاهی خوشبینانه به پیشرفتهای این فناوری میشود.
به گزارش پیوست، در سالی که گذشت با وجود انتشار اخبار و اطلاعات فراوان با محوریت هوش مصنوعی همچنان افراد نسبت به کارکرد و ساختار این فناوری از اطلاعات و سواد کافی برخوردار نیستند. نبود قوانین و مقررات در این باره استفاده سوء از آن را گسترش داده و نگرانیهای جدیای را متوجه جامعه جهانی کرده بود. اثرات مخرب زیست محیطی و به خطر افتادن موقعیت مشاغل از دیگر موارد مهم و پربحث درباره هوش مصنوعی در سال ۲۰۲۳ بود. اما اکنون باید دید که قوانین مصوب و پیشرفتهای این فناوری جریان سال جاری را به کدام سمت خواهد برد و جهت استفاده از آن مثبت خواهد بود یا اینکه طرف خطرات و ضررهای آن بیشتر است.
سال ۲۰۲۳ با فناوری بزرگی در حوزه هوش مصنوعی مولد آغاز شد. موفقیت چشمگیر ChatGPT OpenAI، سایر شرکتهای بزرگ فناوری را بر آن داشت تا نسخههای جدیدی از تکنولوژی تولیدی خود در این ابزار را منتشر کنند. ۲۰۲۳ ممکن است بهعنوان سالی که بیشترین عرضههای هوش مصنوعی را شاهد بودیم، در تاریخ ثبت شود. LLaMA 2 متا، ربات چت بارد (Bard) و جمینی (Gemini) گوگل، ربات ارنی بایدو (Baidu’s Ernie)، GPT-4 OpenAI و چند مدل دیگر، از جمله یکی از مدلهای منبع باز فرانسوی AI Challenger میسترال (Mistral) نمونههای تولید و توسعه داده شده هستند.
اما با وجود هیاهوی اولیه، هیچ شرکت تولیدکننده اپلیکیشن هوش مصنوعی در عرض یک شب از لحاظ تعداد کاربر و استفاده از آن به موفقیت نمیرسد. مایکروسافت و گوگل جستوجوی قدرتمند مبتنی بر AI را ارائه کردند، اما مشخص شد که این از اپلیکیشن استفاده نمیشد. ایرادات اساسی در مدلهای زبانی، مانند گافهای بسیار و خندهدار در آن مشهود بود. بینگ (Bing) مایکروسافت اغلب با تئوریهای توطئه به سوالات کاربران پاسخ میداد و به خبرنگار نیویورک تایمز پیشنهاد میکرد تا همسرش را ترک کند. بارد (Bard) گوگل برای کمپین بازاریابی خود پاسخهای نادرستی ارائه داد که موجب کاهش ۱۰۰ میلیارد دلار از قیمت سهام شرکت شد.
اکنون یک جستوجوی دیوانهوار برای یک محصول محبوب هوش مصنوعی وجود دارد که همه مایل به استفاده از آن هستند. هم OpenAI و هم گوگل در حال آزمایش هستند که به شرکتها و توسعهدهندگان امکان میدهد چتباتهای هوش مصنوعی سفارشی ایجاد کنند. این محصول به مردم امکان میدهد اپلیکیشنهای خود را بدون نیاز به مهارت کدنویسی با استفاده از هوش مصنوعی بسازند. شاید هوش مصنوعی مولد در نهایت در ابزارهای خستهکننده اما مفیدی گنجانده شود تا به ما در افزایش بهرهوری در محل کار کمک کند. این ابزارها ممکن است به شکل دستیارهای هوش مصنوعی و پشتیبانی از کدنویسی و شاید همراه با قابلیتهای صوتی باشد. سال آینده در تعیین ارزش واقعی هوش مصنوعی مولد بسیار مهم خواهد بود.
با وجود این که شرکتهای فناوری با سرعتی زیاد در حال عرضه مدلهای زبانی بزرگ در محصولات خود هستند، هنوز چیزهای زیادی درباره نحوه عملکرد آنها هست که نمیدانیم. آنها در مواردی ابزار غیرقابل استفادهای ساختند و با وجود ادعای نداشتن سوگیری و تعصبات جنسیتی و قومی اما نمونههایی از این رفتارها در عملکرد ابزار هوش مصنوعی دیده شده است. همچنین در سال ۲۰۲۳ متوجه شدیم که مدلهای زبانی مختلف، متنهایی با سوگیریهای سیاسی متفاوت تولید میکنند و ابزارهای خوبی برای هک کردن اطلاعات خصوصی افراد هستند. میتوان از مدلهای تبدیل متن به تصویر خواست که از تصاویر افراد واقعی دارای حق کپی رایت استفاده کنند. بهعلاوه بهراحتی میتوان آنها را فریب داد و تصاویر آزاردهنده ایجاد کرد. مشاهده تحقیقات زیادی که در مورد معایب این مدلها انجام شده نتایج جالب توجهی را نشان میدهد. چون چنین فعالیتهایی میتواند ما را یک قدم به درک روشها و معایب کار آنها نزدیکتر و در نهایت به برطرف کردن این معایب کمک کند.
مدلهای مولد میتوانند بسیار غیرقابل پیشبینی باشند. در واقع در سال ۲۰۲۳ تلاشهای زیادی صورت گرفت تا مدلها طوری رفتار کنند که سازندگانشان میخواهند. برای نمونه در ساختار OpenAI تکنیک یادگیری تقویتی از بازخورد انسانی در دستور کار قرار گرفته است. به عبارت دیگر این ابزار از بازخورد کاربران برای کمک به هدایت ChatGPT به منظور ارائه پاسخهای مطلوبتر استفاده میکند. مطالعهای از آزمایشگاه هوش مصنوعی Anthropic نشان داد که چگونه دستورالعملهای ساده به زبان طبیعی میتواند مدلهای زبانی بزرگ را هدایت کند تا نتایج آنها کمتر سمی شود. اما متاسفانه، بسیاری از این تلاشها به جای فعالیت مستمر به تلاشهایی برای رفع فوری مشکلات ختم میشوند.
پس از آن رویکردهای نادرستی مانند ممنوع کردن کلمات بهظاهر بیضرر از سیستمهای هوش مصنوعی تولیدکننده تصویر برای جلوگیری از ایجاد سوءتفاهم وجود دارد. شرکتهای فناوری فقط قادر به ارائه راهحلهایی کلی هستند، چون نمیدانند چرا مدلها چنین محتواهایی را تولید میکنند.
محققان استارتآپ Hugging Face و دانشگاه کارنگی ملون دریافتند که تولید یک تصویر با استفاده از یک مدل قدرتمند هوش مصنوعی به اندازه شارژ کامل تلفن هوشمند انرژی میگیرد. تاکنون، میزان دقیق استفاده انرژی توسط هوش مصنوعی مولد، قطعه گمشده این پازل بوده است. تحقیقات بیشتر در این زمینه میتواند به ما کمک کند تا روش استفاده از هوش مصنوعی را برای پایدارتر شدن تغییر دهیم.
در سال ۲۰۲۳ احتمال خطر وجودی هوش مصنوعی برای انسانها مطرح شد. صدها دانشمند، رهبر کسبوکار و سیاستگذار در این مورد صحبت کردند. از پیشگامان یادگیری عمیق یعنی جفری هینتون و یوشوا بنجیو گرفته تا مدیران اجرایی شرکتهای برتر هوش مصنوعی، مانند سم آلتمن و دمیس هاسابیس و تد لیو نماینده کنگره کالیفرنیا و رئیسجمهور سابق استونی و کرستی کالجولید.
ریسک وجودی به یکی از بزرگترین الگوهای رفتاری در هوش مصنوعی تبدیل شده است. فرضیه این است که روزی ما یک هوش مصنوعی خواهیم ساخت که بسیار باهوشتر از انسانها خواهد بود و این میتواند منجر به عواقب جبران ناپذیری شود. این یک ایدئولوژی است که توسط بسیاری در سیلیکون ولی، از جمله ایلیا ساتسکیور از آن دفاع میکند. ساتسکیور دانشمند ارشد OpenAI است که نقشی اساسی در برکناری مدیر عامل OpenAI سم آلتمن و سپس بازگرداندن او چند روز بعد ایفا کرد.
اما همه با این ایده موافق نیستند. رهبران هوش مصنوعی متا، یان لی کان و جولی پینیو گفتهاند که این ترسها مضحک است و گفتوگو در مورد خطرات هوش مصنوعی از حد تعادل خارج شده است. بسیاری دیگر از بازیگران قدرتمند در هوش مصنوعی، مانند جوی بولاموینی محقق میگویند که تمرکز بر خطرات فرضی، آسیبهای واقعی که امروزه هوش مصنوعی ایجاد میکند را از ذهن افراد منحرف خواهد کرد.
با وجود این، توجه فزاینده به قابلیت این فناوری برای ایجاد آسیب شدید باعث شده است تا گفتوگوهای مهم بسیاری در مورد خطمشی هوش مصنوعی و قانونگذاران آن در سراسر جهان صورت بگیرد.
به لطف ChatGPT، در سال ۲۰۲۳ همه از مجلس سنای ایالات متحده گرفته تا کشورهای G7 در مورد خطمشیها و مقررات هوش مصنوعی صحبت کردند. در اوایل دسامبر این سال، قانونگذاران اروپایی یک سال سیاسی پرمشغله را به پایان رساندند. آنها درباره قوانین هوش مصنوعی به توافق رسیدند تا استانداردهای الزامآوری را در مورد چگونگی توسعه مسئولانهتر هوش مصنوعی معرفی کنند.
در همین حال، کاخ سفید یک فرمان اجرایی در مورد هوش مصنوعی بهعنوان اضافه بر تعهدات داوطلبانه شرکتهای پیشرو هوش مصنوعی ارائه کرد. این فرمان با هدف ایجاد شفافیت و استانداردهای بیشتر برای هوش مصنوعی بود و آزادی زیادی به آژانسها داد تا قوانین هوش مصنوعی را متناسب با بخشهای خود تطبیق دهند.
یکی از خطمشیهای پیشنهادی که توجه زیادی را به خود جلب کرد، واترمارکها بود. علامتهای غیرقابل مشاهده در متن و تصاویر که میتوانند توسط رایانهها شناسایی شوند تا محتوای تولید شده توسط هوش مصنوعی را علامتگذاری کنند. این موارد میتواند برای ردیابی سرقت ادبی یا کمک به مبارزه با اطلاعات نادرست مورد استفاده قرار بگیرد.
البته در این زمینه فقط قانونگذاران تاثیر نداشتند، بلکه وکلا نیز درگیر بودند. شکایتهای هنرمندان پیرامون تاثیرات هوش مصنوعی بر فعالیت و آثار آنها مووضع خطیر و پرتکراری بود. هنرمندان و نویسندگان استدلال میکردند که شرکتهای هوش مصنوعی بدون رضایت آنها و بدون پرداخت جریمه، حقوق مالکیت معنوی آنها را از بین بردهاند. پس از این جریانها محققان دانشگاه شیکاگو برای رفع این مشکل Nightshade را توسعه دادند. نایتشید ابزار جدیدی برای ایجاد اختلال در دادهها است. این ابزار به هنرمندان این امکان را میدهد تا با به هم ریختن دادههای آموزشی مورد استفاده توسط مدلهای هوش مصنوعی به این تصاویر آسیب جدی وارد کنند. بنابراین میتوان تا حدودی در این زمینه با هوش مصنوعی مولد مقابله کرد. در نهایت با شکلگیری این مقاومتها انتظار میرود تلاشهای بیشتری برای تغییر تعادل قدرت فناوری در سال آینده انجام شود.
منبع: technologyreview