skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

فناوری

نسرین ابوئی نویسنده میهمان

۴روندی که هوش مصنوعی را در سال ۲۰۲۳ متحول کرد

نسرین ابوئی
نویسنده میهمان

۲۹ اسفند ۱۴۰۲

زمان مطالعه : ۸ دقیقه

تاریخ به‌روزرسانی: ۲۶ اسفند ۱۴۰۲

سال 2023 از سال‌های پرمشغله برای هوش مصنوعی به شمار می‌رود. عرضه محصولات بی‌پایان، بحث‌های سیاسی شدید در مورد نابودی هوش مصنوعی و رقابت میان شرکت‌ها برای یافتن ابزارهای دیگر در این زمینه از مهم‌ترین مباحث مطرح شده درباره هوش مصنوعی در سال ۲۰۲۳ بود. قوانین و برنامه‌های ذکر شده در این باره نشان از افزایش رفتارهای مسئولانه در بخش هوش مصنوعی و پاسخگویی بازیکنان قدرتمند در این بازار دارد. این موارد موجب امید به آینده هوش مصنوعی و نگاهی خوشبینانه به پیشرفت‌های این فناوری می‌شود.

به گزارش پیوست، در سالی که گذشت با وجود انتشار اخبار و اطلاعات فراوان با محوریت هوش مصنوعی   همچنان افراد نسبت به کارکرد و ساختار این فناوری از اطلاعات و سواد کافی برخوردار نیستند. نبود قوانین و مقررات در این باره استفاده سوء از آن را گسترش داده و نگرانی‌های جدی‌ای را متوجه جامعه جهانی کرده بود. اثرات مخرب زیست‌ محیطی و به خطر افتادن موقعیت مشاغل از دیگر موارد مهم و پربحث درباره هوش مصنوعی در سال ۲۰۲۳ بود. اما اکنون باید دید که قوانین مصوب و پیشرفت‌های این فناوری جریان سال جاری را به کدام سمت خواهد برد و جهت استفاده از آن مثبت خواهد بود یا اینکه طرف خطرات و ضررهای آن بیشتر است.

هوش مصنوعی مولد به کدام سمت خواهد رفت؟

سال ۲۰۲۳ با فناوری بزرگی در حوزه هوش مصنوعی مولد آغاز شد. موفقیت چشمگیر ChatGPT OpenAI، سایر شرکت‌‌های بزرگ فناوری را بر آن داشت تا نسخه‌های جدیدی از تکنولوژی تولیدی خود در این ابزار را منتشر کنند. ۲۰۲۳ ممکن است به‌عنوان سالی که بیشترین عرضه‌های هوش مصنوعی را شاهد بودیم، در تاریخ ثبت شود. LLaMA 2 متا، ربات چت بارد (Bard) و جمینی (Gemini) گوگل، ربات ارنی بایدو (Baidu’s Ernie)، GPT-4 OpenAI و چند مدل‌ دیگر، از جمله یکی از مدل‌های منبع باز فرانسوی AI Challenger میسترال (Mistral) نمونه‌های تولید و توسعه داده شده هستند.

اما با وجود هیاهوی اولیه، هیچ شرکت تولیدکننده اپلیکیشن هوش مصنوعی در عرض یک شب از لحاظ تعداد کاربر و استفاده از آن به موفقیت نمی‌رسد. مایکروسافت و گوگل جست‌وجوی قدرتمند مبتنی بر AI را ارائه کردند، اما مشخص شد که این از اپلیکیشن استفاده نمی‌شد. ایرادات اساسی در مدل‌های زبانی، مانند گاف‌های بسیار و خنده‌دار در آن مشهود بود. بینگ (Bing) مایکروسافت اغلب با تئوری‌های توطئه به سوالات کاربران پاسخ می‌داد و به خبرنگار نیویورک تایمز پیشنهاد می‌کرد تا همسرش را ترک کند. بارد (Bard) گوگل برای کمپین بازاریابی خود پاسخ‌های نادرستی ارائه داد که موجب کاهش ۱۰۰ میلیارد دلار از قیمت سهام شرکت شد.

اکنون یک جست‌وجوی دیوانه‌وار برای یک محصول محبوب هوش مصنوعی وجود دارد که همه مایل به استفاده از آن هستند. هم OpenAI و هم گوگل در حال آزمایش هستند که به شرکت‌ها و توسعه‌دهندگان امکان می‌دهد چت‌بات‌های هوش مصنوعی سفارشی ایجاد کنند. این محصول به مردم امکان می‌دهد اپلیکیشن‌های خود را بدون نیاز به مهارت کدنویسی با استفاده از هوش مصنوعی بسازند. شاید هوش مصنوعی مولد در نهایت در ابزارهای خسته‌کننده اما مفیدی گنجانده شود تا به ما در افزایش بهره‌وری در محل کار کمک کند. این ابزارها ممکن است به شکل دستیارهای هوش مصنوعی و پشتیبانی از کدنویسی و شاید همراه با قابلیت‌های صوتی باشد. سال آینده در تعیین ارزش واقعی هوش مصنوعی مولد بسیار مهم خواهد بود.

اطلاعات لازم اما ناکافی، عملکرد هوش مصنوعی چگونه است؟

با وجود این که شرکت‌های فناوری با سرعتی زیاد در حال عرضه مدل‌های زبانی بزرگ در محصولات خود هستند، هنوز چیزهای زیادی درباره نحوه عملکرد آن‌ها هست که نمی‌دانیم. آن‌ها در مواردی ابزار غیرقابل استفاده‌ای ساختند و با وجود ادعای نداشتن سوگیری و تعصبات جنسیتی و قومی اما نمونه‌هایی از این رفتارها در عملکرد ابزار هوش مصنوعی دیده شده است. همچنین در سال ۲۰۲۳ متوجه شدیم که مدل‌های زبانی مختلف، متن‌هایی با سوگیری‌های سیاسی متفاوت تولید می‌کنند و ابزارهای خوبی برای هک کردن اطلاعات خصوصی افراد هستند. می‌توان از مدل‌های تبدیل متن به تصویر خواست که از تصاویر افراد واقعی دارای حق کپی رایت استفاده کنند. به‌علاوه به‌راحتی می‌توان آن‌ها را فریب داد و تصاویر آزاردهنده ایجاد کرد. مشاهده تحقیقات زیادی که در مورد معایب این مدل‌ها انجام شده نتایج جالب توجهی را نشان می‌دهد. چون چنین فعالیت‌هایی می‌تواند ما را یک قدم به درک روش‌ها و معایب کار آن‌ها نزدیک‌تر و در نهایت به برطرف کردن این معایب کمک کند.

مدل‌های مولد می‌توانند بسیار غیرقابل پیش‌بینی باشند. در واقع در سال ۲۰۲۳ تلاش‌های زیادی صورت گرفت تا مدل‌ها طوری رفتار کنند که سازندگانشان می‌خواهند. برای نمونه در ساختار OpenAI تکنیک یادگیری تقویتی از بازخورد انسانی در دستور کار قرار گرفته است. به عبارت دیگر این ابزار از بازخورد کاربران برای کمک به هدایت ChatGPT به منظور ارائه پاسخ‌های مطلوب‌تر استفاده می‌کند. مطالعه‌ای از آزمایشگاه هوش مصنوعی Anthropic نشان داد که چگونه دستورالعمل‌های ساده به زبان طبیعی می‌تواند مدل‌های زبانی بزرگ را هدایت کند تا نتایج آن‌ها کمتر سمی شود. اما متاسفانه، بسیاری از این تلاش‌ها به جای فعالیت مستمر به تلاش‌هایی برای رفع فوری مشکلات ختم می‌شوند.

پس از آن رویکردهای نادرستی مانند ممنوع کردن کلمات به‌ظاهر بی‌ضرر از سیستم‌های هوش مصنوعی تولیدکننده تصویر برای جلوگیری از ایجاد سوءتفاهم وجود دارد. شرکت‌های فناوری فقط قادر به ارائه راه‌حل‌هایی کلی هستند، چون نمی‌دانند چرا مدل‌ها چنین محتواهایی را تولید می‌کنند.

تاثیرات هوش مصنوعی بر محیط زیست

محققان استارت‌آپ Hugging Face و دانشگاه کارنگی ملون دریافتند که تولید یک تصویر با استفاده از یک مدل قدرتمند هوش مصنوعی به اندازه شارژ کامل تلفن هوشمند انرژی می‌گیرد. تاکنون، میزان دقیق استفاده انرژی توسط هوش مصنوعی مولد، قطعه گمشده این پازل بوده است. تحقیقات بیشتر در این زمینه می‌تواند به ما کمک کند تا روش استفاده از هوش مصنوعی را برای پایدارتر شدن تغییر دهیم.

نابودی هوش مصنوعی به جریان اصلی تبدیل شد

در سال ۲۰۲۳ احتمال خطر وجودی هوش مصنوعی برای انسان‌ها مطرح شد. صدها دانشمند، رهبر کسب‌وکار و سیاست‌گذار در این مورد صحبت کردند. از پیشگامان یادگیری عمیق یعنی جفری هینتون  و یوشوا بنجیو گرفته تا مدیران اجرایی شرکت‌های برتر هوش مصنوعی، مانند سم آلتمن  و دمیس هاسابیس  و تد لیو  نماینده کنگره کالیفرنیا و رئیس‌جمهور سابق استونی و کرستی کالجولید.

ریسک وجودی به یکی از بزرگترین الگوهای رفتاری در هوش مصنوعی تبدیل شده است. فرضیه این است که روزی ما یک هوش مصنوعی خواهیم ساخت که بسیار باهوش‌تر از انسان‌ها خواهد بود و این می‌تواند منجر به عواقب جبران ناپذیری شود. این یک ایدئولوژی است که توسط بسیاری در سیلیکون ولی، از جمله ایلیا ساتسکیور از آن دفاع می‌کند. ساتسکیور دانشمند ارشد OpenAI است که نقشی اساسی در برکناری مدیر عامل OpenAI سم آلتمن و سپس بازگرداندن او چند روز بعد ایفا کرد.

اما همه با این ایده موافق نیستند. رهبران هوش مصنوعی متا، یان لی کان و جولی پینیو  گفته‌اند که این ترس‌ها مضحک است و گفت‌وگو در مورد خطرات هوش مصنوعی از حد تعادل خارج شده است. بسیاری دیگر از بازیگران قدرتمند در هوش مصنوعی، مانند جوی بولاموینی محقق می‌گویند که تمرکز بر خطرات فرضی، آسیب‌های واقعی که امروزه هوش مصنوعی ایجاد می‌کند را از ذهن افراد منحرف خواهد کرد.

با وجود این، توجه فزاینده به قابلیت این فناوری برای ایجاد آسیب شدید باعث شده است تا گفت‌وگوهای مهم بسیاری در مورد خط‌مشی هوش مصنوعی و قانون‌گذاران آن در سراسر جهان صورت بگیرد.

 روزهای بی‌قانونی هوش مصنوعی به پایان رسید

به لطف ChatGPT، در سال ۲۰۲۳ همه از مجلس سنای ایالات متحده گرفته تا کشورهای G7 در مورد خط‌مشی‌ها و مقررات هوش مصنوعی صحبت کردند. در اوایل دسامبر این سال، قانون‌گذاران اروپایی یک سال سیاسی پرمشغله را به پایان رساندند. آن‌ها درباره قوانین هوش مصنوعی به توافق رسیدند تا استانداردهای الزام‌آوری را در مورد چگونگی توسعه مسئولانه‌تر هوش مصنوعی معرفی کنند.

در همین حال، کاخ سفید یک فرمان اجرایی در مورد هوش مصنوعی به‌عنوان اضافه بر تعهدات داوطلبانه شرکت‌های پیشرو هوش مصنوعی ارائه کرد. این فرمان با هدف ایجاد شفافیت و استانداردهای بیشتر برای هوش مصنوعی بود و آزادی زیادی به آژانس‌ها داد تا قوانین هوش مصنوعی را متناسب با بخش‌های خود تطبیق دهند.

یکی از خط‌مشی‌های پیشنهادی که توجه زیادی را به خود جلب کرد، واترمارک‌ها بود. علامت‌های غیرقابل مشاهده در متن و تصاویر که می‌توانند توسط رایانه‌ها شناسایی شوند تا محتوای تولید شده توسط هوش مصنوعی را علامت‌گذاری کنند. این موارد می‌تواند برای ردیابی سرقت ادبی یا کمک به مبارزه با اطلاعات نادرست مورد استفاده قرار بگیرد.

طرف‌های درگیر

البته در این زمینه فقط قانون‌گذاران تاثیر نداشتند، بلکه وکلا نیز درگیر بودند. شکایت‌های هنرمندان پیرامون تاثیرات هوش مصنوعی بر فعالیت و آثار آن‌ها مووضع خطیر و پرتکراری بود. هنرمندان و نویسندگان استدلال می‌کردند که شرکت‌های هوش مصنوعی بدون رضایت آن‌ها و بدون پرداخت جریمه، حقوق مالکیت معنوی آن‌ها را از بین برده‌اند. پس از این جریان‌ها محققان دانشگاه شیکاگو برای رفع این مشکل Nightshade را توسعه دادند. نایت‌شید ابزار جدیدی برای ایجاد اختلال در داده‌ها است. این ابزار به هنرمندان این امکان را می‌دهد تا با به هم ریختن داده‌های آموزشی مورد استفاده توسط مدل‌های هوش مصنوعی به این تصاویر آسیب جدی وارد کنند. بنابراین می‌توان تا حدودی در این زمینه با هوش مصنوعی مولد مقابله کرد. در نهایت با شکل‌گیری این مقاومت‌ها انتظار می‌رود تلاش‌های بیشتری برای تغییر تعادل قدرت فناوری در سال آینده انجام شود.

منبع: technologyreview

https://pvst.ir/him

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو