skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

پژوهشگران جدا شده از اوپن‌ای‌آی می‌گویند این شرکت محصولات جذاب را به امنیت ترجیح می‌دهد

۲۹ اردیبهشت ۱۴۰۳

زمان مطالعه : ۳ دقیقه

فایننشال تایمز به نقل از یکی از پژوهشگران جدا شده از اوپن‌ای‌آی می‌گوید این شرکت «محصولات چشم‌نواز» را به مباحث امنیتی ترجیخ می‌دهد و همین مساله باعث جدایی محققان بخش امنیت شده است. ایلیا سوتسکور، پژوهشگر ارشد اوپن‌ای‌آی و یکی از بنیان‌گذاران این شرکت نیز به تازگی خبر استعفای خود را منتشر کرد.

به گزارش پیوست، جن لیک، مسئول بخشی از اوپن‌ای‌آی که به کنترل و نظارت بر ابزارهای قدرتمند هوش مصنوعی اختصاص دارد، روز پنجشنبه پس از اختلاف نظر با مدیران ارشد بر سر زمان و منابعی که این استارت‌آپ به ایمنی اختصاص می‌دهد از این شرکت جدا شد.

لیک روز جمعه طی پستی در شبکه اجتماعی اکس گفت: «در سال‌های گذشته، محصولات چشم‌نواز نسبت به فرهنگ ایمنی و فرایند‌های آن اولویت گرفته‌اند.»

اوپن ای‌آی در جدال تنگاتنگ توسعه مدل‌های هوش مصنوعی پیشتازی بازار را با وجود رقبایی مثل گوگل، متا و آنتروپیک در اختیار گرفته است.

این شرکت میلیارد‌ها دلار سرمایه را از منابعی همچون مایکروسافت جذب خود کرده و به ساخت مدل‌هایی برای تفسیر متن، صوت و تصاویر مشغول است و نشانه‌هایی از استدلال را در این مدل‌ها به نمایش گذاشته است. سرعت این پیشرفت‌ها به نگرانی‌هایی در حوزه‌های مختلف از جمله اطلاعات وارونه و خطر ابزارهای هوش مصنوعی برای بقای بشریت دامن زده است.

لیک به عنوان یکی از شناخته‌شده‌ترین محققان اوپن‌ای‌آی به همراه ایلیا سوتسکور، هم‌بنیان‌گذار و یکی از رهبران بخش ایمنی این شرکت به تازگی راه خود را از اوپن‌ای‌آی جدا کردند.

درنتیجه جدایی این دو تیم اصلی نظارت بر ایمنی اوپن‌ای‌آی رهبری مشخصی ندارد. افزون بر این، تنش‌ روز تمرکز شرکت بر پیشتازی هوش مصنوعی یا توجه به «منافع تمام بشریت» که از آن به عنوان ماموریت اصلی اوپن‌ای‌آی یاد شده بالا گرفته‌ است.

لیک می‌نویسد: «ما باید فورا راهی برای اداره و کنترل سیستم‌های هوش مصنوعی که بسیار باهوش‌تر از ما هستند پیدا کنیم. من از آنجایی به شرکت ملحق شدم که تصور می‌کردم اوپن‌ای‌آی بهترین جای جهان برای انجام این پژوهش است. با این حال مدتی است که من با رهبری اوپن‌ای‌آی در مورد اولویت‌های اصلی شرکت اختلاف دارم و در نهایت این اختلافات به اوج خود رسید.»

سم آلتمن، مدیرعامل اوپن‌ای‌آی، در اکس نوشته که «از جدایی [لیک] بسیار غمگین هستم. او درست می‌گوید که باید کارهای بیشتری انجام دهیم؛ ما به انجام آنها متعهد هستیم.»

نگرانی‌های مربوط به بحث ایمنی حتی در ماه نوامبر و اخراج یک باره سم آلتمن نیز در مرکز تنش‌ها بود. آلتمن پیش از اخراج خود با هلن تونر، یکی از اعضای هیات مدیره وقت اوپن‌ای‌آی، در قیاس رویکرد اوپن‌ای‌آی به نسبت رقبایی مثل آنتروپیک به مشکل خورده بود.

اوپن‌ای‌آی سال گذشته تیم superalignment یا کنترل هوش مصنوعی را با اشاره به نگرانی‌ از تاثیر هوش فوق‌العاده ماشین‌ها بر بشریت یا حتی موجودیت بشر راه‌اندازی کرد. این شرکت در آن زمان گفت که هوش مصنوعی می‌تواند در حدود یک دهه آینده از انسان‌ها باهوش‌تر شود. این استارت‌آپ در چند ماه پس از راه‌اندازی این تیم پیشرفت‌های بزرگی را رقم زده است.

اوپن‌ای‌آی ۲۰ درصد از منابع رایانشی خود را به تضمین هم‌راستایی هوش مصنوعی با منافع انسان‌ها اختصا داده است اما به گفته لیک توجه چندانی به بحث ایمنی و تاثیر اجتماعی این مدل‌ها نمی‌شود. او می‌گوید:«حل این مسائل بسیار دشوار است و من نگرانم که در مسیر حل آنها نیستیم.»

به گفته لیک، تیم کنترل و هم‌سو سازی هوش مصنوعی به منابع رایانشی لازم دسترسی نداشته و بیشتر منابع به توسعه مدل‌های جدید هوش مصنوعی از جمله GPT-4o اختصاص یافته‌اند.

او می‌نویسد: «طی چند ماه گذشته تیم من در برابر طوفان مقاومت کرد. گاهی در حوزه رایانش به مشکل می‌خوردیم و انجام این پژوهش مهم سخت‌تر و سخت‌تر می‌شد.»

https://pvst.ir/hxs

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو