مولد ویدیو سورا در اختیار مشترکان پولی ChatGPT قرار گرفت
مشترکان طرح ChatGPT Pro و Plus اوپنایآی از این پس به مولد ویدیو سورا (Sora)…
۲۰ آذر ۱۴۰۳
۲۹ اردیبهشت ۱۴۰۳
زمان مطالعه : ۳ دقیقه
فایننشال تایمز به نقل از یکی از پژوهشگران جدا شده از اوپنایآی میگوید این شرکت «محصولات چشمنواز» را به مباحث امنیتی ترجیخ میدهد و همین مساله باعث جدایی محققان بخش امنیت شده است. ایلیا سوتسکور، پژوهشگر ارشد اوپنایآی و یکی از بنیانگذاران این شرکت نیز به تازگی خبر استعفای خود را منتشر کرد.
به گزارش پیوست، جن لیک، مسئول بخشی از اوپنایآی که به کنترل و نظارت بر ابزارهای قدرتمند هوش مصنوعی اختصاص دارد، روز پنجشنبه پس از اختلاف نظر با مدیران ارشد بر سر زمان و منابعی که این استارتآپ به ایمنی اختصاص میدهد از این شرکت جدا شد.
لیک روز جمعه طی پستی در شبکه اجتماعی اکس گفت: «در سالهای گذشته، محصولات چشمنواز نسبت به فرهنگ ایمنی و فرایندهای آن اولویت گرفتهاند.»
اوپن ایآی در جدال تنگاتنگ توسعه مدلهای هوش مصنوعی پیشتازی بازار را با وجود رقبایی مثل گوگل، متا و آنتروپیک در اختیار گرفته است.
این شرکت میلیاردها دلار سرمایه را از منابعی همچون مایکروسافت جذب خود کرده و به ساخت مدلهایی برای تفسیر متن، صوت و تصاویر مشغول است و نشانههایی از استدلال را در این مدلها به نمایش گذاشته است. سرعت این پیشرفتها به نگرانیهایی در حوزههای مختلف از جمله اطلاعات وارونه و خطر ابزارهای هوش مصنوعی برای بقای بشریت دامن زده است.
لیک به عنوان یکی از شناختهشدهترین محققان اوپنایآی به همراه ایلیا سوتسکور، همبنیانگذار و یکی از رهبران بخش ایمنی این شرکت به تازگی راه خود را از اوپنایآی جدا کردند.
درنتیجه جدایی این دو تیم اصلی نظارت بر ایمنی اوپنایآی رهبری مشخصی ندارد. افزون بر این، تنش روز تمرکز شرکت بر پیشتازی هوش مصنوعی یا توجه به «منافع تمام بشریت» که از آن به عنوان ماموریت اصلی اوپنایآی یاد شده بالا گرفته است.
لیک مینویسد: «ما باید فورا راهی برای اداره و کنترل سیستمهای هوش مصنوعی که بسیار باهوشتر از ما هستند پیدا کنیم. من از آنجایی به شرکت ملحق شدم که تصور میکردم اوپنایآی بهترین جای جهان برای انجام این پژوهش است. با این حال مدتی است که من با رهبری اوپنایآی در مورد اولویتهای اصلی شرکت اختلاف دارم و در نهایت این اختلافات به اوج خود رسید.»
سم آلتمن، مدیرعامل اوپنایآی، در اکس نوشته که «از جدایی [لیک] بسیار غمگین هستم. او درست میگوید که باید کارهای بیشتری انجام دهیم؛ ما به انجام آنها متعهد هستیم.»
نگرانیهای مربوط به بحث ایمنی حتی در ماه نوامبر و اخراج یک باره سم آلتمن نیز در مرکز تنشها بود. آلتمن پیش از اخراج خود با هلن تونر، یکی از اعضای هیات مدیره وقت اوپنایآی، در قیاس رویکرد اوپنایآی به نسبت رقبایی مثل آنتروپیک به مشکل خورده بود.
اوپنایآی سال گذشته تیم superalignment یا کنترل هوش مصنوعی را با اشاره به نگرانی از تاثیر هوش فوقالعاده ماشینها بر بشریت یا حتی موجودیت بشر راهاندازی کرد. این شرکت در آن زمان گفت که هوش مصنوعی میتواند در حدود یک دهه آینده از انسانها باهوشتر شود. این استارتآپ در چند ماه پس از راهاندازی این تیم پیشرفتهای بزرگی را رقم زده است.
اوپنایآی ۲۰ درصد از منابع رایانشی خود را به تضمین همراستایی هوش مصنوعی با منافع انسانها اختصا داده است اما به گفته لیک توجه چندانی به بحث ایمنی و تاثیر اجتماعی این مدلها نمیشود. او میگوید:«حل این مسائل بسیار دشوار است و من نگرانم که در مسیر حل آنها نیستیم.»
به گفته لیک، تیم کنترل و همسو سازی هوش مصنوعی به منابع رایانشی لازم دسترسی نداشته و بیشتر منابع به توسعه مدلهای جدید هوش مصنوعی از جمله GPT-4o اختصاص یافتهاند.
او مینویسد: «طی چند ماه گذشته تیم من در برابر طوفان مقاومت کرد. گاهی در حوزه رایانش به مشکل میخوردیم و انجام این پژوهش مهم سختتر و سختتر میشد.»