چه کسی باهوشتر است؛ انسان یا ماشین؟
یکی از پرسشهای محوری در سه دهه گذشته، در حوزه هوش مصنوعی این است که…
۵ اردیبهشت ۱۴۰۵
۵ اردیبهشت ۱۴۰۵
زمان مطالعه : ۵ دقیقه

اوپنای آی در ۱۶ آوریل، از مدل جدیدی به نام جیپیتی روزالیند رونمایی کرد؛ مدلی که بهطور خاص برای علوم زیستی طراحی شده است. این مدل در حوزههایی مانند شیمی، زیستشناسی و طراحی آزمایش، عملکردی بهمراتب بهتر از مدلهای عمومی فعلی این شرکت دارد.
جیپیتی روزالیند GPT-Rosalind نیز مشابه مدل Claude Mythos از آنتروپیک و GPT-5.4-Cyber از اوپن ایآی که آنها نیز در همین ماه معرفی شدهاند، در دسترس عموم قرار ندارد. این مدل، دستکم در مرحله فعلی، فقط از طریق برنامهای موسوم به دسترسی مورد اعتماد در اختیار مشتریان واجد شرایط قرار میگیرد.
این عرضهها نشانه شکلگیری روندی تازه و در عین حال نگرانکنندهاند، شرکتهای هوش مصنوعی، پیشرفتهترین مدلهای خود را آنقدر قدرتمند میدانند که حاضر نیستند آنها را در اختیار عموم بگذارند. پیتر ویلدفورد، رئیس سیاستگذاری در AI Policy Network میگوید: «توسعهدهندگان مرزی دسترسی به توانمندترین مدلهایشان را محدود میکنند، چون واقعا نگران برخی قابلیتهای این مدلها هستند.»
با این حال، مشخص نیست چرا اوپن ای آی بهطور خاص تصمیم گرفته دسترسی به GPT-Rosalind را محدود کند. سخنگوی این شرکت در ایمیلی گفته است که ارائه دسترسی به شرکای مورد اعتماد، به OpenAI امکان میدهد «سیستمهای توانمندتر را سریعتر در اختیار کاربران تاییدشده قرار دهد، در حالی که همچنان ریسکها را با دقت مدیریت میکند.»
پیشرفت سریع هوش مصنوعی، این پرسش را پررنگتر کرده که آیا شرکتهای خصوصی باید درباره توسعه و دسترسی به فناوریهایی با چنین سطحی از ریسک تصمیم بگیرند یا نه. مارک دساولنیه، نماینده دموکرات کالیفرنیا، معتقد است دولت فدرال باید در این حوزه نقش داشته باشد.
در همین حال، عرضه مدل Mythos از سوی آنتروپیک به نظر میرسد به بهبود روابط این شرکت با کاخ سفید کمک کرده است. کاخ سفید اعلام کرده که جلسهای سازنده و مثبت، با مدیرعامل آنتروپیک، داریو آمودی، برگزار شده و گزارشهایی نیز از استفاده ناسا از این مدل منتشر شده است.
این در حالی است که در فوریه، دونالد ترامپ در پی اختلافی با پنتاگون، به نهادهای فدرال دستور داده بود همکاری با این شرکت را متوقف کنند.
محدودیتهای اعمالشده بر این مدلها، فعلا داوطلبانه است. اما با افزایش پیچیدگی و شدت ریسکها، فشارها برای اعمال نظارت بیرونی بیشتر شده است. کانر لیهی از ControlAI میگوید: «ما به شرکتها اجازه نمیدهیم درباره میزان آلاینده در آب آشامیدنی تصمیم بگیرند، این کار دولت است. میتوان درباره عملکرد دولت بحث کرد، اما اصل ماجرا به تفکیک قوا برمیگردد.»
قابلیتهای دوگانه از جمله در حوزه زیستشناسی و امنیت سایبری چالشی جدی برای شرکتهای هوش مصنوعی ایجاد کردهاند. همان ابزارهایی که به پژوهشگران کمک میکنند آسیبپذیریهای نرمافزاری را شناسایی و رفع کنند، میتوانند در اختیار مهاجمان نیز قرار بگیرند.
بهطور مشابه، مدلی که برای مطالعه ویروسها طراحی شده، میتواند دستکم در سطح نظری برای طراحی عوامل بیولوژیکی خطرناک هم استفاده شود. ویلدفورد میگوید: «دفاع و حمله سایبری بسیار شبیه هم هستند؛ همانطور که پژوهش علمی و ساخت سلاح زیستی شباهت زیادی دارند.»
در گذشته، شرکتها چنین قابلیتهایی را برای همه کاربران محدود میکردند. برای مثال، بسیاری از چتباتها به پرسشهایی درباره جهشهای مؤثر در افزایش انتقالپذیری ویروس کرونا پاسخ نمیدهند. این محدودیتها شاید برای کاربران عادی مسئلهای ایجاد نکند، اما برای پژوهشگران چالشبرانگیز است. با این حال، برخی معتقدند این رویکرد همچنان ضروری است.
مدلهای جدید، بخشی از این محدودیتها را برای کاربران مورد اعتماد کاهش دادهاند. اوپن ایآی اعلام کرده دسترسی به جیپیتی روزالیند فقط به سازمانهایی داده میشود که کنترلهای داخلی قوی دارند. آنروپیک نیز با نهادهای دولتی و شرکتها برای شناسایی و رفع آسیبپذیریهای سایبری همکاری میکند.
با این حال، استف باتالیس، پژوهشگر حوزه امنیت، میگوید تعریف «پژوهشگر مشروع» بهویژه خارج از آمریکا ساده نیست و این موضوع نگرانیهایی درباره نابرابری در دسترسی ایجاد میکند.
تصمیمگیری درباره محدودسازی مدلها نیز به حوزه کاربرد بستگی دارد. در امنیت سایبری، معیارها روشنترند؛ برای مثال اینکه آیا یک مدل میتواند به سیستمها نفوذ کند یا خیر. اما در زیستشناسی، فرآیندها پیچیدهتر و زمانبرتر هستند و ارزیابی ریسک دشوارتر است.
مدلهای متنباز میتوانند معادله محدودسازی را تغییر دهند. طبق دادههای Epoch AI، این مدلها معمولا بین سه تا هفت ماه از مدلهای اختصاصی عقبتر هستند. اگر این روند ادامه پیدا کند، مدلهایی در سطح جیپیتی روزالیند ممکن است تا پایان سال بهصورت عمومی در دسترس قرار گیرند.
سخنگوی اوپن ایآی میگوید: «قابلیتهای سایبری در نهایت منتشر خواهند شد. مدافعان باید زودتر به ابزارهای بهتر دسترسی داشته باشند، نه دیرتر.»
این موضوع میتواند به نفع مهاجمان سایبری نیز تمام شود. آنتروپیک پیشتر اعلام کرده بود که دسترسی یک گروه وابسته به دولت چین را به مدلهایش مسدود کرده است. اما در صورت انتشار آزاد چنین مدلهایی، این امکان کنترل از بین خواهد رفت.
در عین حال، محدودیتهای اخیر ممکن است روند پیشرفت مدلهای متنباز را آهستهتر کند، البته تا زمانی که این محدودیتها قابل اجرا باشد.
چه مدلهای متنباز به سطح مدلهای پیشرفته برسند یا نه، GPT-Rosalind و Mythos اکنون استاندارد جدیدی از توانمندی در هوش مصنوعی را تعریف کردهاند. با افزایش همزمان فرصتها و ریسکها، فشار برای ورود دولتها به این حوزه نیز بیشتر خواهد شد.
ویلدفورد رئیس سیاستگذاری در AI Policy Network میگوید: «دولتها بهشدت علاقهمند به مدیریت این موضوع هستند. واقعا نمیتوان از نیاز به مداخله آنها چشمپوشی کرد.»
منبع: Time