skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر
جشنواره نوروزی آنر

بیش از حد خطرناک برای انتشار؛ واقعیت تازه دنیای هوش مصنوعی

۵ اردیبهشت ۱۴۰۵

زمان مطالعه : ۵ دقیقه

اوپن‌ای آی در ۱۶ آوریل، از مدل جدیدی به نام جی‌پی‌تی روزالیند رونمایی کرد؛ مدلی که به‌طور خاص برای علوم زیستی طراحی شده است. این مدل در حوزه‌هایی مانند شیمی، زیست‌شناسی و طراحی آزمایش، عملکردی به‌مراتب بهتر از مدل‌های عمومی فعلی این شرکت دارد.

جی‌پی‌تی روزالیند GPT-Rosalind نیز  مشابه مدل Claude Mythos از آنتروپیک و GPT-5.4-Cyber از اوپن ای‌آی که آنها نیز در همین ماه معرفی شده‌اند، در دسترس عموم قرار ندارد. این مدل، دست‌کم در مرحله فعلی، فقط از طریق برنامه‌ای موسوم به دسترسی مورد اعتماد در اختیار مشتریان واجد شرایط قرار می‌گیرد.

این عرضه‌ها نشانه شکل‌گیری روندی تازه و در عین حال نگران‌کننده‌اند، شرکت‌های هوش مصنوعی، پیشرفته‌ترین مدل‌های خود را آن‌قدر قدرتمند می‌دانند که حاضر نیستند آنها را در اختیار عموم بگذارند. پیتر ویلدفورد، رئیس سیاست‌گذاری در AI Policy Network می‌گوید: «توسعه‌دهندگان مرزی دسترسی به توانمندترین مدل‌هایشان را محدود می‌کنند، چون واقعا نگران برخی قابلیت‌های این مدل‌ها هستند.»

با این حال، مشخص نیست چرا اوپن ای آی به‌طور خاص تصمیم گرفته دسترسی به GPT-Rosalind را محدود کند. سخنگوی این شرکت در ایمیلی گفته است که ارائه دسترسی به شرکای مورد اعتماد، به OpenAI امکان می‌دهد «سیستم‌های توانمندتر را سریع‌تر در اختیار کاربران تاییدشده قرار دهد، در حالی که همچنان ریسک‌ها را با دقت مدیریت می‌کند.»

چه کسی تصمیم می‌گیرد؟

پیشرفت سریع هوش مصنوعی، این پرسش را پررنگ‌تر کرده که آیا شرکت‌های خصوصی باید درباره توسعه و دسترسی به فناوری‌هایی با چنین سطحی از ریسک تصمیم بگیرند یا نه. مارک دساولنیه، نماینده دموکرات کالیفرنیا، معتقد است دولت فدرال باید در این حوزه نقش داشته باشد.

در همین حال، عرضه مدل Mythos از سوی آنتروپیک به نظر می‌رسد به بهبود روابط این شرکت با کاخ سفید کمک کرده است. کاخ سفید اعلام کرده که جلسه‌ای سازنده و مثبت، با مدیرعامل آنتروپیک، داریو آمودی، برگزار شده و گزارش‌هایی نیز از استفاده ناسا از این مدل منتشر شده است.

این در حالی است که در فوریه، دونالد ترامپ در پی اختلافی با پنتاگون، به نهادهای فدرال دستور داده بود همکاری با این شرکت را متوقف کنند.

محدودیت‌های اعمال‌شده بر این مدل‌ها، فعلا داوطلبانه است. اما با افزایش پیچیدگی و شدت ریسک‌ها، فشارها برای اعمال نظارت بیرونی بیشتر شده است. کانر لیهی از ControlAI می‌گوید: «ما به شرکت‌ها اجازه نمی‌دهیم درباره میزان آلاینده در آب آشامیدنی تصمیم بگیرند، این کار دولت است. می‌توان درباره عملکرد دولت بحث کرد، اما اصل ماجرا به تفکیک قوا برمی‌گردد.»

پژوهش علمی و ساخت سلاح زیستی بسیار شبیه هم هستند

قابلیت‌های دوگانه از جمله در حوزه زیست‌شناسی و امنیت سایبری چالشی جدی برای شرکت‌های هوش مصنوعی ایجاد کرده‌اند. همان ابزارهایی که به پژوهشگران کمک می‌کنند آسیب‌پذیری‌های نرم‌افزاری را شناسایی و رفع کنند، می‌توانند در اختیار مهاجمان نیز قرار بگیرند.

به‌طور مشابه، مدلی که برای مطالعه ویروس‌ها طراحی شده، می‌تواند دست‌کم در سطح نظری برای طراحی عوامل بیولوژیکی خطرناک هم استفاده شود. ویلدفورد می‌گوید: «دفاع و حمله سایبری بسیار شبیه هم هستند؛ همان‌طور که پژوهش علمی و ساخت سلاح زیستی شباهت زیادی دارند.»

در گذشته، شرکت‌ها چنین قابلیت‌هایی را برای همه کاربران محدود می‌کردند. برای مثال، بسیاری از چت‌بات‌ها به پرسش‌هایی درباره جهش‌های مؤثر در افزایش انتقال‌پذیری ویروس کرونا پاسخ نمی‌دهند. این محدودیت‌ها شاید برای کاربران عادی مسئله‌ای ایجاد نکند، اما برای پژوهشگران چالش‌برانگیز است. با این حال، برخی معتقدند این رویکرد همچنان ضروری است.

مدل‌های جدید، بخشی از این محدودیت‌ها را برای کاربران مورد اعتماد کاهش داده‌اند. اوپن ای‌آی اعلام کرده دسترسی به جی‌پی‌تی روزالیند فقط به سازمان‌هایی داده می‌شود که کنترل‌های داخلی قوی دارند. آنروپیک نیز با نهادهای دولتی و شرکت‌ها برای شناسایی و رفع آسیب‌پذیری‌های سایبری همکاری می‌کند.

با این حال، استف باتالیس، پژوهشگر حوزه امنیت، می‌گوید تعریف «پژوهشگر مشروع» به‌ویژه خارج از آمریکا ساده نیست و این موضوع نگرانی‌هایی درباره نابرابری در دسترسی ایجاد می‌کند.

تصمیم‌گیری درباره محدودسازی مدل‌ها نیز به حوزه کاربرد بستگی دارد. در امنیت سایبری، معیارها روشن‌ترند؛ برای مثال اینکه آیا یک مدل می‌تواند به سیستم‌ها نفوذ کند یا خیر. اما در زیست‌شناسی، فرآیندها پیچیده‌تر و زمان‌برتر هستند و ارزیابی ریسک دشوارتر است.

قابلیت‌های سایبری منتشر خواهند شد

مدل‌های متن‌باز می‌توانند معادله محدودسازی را تغییر دهند. طبق داده‌های Epoch AI، این مدل‌ها معمولا بین سه تا هفت ماه از مدل‌های اختصاصی عقب‌تر هستند. اگر این روند ادامه پیدا کند، مدل‌هایی در سطح جی‌پی‌تی روزالیند ممکن است تا پایان سال به‌صورت عمومی در دسترس قرار گیرند.

سخنگوی اوپن ای‌آی می‌گوید: «قابلیت‌های سایبری در نهایت منتشر خواهند شد. مدافعان باید زودتر به ابزارهای بهتر دسترسی داشته باشند، نه دیرتر.»

این موضوع می‌تواند به نفع مهاجمان سایبری نیز تمام شود. آنتروپیک پیش‌تر اعلام کرده بود که دسترسی یک گروه وابسته به دولت چین را به مدل‌هایش مسدود کرده است. اما در صورت انتشار آزاد چنین مدل‌هایی، این امکان کنترل از بین خواهد رفت.

در عین حال، محدودیت‌های اخیر ممکن است روند پیشرفت مدل‌های متن‌باز را آهسته‌تر کند، البته تا زمانی که این محدودیت‌ها قابل اجرا باشد.

چه مدل‌های متن‌باز به سطح مدل‌های پیشرفته برسند یا نه، GPT-Rosalind و Mythos اکنون استاندارد جدیدی از توانمندی در هوش مصنوعی را تعریف کرده‌اند. با افزایش هم‌زمان فرصت‌ها و ریسک‌ها، فشار برای ورود دولت‌ها به این حوزه نیز بیشتر خواهد شد.

ویلدفورد رئیس سیاست‌گذاری در AI Policy Network می‌گوید: «دولت‌ها به‌شدت علاقه‌مند به مدیریت این موضوع هستند. واقعا نمی‌توان از نیاز به مداخله آنها چشم‌پوشی کرد.»

منبع: Time
https://pvst.ir/nvn

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو