skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

افزایش خطر سو استفاده از هوش مصنوعی در مدل جدید اوپن‌ای‌آی

۲۵ شهریور ۱۴۰۳

زمان مطالعه : ۳ دقیقه

اوپن‌ای‌آی به تازگی اعتراف کرده است که جدیدترین مدل‌های هوش مصنوعی، خطر سو استفاده از هوش مصنوعی برای ساخت سلاح‌های زیستی را به شکل «معناداری» افزایش داده‌اند.

به گزارش پیوست به نقل از فایننشال تایمز، این استارت‌آپ هوش مصنوعی روز پنجشنبه مدل‌های جدید o1 را معرفی کرد که مهارت‌های تازه‌ای برای استدلال، حل مسائل پیچیده ریاضی و پاسخ به سوالات تحقیقاتی دارند. چنین جهشی برای ساخت هوش مصنوعی عمومی یک گام اساسی محسوب می‌شود.

با این حال، در کنار بهبود توانایی‌های هوش مصنوعی، احتمالی سو استفاده از مدل‌ها نیز بیشتر می‌شود و برآورد خطر اوپن‌ای‌آی به وضوح به چنین روندی اشاره می‌کند. حال متخصصان نگران سو استفاده از این مدل‌ها هستند.

خطر متوسط مدل‌های o1 در حوزه سلاح‌های زیستی

سیستم کارت اوپن‌ای‌آی که ابزاری برای توضیح نحوه عملکرد هوش مصنوعی است می‌گوید مدل‌های جدید در حوزه‌هایی مثل سلاح‌های شیمیایی، بیولوژیکی، پرتوشناختی و هسته‌ای (CBRN) سطح «خطر متوسط» دارند. این بالاترین سطح خطری که اوپن‌ای‌آی به مدل‌های خود اختصاص داده است. به گفته شرکت این به آن معنا است که تونایی متخصصان برای ساخت سلاح‌های زیستی «به شکل معناداری افزایش یافته است.»

متخصصان معتقدند که هوش مصنوعی با توانمندی‌های پیشرفته برای استدلال گام به گام، خطر سو استفاده توسط تبهکاران را افزایش می‌دهد.

یوشوا بنگیو، استاد علوم کامپیوتر در دانشگاه مونترال و یکی از پژوهشگران ارشد هوش مصنوعی جهان،‌می‌گوید اگز اوپن‌ای‌آی امروز «خطر متوسط» را برای سلاح‌های بیولوژیکی و شیمیایی گزارش کرده است،‌ درنتیجه اهمیت و اضطرار مقرراتی مثل قانون بحث‌برانگیزی که در کالیفرنیا شاهد هستیم برای این بخش بیشتری می‌شود.

براساس این قانون که با نام SB 1047 شناخته می‌شود، سازندگان بزرگترین مدل‌ها باید برای به حداقل رساندن کاربرد مدل‌های خود در تولید سلاح‌های زیستی تلاش کنند. بنگیو می‌گوید با پیشروی مدل‌های هوش مصنوعی به سمت AGI، «اگر محافظت‌های درست وجود نداشته باشند، خطرها بیشتر می‌شوند. بهبود توانایی استدلال هوش مصنوعی و استفاده از این مهارت برای فریب به طور ویژه خطرناک است.»

در حالی شاهد چنین هشدارهایی هستیم که شرکت‌هایی مثل گوگل، متا و آنتروپیک نیز برای توسعه سیستم‌های پیچیده هوش مصنوعی تلاش می‌کنند و سعی بر ساخت نرم‌افزاری دارند که به عنوان «عاملیت‌هایی» در تکمیل وظایف و پیشرفت به انسان‌ها کمک می‌کنند.

چنین عاملیت‌هایی همچنین به عنوان مجاری درآمد احتمالی برای شرکت‌هایی شناخته می‌شوند که با هزینه‌های بالای آموزش و اجرای مدل‌های جدید دست و پنجه نرم‌ می‌کنند.

میرا موراتی، مدیر ارشد فناوری اوپن‌ای‌آی، در مصاحبه‌ای با فایننشال تایمز گفت که این شرکت به دلیل توانمندی‌های پیشرفته مدل‌های جدید،‌ به طور خاصی درمورد عرضه عمومی o1 احتیاط می‌کند. با این حال این مدل‌ها به طور گسترده برای مشترکان پولی ChatGPT و از طریق API قابل دسترسی هستند.

به گفته او این مدل را رد تیمر‌ها (متخصصان حوزه‌های مختلف که برای نفوذ به مدل تلاش می‌کنند) آزمایش کرده‌اند تا سرحدهای آن را بررسی کنند. موراتی می‌گوید این مدل‌ها به طور کلی در معیار‌های امنیتی بهتر از نمونه‌های قبلی عمل کرده‌اند.

اوپن‌ای‌آی می‌گوید مدل اولیه «برای استفاده امن براساس [سیاست‌های شرکت] مناسب است و در امتیاز احتیاط شرکت خط متوسط را دارد زیرا خطراتی را فراتر از آنچه با منابع فعلی امکان‌پذیر است، ممکن می‌کند.»

 

https://pvst.ir/iy8

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو