کمپینهای رفتاری جهت مصرف بهینه انرژی؛ استفاده بهینه با آگاهی
کمپینهای رفتاری با هدف افزایش آگاهی عمومی در مورد صرفهجویی انرژی در سطح جهانی از…
۱ آذر ۱۴۰۳
۲۵ شهریور ۱۴۰۳
زمان مطالعه : ۳ دقیقه
اوپنایآی به تازگی اعتراف کرده است که جدیدترین مدلهای هوش مصنوعی، خطر سو استفاده از هوش مصنوعی برای ساخت سلاحهای زیستی را به شکل «معناداری» افزایش دادهاند.
به گزارش پیوست به نقل از فایننشال تایمز، این استارتآپ هوش مصنوعی روز پنجشنبه مدلهای جدید o1 را معرفی کرد که مهارتهای تازهای برای استدلال، حل مسائل پیچیده ریاضی و پاسخ به سوالات تحقیقاتی دارند. چنین جهشی برای ساخت هوش مصنوعی عمومی یک گام اساسی محسوب میشود.
با این حال، در کنار بهبود تواناییهای هوش مصنوعی، احتمالی سو استفاده از مدلها نیز بیشتر میشود و برآورد خطر اوپنایآی به وضوح به چنین روندی اشاره میکند. حال متخصصان نگران سو استفاده از این مدلها هستند.
سیستم کارت اوپنایآی که ابزاری برای توضیح نحوه عملکرد هوش مصنوعی است میگوید مدلهای جدید در حوزههایی مثل سلاحهای شیمیایی، بیولوژیکی، پرتوشناختی و هستهای (CBRN) سطح «خطر متوسط» دارند. این بالاترین سطح خطری که اوپنایآی به مدلهای خود اختصاص داده است. به گفته شرکت این به آن معنا است که تونایی متخصصان برای ساخت سلاحهای زیستی «به شکل معناداری افزایش یافته است.»
متخصصان معتقدند که هوش مصنوعی با توانمندیهای پیشرفته برای استدلال گام به گام، خطر سو استفاده توسط تبهکاران را افزایش میدهد.
یوشوا بنگیو، استاد علوم کامپیوتر در دانشگاه مونترال و یکی از پژوهشگران ارشد هوش مصنوعی جهان،میگوید اگز اوپنایآی امروز «خطر متوسط» را برای سلاحهای بیولوژیکی و شیمیایی گزارش کرده است، درنتیجه اهمیت و اضطرار مقرراتی مثل قانون بحثبرانگیزی که در کالیفرنیا شاهد هستیم برای این بخش بیشتری میشود.
براساس این قانون که با نام SB 1047 شناخته میشود، سازندگان بزرگترین مدلها باید برای به حداقل رساندن کاربرد مدلهای خود در تولید سلاحهای زیستی تلاش کنند. بنگیو میگوید با پیشروی مدلهای هوش مصنوعی به سمت AGI، «اگر محافظتهای درست وجود نداشته باشند، خطرها بیشتر میشوند. بهبود توانایی استدلال هوش مصنوعی و استفاده از این مهارت برای فریب به طور ویژه خطرناک است.»
در حالی شاهد چنین هشدارهایی هستیم که شرکتهایی مثل گوگل، متا و آنتروپیک نیز برای توسعه سیستمهای پیچیده هوش مصنوعی تلاش میکنند و سعی بر ساخت نرمافزاری دارند که به عنوان «عاملیتهایی» در تکمیل وظایف و پیشرفت به انسانها کمک میکنند.
چنین عاملیتهایی همچنین به عنوان مجاری درآمد احتمالی برای شرکتهایی شناخته میشوند که با هزینههای بالای آموزش و اجرای مدلهای جدید دست و پنجه نرم میکنند.
میرا موراتی، مدیر ارشد فناوری اوپنایآی، در مصاحبهای با فایننشال تایمز گفت که این شرکت به دلیل توانمندیهای پیشرفته مدلهای جدید، به طور خاصی درمورد عرضه عمومی o1 احتیاط میکند. با این حال این مدلها به طور گسترده برای مشترکان پولی ChatGPT و از طریق API قابل دسترسی هستند.
به گفته او این مدل را رد تیمرها (متخصصان حوزههای مختلف که برای نفوذ به مدل تلاش میکنند) آزمایش کردهاند تا سرحدهای آن را بررسی کنند. موراتی میگوید این مدلها به طور کلی در معیارهای امنیتی بهتر از نمونههای قبلی عمل کردهاند.
اوپنایآی میگوید مدل اولیه «برای استفاده امن براساس [سیاستهای شرکت] مناسب است و در امتیاز احتیاط شرکت خط متوسط را دارد زیرا خطراتی را فراتر از آنچه با منابع فعلی امکانپذیر است، ممکن میکند.»