متا «کد رفتاری» اتحادیه اروپا برای قانون هوش مصنوعی را امضا نمیکند
شرکت متا، مالک اینستاگرام و فیسبوک، میگوید از امضای «کد رفتاری» داوطلبانه منتشرشده توسط اتحادیه…
۲۹ تیر ۱۴۰۴
۳۰ تیر ۱۴۰۴
زمان مطالعه : ۷ دقیقه
شرکت اوپنایآی چند روز پیش از عامل هوش مصنوعی جدیدی به نام «ChatGPT Agent» رونمایی کرد که به کاربران پولی این شرکت اجازه میدهد با استفاده از بخش «ابزارها» یا «Tools» در این چتبات و انتخاب حالتی که به هوش مصنوعی عاملیت میدهد به نام «Agent mode» بتوانند وظایفی مثل پاسخ به ایمیل، دانلود، اصلاح فایل و غیره را به هوش مصنوعی واگذار کنند.
به گزارش پیوست، معرفی یک عامل هوش مصنوعی گامی مهم برای توسعه دهنده پرمخطابترین چتبات جهان است اما در حالی که عاملهای هوش مصنوعی میتوانند وظایفی را از سمت کاربر برعهده گرفته و به انجام برسانند، حساسیت امنیتی آنها افزایش مییابد. ابزاری که حالا با اجازه شما به حسابهای مختلف کاربری مثل ایمیل دسترسی دارد و خود دستوراتی را به اجرا میگذارد، در صورت اشتباه تبعات مهمی را به دنبال دارد.
اهمیت این مساله باعث شده است تا تیم ویژهای در اوپنایآی بر تضمین امنیت این ابزار تمرکز کنند. برای مقابله با این چالشها، اوپنایآی از یک تیم خبره موسوم به «تیم قرمز» (Red Team) بهره گرفته است؛ گروهی متشکل از ۱۶ پژوهشگر امنیتی با مدرک دکترای مرتبط با ایمنی زیستی که وظیفه داشتند در یک بازه زمانی ۴۰ ساعته، سامانه را به طور کامل آزمایش و نقاط ضعف آن را شناسایی کنند.
ونچربیت گزارش میدهد که تیم قرمز در بررسی پیش از عرضه ChatGPT Agent هفت آسیبپذیری سراسری را شناسایی کرد که امکان سو استفاده از سیستم را فراهم میساخت. مهندسان اوپنایآی پس از بررسیهای این تیم توانستند پیش از عرضه تغییرات و اصلاحاتی را اعمال کرده و از بهبود امنیت اطمینان حاصل کنند.
اعضای تیم قرمز توانستند در طول چهار مرحله آزمایش، هفت آسیبپذیری سراسری را کشف کنند. این آسیبپذیریها پتانسیل آن را داشتند تا هر مکالمهای در ChatGPT Agent را در معرض خطر قرار دهند. از جمله تهدیدهای کشف شده در این آزمایشها میتوان به موارد زیر اشاره کرد:
اوپنایآی در پاسخ به اطلاعات و دادههایی که تیم قرمز در اختیار آنها قرار داده بود، معماری عامل هوش مصنوعی خود را به طور کامل تغییر داد که از جمله آنها میتوان به ساخت یک معماری دولایه برای بررسی اشاره کرد؛ ساختاری که ۱۰۰ درصد از ترافیک تولید را در لحظه مورد نظارت قرار میدهد.
در پاسخ به این یافتهها، اوپنایآی تغییرات عمیقی را در معماری زیرساخت امنیتی خود اعمال کرد که از جمله آنها میتوان به موارد زیر اشاره کرد:
یکی از نگرانیهای اصلی تیم قرمز، توانایی احتمالی ChatGPT Agent در تجزیه و تحلیل اطلاعات حساس علمی بود. این محققان که در حوزه زیستشناسی تخصص داشتند توانستند با موفقیت اطلاعاتی را از این عامل استخراج کنند که میتوان از آنها در ساخت عوامل تهدیدزای زیستی و یا توسعه آنها استفاده کرد.
هرچند نشانهای از «سونیت واقعی» در این عاملیت یافت نشد، اما همین امکان نظری باعث شد تا عامل هوش مصنوعی اوپنایآی پیش از عرضه در دسته «قابلیت بالا در زیستشناسی و شیمی» قرار گیرد.
از این رو مهندسان اوپنایآی برای رفع این آسیبپذیری اقداماتی را در دستور کار قرار دادند. با تغییرات اعمال شده، سامانههای تشخیص تهدیدات زیستی به طور دائم در این عامل هوش مصنوعی فعال هستند و ۱۰۰ درصد از ترافیک را مورد بررسی قرار میدهند.
همچنین سامانه تشخیص موضوعات زیستی با دقت ۹۶ در این عامل فعالیت دارد و سامانه تحلیلی دیگری با استفاده از مدل استدلالگر با ۸۴ درصدی نیز در لایه دوم قرار میگیرد و استفاده نظامی را هدف میگیرد.
علاوه بر این اوپنایآی یک طرح باگبانتی در حوزه زیستی در نظر گرفته تا نقاط ضعف دیگر نیز توسط جامعه شناسایی و گزارش شوند.
تجربه تیم قرمز برای اوپنایآی فراتر از یک تست امنیتی ساده بود و این تجربه درسهایی بنیادین برای طراحی سامانههای هوش مصنوعی ایمن در اختیار اوپنایآی قرار داد. بررسیهای تیم بر عامل جدید هوش مصنوعی به اوپنایآی آموخت:
برای مدیران امنیت اطلاعات (CISO) و شرکتهایی که از هوش مصنوعی استفاده میکنند، ChatGPT Agent اکنون بهعنوان یک معیار امنیتی جدید شناخته میشود.
تجربه اوپنایآی و تیم قرمز چهار اصل امنیتی مهم را به عنوان یک استداندارد صنعتی معرفی میکند:
عامل هوش مصنوعی اوپنایآی نخستین نماینده نسلی از مدلهای هوش مصنوعی است که امنیت در آن نهفقط یک قابلیت، بلکه زیرساخت اصلی طراحی بهشمار میرود. تمامی ۱۱۰ حمله شناساییشده، سبب اصلاحات سیستماتیک شد تا عامل چتجیپیتی با بالاترین سطح اطمینان در اختیار کاربران قرار گیرد.
کرن گو از تیم امنیتی اوپنایآی در این باره نوشت: «این لحظه مهمی برای آمادگی ما است. پیش از این ما به توانمندی بالا دست پیدا کردیم و آماده سازی در تجزیهتحلیل توانمندیها و برنامهریزی محافظتها خلاصه میشد. اما حالا برای عامل هوش مصنوعی و آینده مدلهای توانمند، محافظتها به یک الزام عملیاتی تبدیل شدهاند.»