skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

مدیرعامل انتروپیک می‌گوید دیپ‌سیک در آزمون امنیت داده سلاح‌های شیمیایی بدترین عملکرد را دارد

۲۰ بهمن ۱۴۰۳

زمان مطالعه : ۴ دقیقه

داریو آمودی، مدیرعامل شرکت هوش مصنوعی انتروپیک، نگران امنیت شرکت هوش مصنوعی دیپ‌سیک است که با عرضه مدل استدلال‌گر R1 شوک شدیدی به بازار سرمایه آمریکا وارد کرد. آمودی طی گفتگویی درمورد این شرکت گفت که مدل ساخته دیپ‌سیک «بدترین عملکرد» را در میان مدل‌های بررسی شده از لحاظ امنیتی به نمایش گذاشته است و تقریبا «هیچ مانعی» برای تولید اطلاعات ندارد.

به گزارش پیوست به نقل از تک‌کرانچ، آمودی انتقادات تند خود را در پادکست ChinaTalk به میزبانی جردن اشنایدر مطرح کرد. به گفته او این هوش مصنوعی اطلاعات نایابی را درمورد سلاح‌های شیمیایی تولید می‌کند.

تقریبا هیچ مانعی در برابر تولید اطلاعات وجود نداشت

شرکت انتروپیک خود را به عنوان پیشتاز امنیت در بین استارت‌آپ‌های بزرگ هوش مصنوعی معرفی می‌کند و تمرکز ویژه‌ای بر راهکارهای جدید حفظ ایمنی این سیستم‌ها دارد. این شرکت در مقاله‌ تازه‌ای از یک راهکار تازه با نرخ موفقیت بالا برای جلوگیری از جیل‌بریک هوش مصنوعی رونمایی کرده است.

آمودی می‌گوید هوش مصنوعی چینی را به عنوان بخشی از ارزیابی‌های روتین انتروپیک روی مدل‌های مختلف هوش مصنوعی بررسی کرده‌اند که خطرات احتمالی ابزارهای هوش مصنوعی را از لحاظ امنیت ملی مورد بررسی قرار می‌دهد.

آمودی مدعی شد که عملکرد هوش مصنوعی دیپ‌سیک «اساسا در میان تمام مدل‌هایی که تا به حال آزمایش کرده‌ایم، بدترین بود. [این هوش مصنوعی] تقریبا هیچ مانعی در برابر تولید این اطلاعات نداشت.»

تیم او در این آزمون مدل‌های مختلف را از لحاظ تولید اطلاعات مربوط به سلاح‌های شیمیایی بررسی کرده‌اند،‌ اما اطلاعاتی که به راحتی در گوگل یا کتابچه‌ها پیدا نمی‌شوند.

آمودی می‌گوید از نظر او مدل‌های دیپ‌سیک در حال حاضر از لحاظ ارائه اطلاعات نایاب و خطرناک، «به معنای واقعی کلمه خطرناک» نیستند اما ممکن است در آینده چنین ماهیتی پیدا کنند. آمودی همچنین با اشاره به نگرانی‌هایی که درمورد استفاده نظامی چین از هوش مصنوعی وجود دارد، از محدودیت‌های صادرات چیپ به این کشور حمایت کرده است.

مدیرعامل انتروپیک مشخص نکرد که در این آزمون از کدام مدل دیپ‌سیک استفاده شده است و جزئیاتی نیز از این آزمون ارائه نشد.

نگرانی‌ها و واکنش‌ها به مشکلات امنیتی دیپ‌سیک

دیپ‌سیک تا به امروز نگرانی‌های امنیتی متعددی را برانگیخته است. برای مثال پژوهشگران شرکت Cisco هفته گذشته اعلام کردند که مدل R1 دیپ‌سیک هیچ کدام از پرامپت‌های خطرناک تست ایمنی آنها را مسدود نکرده است و آزمون این مدل با نرخ موفقیت ۱۰۰ درصدی برای جیل‌بریک به پایان رسید.

شرکت Cisco اشاره‌ ویژه‌ای به سلاح‌های شیمیایی نکرده است اما می‌گوید توانسته است اطلاعات خطرناکی را درمورد جرایم سایبری یا دیگر فعالیت‌های غیرمجاز تولید کند. البته باید گفت که دیگر مدل‌های پیشتاز از جمله Llama 3.1-405B از شرکت متا و GPT-4o شرکت اوپن‌ای‌آی نیز به ترتیب در جلوگیری از ۹۶ درصد و ۸۶ درصد از تلاش‌های جیل‌بریک شکست خوردند.

باید دید که آیا این تهدید‌ها و کاستی‌های امنیتی هوش مصنوعی چینی ممکن است به مانعی برای افزایش نفوذ آن تبدیل شود یا خیر. طبق گزارش بلومبرگ، دولت فدرال کانادا به دلیل «نگرانی‌های جدی حریم خصوصی»  استفاده از هوش مصنوعی دیپ‌سیک را در دستگاه‌های دولتی ممنوع کرده است. همچنین سازمان‌های نیروی دریایی آمریکا و پنتاگون نیز فرایند ممنوعیت این چت‌بات را آغاز کرده‌اند.

با این حال شرکت‌هایی همچون AWS،‌ بخش زیرساخت ابر آمازون و مایکروسافت مدل R1 را در پلتفرم‌های ابری خود ادغام کرده‌اند و این در حالی است که آمازون بزرگترین حامی شرکت انتروپیک محسوب می‌شود.

حقیقت تازه جهان هوش مصنوعی: دیپ‌سیک در تراز پیشتازان آمریکایی قرار دارد

با این همه آمودی توانمندی‌های ابزار چینی را در سطح بالایی برآورد می‌کند و دیپ‌سیک را رقیب تازه‌ای می‌داند که در سطحی قابل قیاس با شرکت‌های پیشتاز هوش مصنوعی آمریکا قرار دارد. دیپ‌سیک با عرضه مدل استدلال‌گر R1 نه تنها سلطه اوپن‌ای‌آی در مدل‌های استدلال‌گر را به چالش کشید، بلکه این کار را با هزینه‌ای کمتر و محدودیت دسترسی به پردازنده‌های پیشرفته انویدیا و با ترفند‌های نوآروانه انجام داد.

آمودی در پادکست ChinaTalk با اشاره به موفقیت گفت: «حقیقت تازه این است که یک رقیب تازه وجود دارد. در میان شرکت‌های بزرگی که می‌توانند هوش مصنوعی آموزش دهند (انتروپیک، اوپن‌ای‌آی، گوگل و شاید متا و xAI)، احتمالا باید دیپ‌سیک را نیز به این دسته اضافه کرد.»

اگرچه آمودی تیم دیپ‌سیک را به عنوان «مهندسان ماهر» تحسین می‌کند اما می‌گوید این شرکت باید «تمهیدات امنیت هوش مصنوعی» را جدی بگیرد.

 

https://pvst.ir/k9p

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو