اوپنایآی با سرمایهگذاری سافتبنک ژاپن حدود ۳۰۰ میلیارد دلار ارزشگذاری میشود
گزارشی از نیویورک تایمز میگوید اوپنایآی در حال انعقاد یک قرارداد جذب سرمایه ۴۰ میلیارد…
۲۰ بهمن ۱۴۰۳
۲۰ بهمن ۱۴۰۳
زمان مطالعه : ۴ دقیقه
داریو آمودی، مدیرعامل شرکت هوش مصنوعی انتروپیک، نگران امنیت شرکت هوش مصنوعی دیپسیک است که با عرضه مدل استدلالگر R1 شوک شدیدی به بازار سرمایه آمریکا وارد کرد. آمودی طی گفتگویی درمورد این شرکت گفت که مدل ساخته دیپسیک «بدترین عملکرد» را در میان مدلهای بررسی شده از لحاظ امنیتی به نمایش گذاشته است و تقریبا «هیچ مانعی» برای تولید اطلاعات ندارد.
به گزارش پیوست به نقل از تککرانچ، آمودی انتقادات تند خود را در پادکست ChinaTalk به میزبانی جردن اشنایدر مطرح کرد. به گفته او این هوش مصنوعی اطلاعات نایابی را درمورد سلاحهای شیمیایی تولید میکند.
شرکت انتروپیک خود را به عنوان پیشتاز امنیت در بین استارتآپهای بزرگ هوش مصنوعی معرفی میکند و تمرکز ویژهای بر راهکارهای جدید حفظ ایمنی این سیستمها دارد. این شرکت در مقاله تازهای از یک راهکار تازه با نرخ موفقیت بالا برای جلوگیری از جیلبریک هوش مصنوعی رونمایی کرده است.
آمودی میگوید هوش مصنوعی چینی را به عنوان بخشی از ارزیابیهای روتین انتروپیک روی مدلهای مختلف هوش مصنوعی بررسی کردهاند که خطرات احتمالی ابزارهای هوش مصنوعی را از لحاظ امنیت ملی مورد بررسی قرار میدهد.
آمودی مدعی شد که عملکرد هوش مصنوعی دیپسیک «اساسا در میان تمام مدلهایی که تا به حال آزمایش کردهایم، بدترین بود. [این هوش مصنوعی] تقریبا هیچ مانعی در برابر تولید این اطلاعات نداشت.»
تیم او در این آزمون مدلهای مختلف را از لحاظ تولید اطلاعات مربوط به سلاحهای شیمیایی بررسی کردهاند، اما اطلاعاتی که به راحتی در گوگل یا کتابچهها پیدا نمیشوند.
آمودی میگوید از نظر او مدلهای دیپسیک در حال حاضر از لحاظ ارائه اطلاعات نایاب و خطرناک، «به معنای واقعی کلمه خطرناک» نیستند اما ممکن است در آینده چنین ماهیتی پیدا کنند. آمودی همچنین با اشاره به نگرانیهایی که درمورد استفاده نظامی چین از هوش مصنوعی وجود دارد، از محدودیتهای صادرات چیپ به این کشور حمایت کرده است.
مدیرعامل انتروپیک مشخص نکرد که در این آزمون از کدام مدل دیپسیک استفاده شده است و جزئیاتی نیز از این آزمون ارائه نشد.
دیپسیک تا به امروز نگرانیهای امنیتی متعددی را برانگیخته است. برای مثال پژوهشگران شرکت Cisco هفته گذشته اعلام کردند که مدل R1 دیپسیک هیچ کدام از پرامپتهای خطرناک تست ایمنی آنها را مسدود نکرده است و آزمون این مدل با نرخ موفقیت ۱۰۰ درصدی برای جیلبریک به پایان رسید.
شرکت Cisco اشاره ویژهای به سلاحهای شیمیایی نکرده است اما میگوید توانسته است اطلاعات خطرناکی را درمورد جرایم سایبری یا دیگر فعالیتهای غیرمجاز تولید کند. البته باید گفت که دیگر مدلهای پیشتاز از جمله Llama 3.1-405B از شرکت متا و GPT-4o شرکت اوپنایآی نیز به ترتیب در جلوگیری از ۹۶ درصد و ۸۶ درصد از تلاشهای جیلبریک شکست خوردند.
باید دید که آیا این تهدیدها و کاستیهای امنیتی هوش مصنوعی چینی ممکن است به مانعی برای افزایش نفوذ آن تبدیل شود یا خیر. طبق گزارش بلومبرگ، دولت فدرال کانادا به دلیل «نگرانیهای جدی حریم خصوصی» استفاده از هوش مصنوعی دیپسیک را در دستگاههای دولتی ممنوع کرده است. همچنین سازمانهای نیروی دریایی آمریکا و پنتاگون نیز فرایند ممنوعیت این چتبات را آغاز کردهاند.
با این حال شرکتهایی همچون AWS، بخش زیرساخت ابر آمازون و مایکروسافت مدل R1 را در پلتفرمهای ابری خود ادغام کردهاند و این در حالی است که آمازون بزرگترین حامی شرکت انتروپیک محسوب میشود.
با این همه آمودی توانمندیهای ابزار چینی را در سطح بالایی برآورد میکند و دیپسیک را رقیب تازهای میداند که در سطحی قابل قیاس با شرکتهای پیشتاز هوش مصنوعی آمریکا قرار دارد. دیپسیک با عرضه مدل استدلالگر R1 نه تنها سلطه اوپنایآی در مدلهای استدلالگر را به چالش کشید، بلکه این کار را با هزینهای کمتر و محدودیت دسترسی به پردازندههای پیشرفته انویدیا و با ترفندهای نوآروانه انجام داد.
آمودی در پادکست ChinaTalk با اشاره به موفقیت گفت: «حقیقت تازه این است که یک رقیب تازه وجود دارد. در میان شرکتهای بزرگی که میتوانند هوش مصنوعی آموزش دهند (انتروپیک، اوپنایآی، گوگل و شاید متا و xAI)، احتمالا باید دیپسیک را نیز به این دسته اضافه کرد.»
اگرچه آمودی تیم دیپسیک را به عنوان «مهندسان ماهر» تحسین میکند اما میگوید این شرکت باید «تمهیدات امنیت هوش مصنوعی» را جدی بگیرد.