استراتژیهای ملی هوش مصنوعی در کشورهای نوردیک
کشورهای اروپایی، بهویژه در منطقه نوردیک ( شمال اروپا و شمال اقیانوس اطلس)، با تدوین…
۲۶ فروردین ۱۴۰۴
۲۵ فروردین ۱۴۰۴
زمان مطالعه : ۳ دقیقه
شرکت اوپنایآی اعلام کرده است که بهزودی ممکن است دسترسی سازمانها به برخی از مدلهای پیشرفته آینده خود را منوط به طیکردن فرایند احراز هویت کند که متقاضیان دسترسی در این فرایند باید اطلاعات هویتی مورد تایید این شرکت را در اختیار این شرکت بگذارند. از آنجایی که این اقدام احراز هویت و درنتیجه دسترسی برای شرکتهای مستقر در کشورهای غیرمجاز را غیرممکن میکند، در صورت اجرای این طرح دسترسی فعالان چندین کشور از جمله روسیه و ایران به این مدلهای جدید با مشکلات جدی روبرو خواهد شد.
به گزارش پیوست به نقل از تککرانچ، اوپنایآی در صفحه پشتیبانی جدیدی که هفته گذشته در وبسایت رسمی این شرکت منتشر شده است، اطلاعات این فرایند جدید تایید هویت را منتشر کرده است. به نظر میرسد که اقدام جدید این شرکت در راستای جلوگیری از استفاده شرکتهای رقیب از مدلهای پیشرفته برای آموزش و تقطیر دانش است.
پیش از این گزارشهای منتشر شده مدعی شده بودند که شرکت دیپسیک، رقیب چینی اوپنایآی، از API این شرکت آمریکایی برای تقطیر دانش و در نتیجه بهبود عملکرد مدلهای خود استفاده کرده است و از همین طریق بخش قابل توجهی از هزینههای خود را کاهش داده است.
با اینکه استفاده از API اوپنایآی برای دیگر شرکتها مجاز است اما شرایط استفاده این شرکت تصریح میکند که نباید از مدلهای اوپنایآی برای توسعه ابزارهای رقیب استفاده کرد.
طبق اطلاعات منتشرشده از سوی اوپنایآی، سازمانها و شرکتهایی که خواستار دسترسی به API این شرکت هستند باید مدرک شناسایی معتبر دولتی را برای احراز هویت در اختیار شرکت بگذارند و همچنین فرایند احراز هویت تنها برای کشورهایی امکانپذیر است که API این شرکت از آنها پشتیبانی میکند
هر مدرک هویتی را در طول بازه سه ماهه تنها میتوان برای احراز هویت یک سازمان مورد استفاده قرار داد و همچنینی همه سازمانها واجد شرایط نخواهند بود و ممکن است دسترسی آنها تایید نشود. اوپنایآی در صفحه پشتیبانی خود تاکید کرده است که هدف از این اقدام، اطمینان از دسترسی ایمن و مسئولانه به هوش مصنوعی است.
این شرکت میگوید: «متاسفانه اقلیت کوچکی از توسعهدهندگان به عمد از APIهای اوپنایآی در تضاد با سیاستهای ما استفاده میکنند. ما برای جلوگیری از استفاده نا امن از هوش مصنوعی و در عین حال ادامه ارائه مدلهای پیشرفته به جامعه توسعه دهندگان، فرایند احراز هویت را اضافه میکنیم.»
به نظر میرسد این اقدام در راستای افزایش امنیت دسترسی به محصولات پیشرفته اوپنایآی انجام میگیرد؛ بهویژه در شرایطی که این مدلها از پیچیدگی و توانمندی بالاتری برخوردار شدهاند. اوپنایآی در گزارشهایی پیشتر به تلاشهای خود برای شناسایی و مهار استفاده مخرب از مدلهایش از جمله توسط گروههایی که گمان میرود در کره شمالی مستقر باشند، اشاره کرده بود.
همچنین این سیاست جدید میتواند با هدف جلوگیری از سرقت مالکیت فکری اتخاذ شده باشد. طبق گزارشی از بلومبرگ در اوایل سال جاری، اوپنایآی تحقیقاتی را درباره احتمال دستبرد اطلاعاتی توسط گروهی مرتبط با آزمایشگاه هوش مصنوعی چینی دیپسیک آغاز کرده بود؛ این گروه احتمالا در اواخر سال ۲۰۲۴ از طریق API حجم بالایی از دادهها را استخراج کرده است، اقدامی با شرایط استفاده از خدمات اوپنایآی در تضاد است.