تامسون رویترز در یکی از اولین پروندههای نقض حق نشر هوش مصنوعی به پیروزی رسید
تامسون رویترز، شرکت مادر خبرگزاری رویترز، که در سال ۲۰۲۰ و پیش از موج جدید…
۲۴ بهمن ۱۴۰۳
۲۴ بهمن ۱۴۰۳
زمان مطالعه : ۴ دقیقه
اریک اشمیت، رئیس سابق گوگل، که به تازگی در اجلاس بینالمللی هوش صمنوعی در پاریس حاضر شده است، درمورد لزوم تمرکز بر رویکرد متنباز و تغییر رویه جاری به کشورهای غربی هشدار داد. اشمیت معتقد است که کشورهای غربی در صورت عدم تمرکز بر توسعه مدلهای هوش مصنوعی متنباز، در رقابت جهانی از چین شکست میخورند.
به گزارش پیوست به نقل از فایننشال تایمز، اشمیت در حالی به غرب هشدار میدهد که استارتآپ چینی دیپسیک ماه گذشته با مدل متنباز استدلالگر R1 جهان را شوکه کرد. دیپسیک مدعی است که این مدل را بهینهتر از رقبای آمریکایی خود توسعه داده است.
عرضه مدلهای دیپسیک نشان داد که حتی با وجود تحریمهای غرب و عدم دسترسی به پردازندههای پیشرفته نیز فعالان این کشور قادر به توسعه مدلهای قدرتمند و رقابت با همتایان غربی خود هستند. از آنجایی که دیپسیک و چندین فعال چینی برخلاف همتایان غربی خود رویکرد متنباز را اتخاذ کردهاند، اشمیت معتقد است در صورت بیتفاوتی کشورها و شرکتهای غربی، چین به پیشتاز متنباز جهان تبدیل میشود و دیگر بخشهای جهان در همان رویکرد متنبسته یا اختصاصی خود گیر میکنند.
اشمیت، سرمایهگذار و یکی از حامیان بزرگ فناوری، میگوید بیشتر مدلهای بزرگ زبانی آمریکا متنبسته یا اختصاصی هستند که یعنی دسترسی آزاد به آنها ممکن نیست و این لیست مدلهای پیشتاز هوش مصنوعی از جمنای گوگل گرفته تا GPT-4 اوپنایآی را شامل میشود و شرکت متا تنها بازیگر بزرگ آمریکایی است که رویکرد متنباز را اتخاذ کرده است.
مدلهای متنباز ابزار مناسبی برای فعالان فناوری در کشورهای کمتر توسعه یافته و با منابع محدود هستند، پیشروی چین در این مسیر میتواند نفوذ مدلهای ساخته این کشور را در این بازارها نیز افزایش دهد.
اشمیت در مصاحبه با فایننشال تایمز گفت: «اگر کاری در این باره نکنید، چین در نهایت به رهبر متنباز تبدیل میشود و دیگر بخشهای جهان متن بسته خواهند شد.»
اشمیت میگوید عدم سرمایهگذاری روی فناوریهای متنباز جلوی اکتشاف علمی را در دانشگاههای غربی که شاید توان مالی توسعه مدلهای متن بسته را ندارند، میگیرد.
سم آلتمن، مدیرعامل اوپنایآی، ماه گذشته پس از عرضه مدل متنباز دیپسیک اعتراف کرد که شرکتش در زمینه مدلهای متن باز در «سمت اشتباه تاریخ» بودهاند و اوپنایآی باید استراتژی تازهای برای ادامه روند خود در نظر بگیرد که البته در اولویت اصلی شرکت نیست.
اوپنایآی به عنوان توسعه دهنده قدرتمندترین مدلهای هوش مصنوعی جهان، یکی از دلایل اصلی پیشتازی آمریکا در این صنعت و در حال حاضر همکاری نزدیکی را با دولت جدید ایالات متحده در پیش گرفته است. با این حال گفتههای آلتمن نشان میدهد که حتی با وجود اعتراف به اشتباه نیز این شرکت رویکرد متنباز را همچنان در اولویت خود ندارد.
به نظر میرسد که از نگاه اوپنایآی رویکرد اختصاصی همچنان برای این شرکت بهترین استراتژی است.
شرکت تحت رهبری آلتمن به جذب سرمایه بیشتر مشغول است و براساس گزارشهای اخیر به دنبال جذب حدود ۴۰ میلیارد دلار از سافتبنک ژاپن با ارزشگذاری ۳۰۰ میلیارد دلاری است. دیگر شرکتهای بزرگ آمریکایی از جمله گوگل و آمازون نیز میلیاردها دلار روی مدلهای اختصاصی یا بسته سرمایهگذاری کردهاند و باور دارند که چنین رویکردی بهترین راه برای تضمین بازدهی سرمایه است.
اشمیت با اشاره به اینکه آینده سلطه بر هوش مصنوعی از ترکیب رویکرد متنباز و اختصاصی تشکیل میشود، گفت: «به نظرم [آلتمن] کمی عجله کرد.»
با اینکه ایالات متحده با ساخت مدلهای قدرتمند هوش مصنوعی از جمله GPT-4 بر اولین مرحله هوش مصنوعی مسلط بود، اما به گفته اشمیت اروپا با پرداختن به بحث نحوه استفاده از هوش مصنوعی و ساخت اپلیکیشنهای مبتنی بر این فناوری جهشی را رقم زده است.
او میگوید: «اروپا باید خودش را جمع و جور کند. لایه اپلیکیشن بسیار قدرتمند است و اروپا را بهینهتر خواهد کرد.»
اشمیت روز چهارشنبه اعلام کرد که ۱۰ میلیون دلار از طریق بنیاد خیریه Schmidt Sciences که با همراهی همسرش وندی راهاندازی کرده است، برای برنامه علوم امنیت هوش مصنوعی سرمایهگذاری میکند.
این برنامه شامل ۲۷ پروژهای است که بر تحقیقات بنیادی ایمنی هوش مصنوعی تمرکز دارند. دانشمندانی همچون یوشوا بنجیو، برنده جایزه تورینگ علوم کامپیوتر، در این طرح به توسعه فناوری پیشگیری از خطر برای سیستمهای هوش مصنوعی مشغول هستند.
اشمیت از کشورهای غربی خواسته است تا در زمینه امنیت هوش مصنوعی با چین که مشکلات مشابهی را در مواجه با این فناوری قدرتمند تجربه میکند، همکاری کنند. او این سبک همکاری را با اشتراکگذاری اطلاعات میان ارتشها پس از تست موشکی قیاس میکند.
اشمیت میگوید: «اینکه ما اطلاعاتی به آنها بدهیم که برای ایمن کردن مدلهایشان استفاده کنند چطور میتواند برای ما بد باشد.»