skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

گوگل برای بهبود جمنای از چت‌بات شرکت آنتروپیک استفاده می‌کند

۵ دی ۱۴۰۳

زمان مطالعه : ۳ دقیقه

براساس مکاتبات داخلی که به رویت تک‌کرانچ رسیده است، پیمانکارهایی که روی بهبود هوش مصنوعی جمنای مشغول به کار هستند خروجی‌های این هوش مصنوعی را با پاسخ‌های مدل Claude از شرکت آنتروپیک مقایسه می‌کنند.

به گزارش پیوست، گوگل در پاسخ به درخواست اظهارنظر درمورد اجازه این شرکت برای استفاده از Claude در روند آزمایش جمنای پاسخی نداده است اما این شرکت یکی از سرمایه‌گذاران آنتروپیک محسوب می‌شود و طبق گزارش‌ها حدود ۲ میلیارد دلار روی این استارت‌آپ سرمایه‌گذاری کرده است.

با اینکه شرکت‌های فناوری در تلاش برای بهبود مدل‌های هوش مصنوعی عملکرد مدل‌های خود را با محصولات رقبا مقایسه می‌کنند اما برای این کار معمولا مدل‌های خود را براساس بنچمارک‌هایی آزمایش می‌کنند که رقبا نیز براساس آنها ارزیابی شده‌اند. با این حال گوگل در اقدام متفاوتی از پیمانکارهایی برای قیاس مستقیم دو مدل استفاده کرده است.

پیمانکارهای گوگل وظیفه دارند تا دقت خروجی‌های مدل جمنای را ارزیابی کنند و هر پاسخ را از لحاظ معیارهای مختلفی مثل صداقت و پرگویی بررسی کنند. این پیمانکار‌ها حدود ۳۰ دقیقه به هر پرامپت و مقایسه پاسخ دو مدل زمان می‌دهند.

مکاتبات داخلی نشان می‌دهد که پیمانکاران گوگل به تازگی متوجه اشاره به چت‌بات Claude از انتروپیک در پلتفرم ارزیابی گوگل برای مقایسه جمنای با دیگر مدل‌های گمنام هوش مصنوعی شده‌اند. در حداقل یکی از خروجی‌ها که در اختیار تک‌کرانچ قرار گرفته است، چت‌بات تصریح می‌کند که «من Claude هستم، ساخته آنتروپیک.»

یکی از مکالمات داخلی نشان می‌دهد که پیمانکاران متوجه شده‌اند چت‌بات ساخته آنتروپیک بیشتر از جمنای بر ایمنی تاکید دارد. یکی از پیمانکاران می‌نویسد: «تنظیمات امنیتی Claude سفت و سخت‌تر» از دیگر مدل‌های هوش مصنوعی هستند. در یک سری از موارد، Claude به پرامپت‌هایی که نا امن تشخیص داده می‌شوند، مثل تقلید از یک دستیار هوش مصنوعی متفاوت، پاسخ نمی‌دهد. در مورد دیگری، Claude از پاسخ به پرامپتی خود داری کرده است و جمنای این پرامپت را «نقض شدید ایمنی» نشانه‌گذاری کرده است که شامل «برهنگی و بردگی است.»

شروط استفاده تجاری آنتروپیک کاربران را از دسترسی به Claude برای «ساخت یک محصول یا خدمت رقیب» یا «آموزش مدل‌های هوش مصنوعی رقیب» بدون تاییدیه آنتروپیک منع می‌کند. گوگل یکی از سرمایه‌گذاران بزرگ آنتروپیک محسوب می‌شود و در نتیجه ممکن است اجازه چنین کاری را از این شرکت دریافت کرده باشد.

تک کرانچ می‌گوید شیرا مک‌نامارا، یکی از سخنگویان گوگل دیپ‌ماین، واحد هوش مصنوعی گوگل، پاسخی درمورد کسب اجازه گوگل از آنتروپیک نداده است. یکی از سخنگویان آنتروپیک نیز پاسخی به درخواست اظهارنظر در این باره ارائه نکرده است.

مک‌نامارا می‌گوید دیپ‌ماین «خروجی‌های مدل را» برای ارزیابی‌ها مقایسه می‌کند اما جمنای را براساس مدل‌های آنتروپیک آموزش نمی‌دهد.

او می‌گوید: «البته که مطابق با فعالیت استاندارد صنعتی، در برخی از موارد ما خروجی‌‌های مدل را به عنوان بخشی از فرایند ارزیابی خود مقایسه می‌کنیم. با این حال، اینکه ما از مدل‌های آنتروپیک برای آموزش جمنای استفاده کرده‌ایم درست نیست.»

پیش از این گزارشی از تک‌کرانچ مدعی شده بود که پیمانکاران گوگل وظیفه دارند تا برای ارزیابی محصولات هوش مصنوعی این شرکت، پاسخ‌های هوش مصنوعی جمنای را در حوزه‌هایی خارج از تخصص خود بررسی کنند. مکاتبات داخلی به نگرانی پیمانکاران از احتمال تولید اطلاعات بی دقت جمنای در موضوعات حساسی مثل حوزه سلامت و درمان اشراه می‌کنند.

 

https://pvst.ir/ju0

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو