اینترنت مملو از نقد و بررسیهای جعلی ساخته هوش مصنوعی است
ظهور ابزارهای هوش مصنوعی مولد این امکان را فراهم کرده است تا افراد تقریبا بدون…
۴ دی ۱۴۰۳
۵ دی ۱۴۰۳
زمان مطالعه : ۳ دقیقه
براساس مکاتبات داخلی که به رویت تککرانچ رسیده است، پیمانکارهایی که روی بهبود هوش مصنوعی جمنای مشغول به کار هستند خروجیهای این هوش مصنوعی را با پاسخهای مدل Claude از شرکت آنتروپیک مقایسه میکنند.
به گزارش پیوست، گوگل در پاسخ به درخواست اظهارنظر درمورد اجازه این شرکت برای استفاده از Claude در روند آزمایش جمنای پاسخی نداده است اما این شرکت یکی از سرمایهگذاران آنتروپیک محسوب میشود و طبق گزارشها حدود ۲ میلیارد دلار روی این استارتآپ سرمایهگذاری کرده است.
با اینکه شرکتهای فناوری در تلاش برای بهبود مدلهای هوش مصنوعی عملکرد مدلهای خود را با محصولات رقبا مقایسه میکنند اما برای این کار معمولا مدلهای خود را براساس بنچمارکهایی آزمایش میکنند که رقبا نیز براساس آنها ارزیابی شدهاند. با این حال گوگل در اقدام متفاوتی از پیمانکارهایی برای قیاس مستقیم دو مدل استفاده کرده است.
پیمانکارهای گوگل وظیفه دارند تا دقت خروجیهای مدل جمنای را ارزیابی کنند و هر پاسخ را از لحاظ معیارهای مختلفی مثل صداقت و پرگویی بررسی کنند. این پیمانکارها حدود ۳۰ دقیقه به هر پرامپت و مقایسه پاسخ دو مدل زمان میدهند.
مکاتبات داخلی نشان میدهد که پیمانکاران گوگل به تازگی متوجه اشاره به چتبات Claude از انتروپیک در پلتفرم ارزیابی گوگل برای مقایسه جمنای با دیگر مدلهای گمنام هوش مصنوعی شدهاند. در حداقل یکی از خروجیها که در اختیار تککرانچ قرار گرفته است، چتبات تصریح میکند که «من Claude هستم، ساخته آنتروپیک.»
یکی از مکالمات داخلی نشان میدهد که پیمانکاران متوجه شدهاند چتبات ساخته آنتروپیک بیشتر از جمنای بر ایمنی تاکید دارد. یکی از پیمانکاران مینویسد: «تنظیمات امنیتی Claude سفت و سختتر» از دیگر مدلهای هوش مصنوعی هستند. در یک سری از موارد، Claude به پرامپتهایی که نا امن تشخیص داده میشوند، مثل تقلید از یک دستیار هوش مصنوعی متفاوت، پاسخ نمیدهد. در مورد دیگری، Claude از پاسخ به پرامپتی خود داری کرده است و جمنای این پرامپت را «نقض شدید ایمنی» نشانهگذاری کرده است که شامل «برهنگی و بردگی است.»
شروط استفاده تجاری آنتروپیک کاربران را از دسترسی به Claude برای «ساخت یک محصول یا خدمت رقیب» یا «آموزش مدلهای هوش مصنوعی رقیب» بدون تاییدیه آنتروپیک منع میکند. گوگل یکی از سرمایهگذاران بزرگ آنتروپیک محسوب میشود و در نتیجه ممکن است اجازه چنین کاری را از این شرکت دریافت کرده باشد.
تک کرانچ میگوید شیرا مکنامارا، یکی از سخنگویان گوگل دیپماین، واحد هوش مصنوعی گوگل، پاسخی درمورد کسب اجازه گوگل از آنتروپیک نداده است. یکی از سخنگویان آنتروپیک نیز پاسخی به درخواست اظهارنظر در این باره ارائه نکرده است.
مکنامارا میگوید دیپماین «خروجیهای مدل را» برای ارزیابیها مقایسه میکند اما جمنای را براساس مدلهای آنتروپیک آموزش نمیدهد.
او میگوید: «البته که مطابق با فعالیت استاندارد صنعتی، در برخی از موارد ما خروجیهای مدل را به عنوان بخشی از فرایند ارزیابی خود مقایسه میکنیم. با این حال، اینکه ما از مدلهای آنتروپیک برای آموزش جمنای استفاده کردهایم درست نیست.»
پیش از این گزارشی از تککرانچ مدعی شده بود که پیمانکاران گوگل وظیفه دارند تا برای ارزیابی محصولات هوش مصنوعی این شرکت، پاسخهای هوش مصنوعی جمنای را در حوزههایی خارج از تخصص خود بررسی کنند. مکاتبات داخلی به نگرانی پیمانکاران از احتمال تولید اطلاعات بی دقت جمنای در موضوعات حساسی مثل حوزه سلامت و درمان اشراه میکنند.