skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

مدیرعامل انتروپیک می‌گوید انسان‌ها بیشتر از هوش مصنوعی دچار خطای ذهنی یا «هذیان» می‌شوند

۲ خرداد ۱۴۰۴

زمان مطالعه : ۴ دقیقه

در جریان نخستین رویداد توسعه‌دهندگان شرکت انتروپیک با عنوان «Code with Claude» که روز پنج‌شنبه در سان‌فرانسیسکو برگزار شد، مدیرعامل این شرکت، داریو آمودی، اظهاراتی جنجالی را پیرامون بحث «هذیان‌گویی» یا «hallucination» در مدل‌های هوش مصنوعی مطرح کرد. او نه‌تنها این خطاها را مانعی بر سر راه رسیدن به AGI نمی‌داند، بلکه مدعی است مدل‌های هوش مصنوعیِ امروزی از بسیاری از انسان‌ها کمتر دچار این گونه خطاها می‌شوند.

به گزارش پیوست به نقل از تک‌کرانچ،‌ آمودی معقتد است که بسته به روش اندازه‌گیری این هذیان‌گویی‌ها، نرخ آن در سیستم‌های هوش مصنوعی کمتر از انسان‌ها است. استارت‌آپ انتروپیک یکی از استارت‌آپ‌های اصلی صنعت هوش مصنوعی است که از حمایت گوگل و آمازون برخودار است و به تمرکز بر بحث امنیت این فناوری شهرت دارد.

داریو آمودی در پاسخ به پرسشی از خبرنگار وب‌سایت تک‌کرانچ گفت: «واقعا بستگی به نحوه‌ی اندازه‌گیری دارد، اما من فکر می‌کنم مدل‌های هوش مصنوعی احتمالا کمتر از انسان‌ها دچار هذیان می‌شوند، هرچند به گونه‌ای تعجب‌آور‌تر هذیان می‌گویند.»

هذیان در هوش مصنوعی به حالتی گفته می‌شود که مدل اطلاعات نادرست یا ساختگی را در پاسخ به درخواست کاربر به عنوان حقیق ارائه می‌کند. این مسئله یکی از بزرگ‌ترین چالش‌های توسعه هوش مصنوعی در کاربردهای حساسی همچون مشاوره حقوقی، پزشکی، یا تحقیقات است.

مانعی در مسیر هوش مصنوعی عمومی نیست

آمودی همچنین در این نشست بار دیگر موضع جسورانه خود را درباره رسیدن به هوش عمومی مصنوعی (AGI) ‌تکرار کرد. او در مقاله‌ای که سال گذشته منتشر کرده است، پیش‌بینی می‌کند که AGI می‌تواند تا سال ۲۰۲۶ به واقعیت تبدیل شود.

آمودی در رویداد اخیر نیز بار دیگر بر سرعت پیشرفت این فناوری تاکید کرد و توضیح داد که هنوز هیچ مانع بنیادینی بر سر راه این مسیر مشاهده نشده است: «مردم همیشه دنبال موانع سختی هستند که آنچه هوش مصنوعی می‌تواند انجام دهد را محدود کند، اما چنین موانعی دیده نمی‌شود. چنین چیزی وجود ندارد.

متفاوت از رقبا

با این حال، دیدگاه آمودی در تضاد با نظر برخی دیگر از چهره‌های سرشناس صنعت هوش مصنوعی است. برای نمونه، دمیس هسابیس، رهبر گوگل دیپ‌مایند، همین هفته در اظهارنظری هشدار داد که مدل‌های کنونی هوش مصنوعی هنوز دارای «حفره‌های بسیار» هستند و در پاسخ به سوالات بدیهی اشتباه می‌کنند.

نمونه‌ای از این مشکل در پرونده‌ای قضایی علیه شرکت انتروپیک نیز مطرح شده است: وکیلی به نمایندگی از این استارت‌آپ در دادگاه از مدل Claude برای تولید ارجاعات استفاده کرده بود، اما مدل اطلاعات جعلی، اسامی اشتباه و موقعیت‌های غلطی را ارائه کرد و در نتیجه آن وکیل انتروپیک مجبور به عذرخواهی شد.

یکی از نگرانی‌های اخیر فعالان صنعت هوش مصنوعی این است که برخی از مدل‌های پیشرفته‌تر، حتی بیش از نسل‌های قبلی خود دچار هذیان می‌شوند. به‌عنوان مثال، مدل‌های جدید اوپن‌ای‌آی از جمله o3 و o4-mini در آزمایش‌های استدلالی، نرخ هذیان بالاتری از نسخه‌های پیشین مانند GPT-4 دارند، و جالب‌تر آنکه حتی خود اوپن‌ای‌آی دلیل دقیق این مسئله را نمی‌داند.

با این حال، راهکارهایی برای کاهش نرخ هذیان در حال توسعه هستند. دسترسی مدل‌ها به جست‌وجوی وب، یکی از تکنیک‌هایی است که نتایج امیدوارکننده‌ای داشته است. همچنین برخی مدل‌ها مانند GPT-4.5 به‌طور محسوسی نرخ هذیان کمتری نسبت به نسخه‌های قبلی از خود نشان داده‌اند.

مشکل در نحوه بیان توهمات است

آمودی در ادامه نشست اشاره کرد که هذیان‌های هوش مصنوعی بیشتر به خاطر نحوه ارائه است که خطرناک محسوب می‌شوند. آمودی در توضیحات خود تصریح کرد که انسان‌ها، از مجری تلویزیون گرفته تا  سیاست‌مدار و فرد عادی، همگی دچار اشتباه می‌شوند. پس این که هوش مصنوعی اشتباه کند، به‌خودی‌خود نشانه ضعف نیست اما مساله در نحوه بیان این اشتباهات است و اعتمادبه‌نفس در ارائه آنها به عنوان اطلاعات واقعی.

در این زمینه، انتروپیک خودش تحقیقاتی درباره تمایل برخی مدل‌ها به فریب یا «دروغ گفتن» انجام داده است. برای مثال، نسخه اولیه مدل قدرتمند Claude Opus 4 به‌شدت به «دسیسه‌چینی» و «فریب‌کاری» متهم شده بود؛ تا حدی که موسسه Apollo Research، یک مرکز ایمنی فناوری، پیشنهاد عدم انتشار این مدل را داده بود. در پاسخ، انتروپیک اعلام کرد که با اقدامات اصلاحی، این رفتارهای نگران‌کننده را کاهش داده است.

آیا مدلی که دچار هذیان می‌شود را می‌توان AGI دانست؟

یکی از نکات بحث‌برانگیز در این رویداد، دیدگاه آمودی نسبت به هذیان‌گویی در پیشرفته‌ترین مدل‌ها حتی هوش مصنوعی عمومی بود.

آمودی معتقد است که هذیان‌گویی مدل‌ها مانعی برای تبدیل آنها به AGI نیست. این دیدگاه برای بسیاری از متخصصان قابل‌قبول نیست، چرا که هوش سطح انسانی به توانایی درک، استدلال و صداقت اطلاعاتی بستگی دارد و متخصصان هوش مصنوعی عمومی را ابزاری تعریف می‌کنند که در سطح انسان یا حتی فراتر از آن توانی ذهنی دارد.

اما از نگاه آمودی، رسیدن به AGI به معنای بی‌خطا بودن کامل نیست، بلکه به توانایی کلی مدل در درک و تصمیم‌گیری مدل‌های هوش مصنوعی اشاره دارد.

 

https://pvst.ir/l7h

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو