بلومبرگ:عینک هوشمند اپل تا پایان سال آینده از راه میرسد
مارک گورمن، خبرنگار بلومبرگ که بر اخبار شرکت اپل تمرکز دارد، در گزارش جدیدی مدعی…
۲ خرداد ۱۴۰۴
۲ خرداد ۱۴۰۴
زمان مطالعه : ۴ دقیقه
در جریان نخستین رویداد توسعهدهندگان شرکت انتروپیک با عنوان «Code with Claude» که روز پنجشنبه در سانفرانسیسکو برگزار شد، مدیرعامل این شرکت، داریو آمودی، اظهاراتی جنجالی را پیرامون بحث «هذیانگویی» یا «hallucination» در مدلهای هوش مصنوعی مطرح کرد. او نهتنها این خطاها را مانعی بر سر راه رسیدن به AGI نمیداند، بلکه مدعی است مدلهای هوش مصنوعیِ امروزی از بسیاری از انسانها کمتر دچار این گونه خطاها میشوند.
به گزارش پیوست به نقل از تککرانچ، آمودی معقتد است که بسته به روش اندازهگیری این هذیانگوییها، نرخ آن در سیستمهای هوش مصنوعی کمتر از انسانها است. استارتآپ انتروپیک یکی از استارتآپهای اصلی صنعت هوش مصنوعی است که از حمایت گوگل و آمازون برخودار است و به تمرکز بر بحث امنیت این فناوری شهرت دارد.
داریو آمودی در پاسخ به پرسشی از خبرنگار وبسایت تککرانچ گفت: «واقعا بستگی به نحوهی اندازهگیری دارد، اما من فکر میکنم مدلهای هوش مصنوعی احتمالا کمتر از انسانها دچار هذیان میشوند، هرچند به گونهای تعجبآورتر هذیان میگویند.»
هذیان در هوش مصنوعی به حالتی گفته میشود که مدل اطلاعات نادرست یا ساختگی را در پاسخ به درخواست کاربر به عنوان حقیق ارائه میکند. این مسئله یکی از بزرگترین چالشهای توسعه هوش مصنوعی در کاربردهای حساسی همچون مشاوره حقوقی، پزشکی، یا تحقیقات است.
آمودی همچنین در این نشست بار دیگر موضع جسورانه خود را درباره رسیدن به هوش عمومی مصنوعی (AGI) تکرار کرد. او در مقالهای که سال گذشته منتشر کرده است، پیشبینی میکند که AGI میتواند تا سال ۲۰۲۶ به واقعیت تبدیل شود.
آمودی در رویداد اخیر نیز بار دیگر بر سرعت پیشرفت این فناوری تاکید کرد و توضیح داد که هنوز هیچ مانع بنیادینی بر سر راه این مسیر مشاهده نشده است: «مردم همیشه دنبال موانع سختی هستند که آنچه هوش مصنوعی میتواند انجام دهد را محدود کند، اما چنین موانعی دیده نمیشود. چنین چیزی وجود ندارد.
با این حال، دیدگاه آمودی در تضاد با نظر برخی دیگر از چهرههای سرشناس صنعت هوش مصنوعی است. برای نمونه، دمیس هسابیس، رهبر گوگل دیپمایند، همین هفته در اظهارنظری هشدار داد که مدلهای کنونی هوش مصنوعی هنوز دارای «حفرههای بسیار» هستند و در پاسخ به سوالات بدیهی اشتباه میکنند.
نمونهای از این مشکل در پروندهای قضایی علیه شرکت انتروپیک نیز مطرح شده است: وکیلی به نمایندگی از این استارتآپ در دادگاه از مدل Claude برای تولید ارجاعات استفاده کرده بود، اما مدل اطلاعات جعلی، اسامی اشتباه و موقعیتهای غلطی را ارائه کرد و در نتیجه آن وکیل انتروپیک مجبور به عذرخواهی شد.
یکی از نگرانیهای اخیر فعالان صنعت هوش مصنوعی این است که برخی از مدلهای پیشرفتهتر، حتی بیش از نسلهای قبلی خود دچار هذیان میشوند. بهعنوان مثال، مدلهای جدید اوپنایآی از جمله o3 و o4-mini در آزمایشهای استدلالی، نرخ هذیان بالاتری از نسخههای پیشین مانند GPT-4 دارند، و جالبتر آنکه حتی خود اوپنایآی دلیل دقیق این مسئله را نمیداند.
با این حال، راهکارهایی برای کاهش نرخ هذیان در حال توسعه هستند. دسترسی مدلها به جستوجوی وب، یکی از تکنیکهایی است که نتایج امیدوارکنندهای داشته است. همچنین برخی مدلها مانند GPT-4.5 بهطور محسوسی نرخ هذیان کمتری نسبت به نسخههای قبلی از خود نشان دادهاند.
آمودی در ادامه نشست اشاره کرد که هذیانهای هوش مصنوعی بیشتر به خاطر نحوه ارائه است که خطرناک محسوب میشوند. آمودی در توضیحات خود تصریح کرد که انسانها، از مجری تلویزیون گرفته تا سیاستمدار و فرد عادی، همگی دچار اشتباه میشوند. پس این که هوش مصنوعی اشتباه کند، بهخودیخود نشانه ضعف نیست اما مساله در نحوه بیان این اشتباهات است و اعتمادبهنفس در ارائه آنها به عنوان اطلاعات واقعی.
در این زمینه، انتروپیک خودش تحقیقاتی درباره تمایل برخی مدلها به فریب یا «دروغ گفتن» انجام داده است. برای مثال، نسخه اولیه مدل قدرتمند Claude Opus 4 بهشدت به «دسیسهچینی» و «فریبکاری» متهم شده بود؛ تا حدی که موسسه Apollo Research، یک مرکز ایمنی فناوری، پیشنهاد عدم انتشار این مدل را داده بود. در پاسخ، انتروپیک اعلام کرد که با اقدامات اصلاحی، این رفتارهای نگرانکننده را کاهش داده است.
یکی از نکات بحثبرانگیز در این رویداد، دیدگاه آمودی نسبت به هذیانگویی در پیشرفتهترین مدلها حتی هوش مصنوعی عمومی بود.
آمودی معتقد است که هذیانگویی مدلها مانعی برای تبدیل آنها به AGI نیست. این دیدگاه برای بسیاری از متخصصان قابلقبول نیست، چرا که هوش سطح انسانی به توانایی درک، استدلال و صداقت اطلاعاتی بستگی دارد و متخصصان هوش مصنوعی عمومی را ابزاری تعریف میکنند که در سطح انسان یا حتی فراتر از آن توانی ذهنی دارد.
اما از نگاه آمودی، رسیدن به AGI به معنای بیخطا بودن کامل نیست، بلکه به توانایی کلی مدل در درک و تصمیمگیری مدلهای هوش مصنوعی اشاره دارد.