معرفی سیزده هوش مصنوعی تولید و پردازش تصویر: خلق از حروف ساده
امروزه و با توسعه هوش مصنوعی ابزار پردازش تصویر بسیاری برای تبدیل متن به تصویر…
۳۰ آبان ۱۴۰۳
۲۳ تیر ۱۴۰۳
زمان مطالعه : ۴ دقیقه
خبرگزاری رویترز میگوید با بررسی مستنداتی از شرکت اوپنایآی به اطلاعات پروژهای به نام «Strawberry» یا توتفرنگی دست پیدا کرده که قرار است به لطف «تحقیقات عمیق»، توان استدلال هوش مصنوعی را به شکل چشمگیری تقویت کند. نحوه کارکرد این پروژه حتی از کارکنان شرکت هم پنهان شده است و با اینکه منبع رویترز از این پروژه به عنوان پروژه فعال یاد میکند، اما زمان نهایی شدن آن هنوز مشخص نیست.
به گزارش پیوست، فناوری مد نظر اوپنایآی نه تنها عملکرد بهتری در پاسخ به درخواست کاربران دارد، بلکه به هوش مصنوعی اجازه میدهد تا با برنامهریزی برای آینده، به صورت خودمختار و مطمئن از اینترنت استفاده کند و به «تحقیق عمیق» بپردازد.
طبق گفته دهها پژوهشگر هوش مصنوعی، چنین چیزی از توان مدلهای هوش مصنوعی امروزی خارج است.
رویترز میگوید پروژه استرابری در واقع همان Q* است که سال گذشته گزارش آن به بحث بسیاری منجر شد و حتی برخی از آن به عنوان دلیل اخراج یکباره سم آلتمن یاد می کنند.
سخنگوی اوپنایآی در پاسخ جزئیات آنچه در گزارش رویترز مطرح شده است گفت: «ما میخواهیم مدلهایمان جهان را شبیهتر به ما ببینند و درک کنند. تحقیق مداوم در زمینه توانمندیهای جدید هوش مصنوعی یک فعالیت رایج صنعتی است، با این باور مشترک که این سیستمها با گذشت زمان از لحاظ استدلال تقویت میشوند.»
بلومبرگ نیز در گزارشی مدعی شده است که اوپنایآی در یک جلسه دوموی یک پروژه تحقیقاتی را با مهارتهای اتدلالی شبیه به انسان برای حضار به نمایش گذاشته است. سخنگوی اوپنایآی با وجود تایید این جلسه، از ارائه جزئیات محتوای آن خودداری کرد.
استارتآپ تحت حمایت مایکروسافت امیدوار است که این نوآوری به بهبود چشمگیر تواناییهای استدلال مدلهای هوش مصنوعی کمک کند و استرابری یک راهکار خاص برای پردازش هوش مصنوعی را پس از مرحله آموزش شامل میشود.
محققانی که رویترز در این باره با آنها مصاحبه کرده میگویند استدلال کلید تحقق هوش انسانی یا فرا انسانی است.
با اینکه مدلهای بزرگ زبانی در حال حاضر هم توانایی خلاصهسازی یا ترکیب سریعتری را نسبت به انسان دارند، اما این فناوری معمولا از درک مسائلی که راهحل آنها برای انسان ساده به نظر میرسد، مثل تشخیص استدلالهای غلط، ناتوان است. مدلهای هوش مصنوعی در مواجهه با این مسائل معمولا به تولید اطلاعات غلط و «توهم» میپردازند
پژوهشگران میگویند که استدلال برای هوش مصنوعی به معنی ایجاد مدلی است که بتواند برای کمی بعد برنامهریزی و به خوبی روی مسائل دشوار و چند مرحلهای کار کند.
سم آلتمن، مدیرعامل اوپنایآی، در سال جاری گفت که در هوش مصنوعی «مهمترین حوزههای پیشرفت به توانایی استدلال برمیگردند.»
چهار فردی که در ارائههای اوپنایآی حضور داشته میگویند این شرکت در ماههای اخیر برای توسعه دهندگان و طرفین خارجی اینچنین جلوه داده که در شرف عرضه یک فناوری بسیار پیشرفته برای استدلال است.
با این حال فعالان دیگر هوش مصنوعی از جمله پژوهشگر ارشد متا، میگویند استدلال انسانگونه برای مدلهای زبانی امکانپذیر نیست و برای تحقق چنین چیزی به تعامل و ارتباط مشابه انسان با جهان و درک جهان واقعی نیاز است.
به نظر میرسد که اوپنایآی با پروژه استرابری برای رفع این مساله تلاش میکند. استرابری به نظر یک راهکار «پسا آموزش» را در اختیار مدلهای هوش مصنوعی مولد میگذارد تا پس از روند آموزش در زمینههای ویژه به تخصص برسند. با این حال مستنداتی که به رویت رویترز رسیده مشخص نمیکند که این کار چگونه قرار است انجام شود.
یکی از منابع مطلع میگوید استرابری تا حدی شبیه به روشی به نام «استدلالگر خودآموز» (Self-Taught Reasoner) یا «STaR» است که به مدلهای هوش مصنوعی اجازه میدهد تا با ساخت مکرر دادههای آموزشی خود، هوش خود را افزایش دهند و روی کاغذ بتوانند به هوش سطح انسانی دست پیدا کنند.
نوحا گودمن، یکی از سازندگان و استاد استنفورد، میگوید: «به نظرم هم هیجان انگیز و هم ترسناک است… اگر به حرکت در این مسیر ادامه دهیم، باید به عنوان انسان درمورد چیزهای مهمی فکر کنیم.»
مستندات میگویند که یکی از اهداف اوپنایآی از پروژه استرابری، اجرای وظایفی با افق گسترده (LHT) است. این وظایف در واقع وظایف پیچیدهای هستند که مدل هوش مصنوعی باید برای انجام آن پیشاپیش برنامهریزی کند و در یک بازه زمانی به انجام زنجیرهای از اقدامات بپردازد.
طبق مستندات، اوپنایآی برای این کار مدلهای خود را براساس دیتاست «تحقیقات عمیق» ساخته، آموزش داده و ارزیابی میکند.