معرفی سیزده هوش مصنوعی تولید و پردازش تصویر: خلق از حروف ساده
امروزه و با توسعه هوش مصنوعی ابزار پردازش تصویر بسیاری برای تبدیل متن به تصویر…
۳۰ آبان ۱۴۰۳
۲۴ مهر ۱۴۰۲
زمان مطالعه : ۱۲ دقیقه
روند یادگیری امروز هوش مصنوعی برپایه روشی است که در گذشته از سوی شرکتهایی مثل گوگل شاهدش بودیم. این موتور جستجو برای خدماتی مثل OneBox که در پنجرهای متفاوت یک پاسخ خاص به سوال کاربران ارائه میدهد، از منابع موجود در اینترنت استفاده کرده است.
جوامع مختلفی در اینترنت، گوگل را به سرقت اطلاعات و دادههای خود متهم کردهاند اما مساله اصلی استفاده از دادههای ساخته انسان است. جوامع انسانی در سراسر اینترنت اطلاعات زیادی را تولید میکنند و یادگیری ماشینی با بهرهبرداری از همین دادهها، پاسخهایی را در اختیار کاربر میگذارد. اما مرحله بعدی، تولید دانش و اطلاعات توسط هوش مصنوعی و یادگیری بر مبنای همین اطلاعات جدید است.
در این مطلب از پیوست چکیدهای از مقاله نیویورکر پیرامون آینده هوش مصنوعی و تکامل روند یادگیری این ابزارها را مطالعه میکنید.
امروزه مدلهای بزرگ زبانی از جمله ChatGPT از اوپنایآی و گوگل بارد، در تلاشند تا اطلاعات وب را به کاملترین شکل ممکن بلعیده و بر آن چیره شوند. سوال اینجاست که مدلهای بزرگ زبانی (LLMها) تا کی میتوانند به نوشتههای انسان-نمادی از هوش ما-وابسته باشند. این ابزارها به ویژه به منابع غنی از اطلاعات وابستهاند.
مهمترین منبع اطلاعاتی اوپنایآی برای ساخت ChatGPT، ویکیپدیا و پس از آن شبکه اجتماعی ردیت بود؛ بیست و دو درصد از دادههای آموزشی GPT-3 مربوط به لینکهای منتهی به ردیت و آپووت شده توسط کاربران ردیت است. ChatGPT به حدی در حوزه کدنویسی مهارت دارد که حتی ماهرترین توسعهدهندگان هم دیگر از پلتفرم Stack Overflow (یک پلتفرم برای تبادل نظر و ارائه راهحل برنامهنویسان به یکدیگر) استفاده نمیکنند اما جالب اینکه ChatGPT بخشی از موفقیت خود را مدیون اطلاعات همین پلتفرم است. گروهی از محققان برآورد کردهاند که تعداد پستهای جدید Stack Overflow از زمان عرضه ChatGPT تا شانزده درصد کمتر شده است.
من کاربر فعالی در Stack Overflow نیستم، اما کدنویسم و بیشتر از یک دهه است که از این وبسایت استفاده میکنم. من پروژههایی را در GitHub (وبسایتی برای کد منبعباز) ارائه کردم، در ادیت پست کرده و صفحات ویکیپدیا را اصلاح کردهام. در عین حال سالها است که پستهای و کدهایی را در وبسایت خودم منتشر میکنم.
مثل همه، نمیدانستم که در واقع دارم اطلاعات مورد نیاز GPT را تولید میکنم؛ در صورت اطلاع شاید پولی در ازای این کار میخواستم یا حتی کمکی نمیکردم. مدیرعامل ردیت در ماه آوریل اعلام کرد که هر شرکتی برای استفاده از دادههای این پلتفرم باید هزینه آن را پرداخت کند. (از آنجایی که این مساله دیگر اپلیکیشنهای غیرهوش مصنوعی را نیز تهدید میکرد، کاربران ردیت اعتصاب کرده و تاکید کردند که درآمد سایت ناشی از فعالیت این جامعه است.) Stack Overflow نیز بیانیه مشابهی را منتشر کرد.
شاید وبسایتهای اجتماعی بتوانند محتوای خود را محدود کنند اما شاید این موضوع دیگر اهمیتی نداشته باشد. داده با کیفیت یک منبع تجدید پذیر نیست، به ویژه اگر آن را شبیه به منابع نفتی در نظر بگیرید که اختیارش در دست شما است.
وبسایتهایی که چتباتها را تغذیه میکنند عملکردی شبیه به اقتصاد دانشبنیان دارند و با ارزهای مختلفی-مثل نشان، پاداش یا امتیاز-جریان اطلاعات را به سمت جایی که بیشتری تقاضا وجود دارد هدایت میکنند و این چتباتها در حال حاضر سمت تقاضای بازار را جذب خود کردهاند؛ موضوعی که به ویژه به ضرر تولیدکنندگان اطلاعات پایه آنها یا همان انسانها است.
این مساله برای ما نیز مشکلساز است: همه ما از یک وب ساخته انسان نفع میبریم. اما این مساله برای هوش مصنوعی نیز مشکلساز است. ممکن است که هوش مصنوعیها تنها یک بار بتوانند وب را ببلعند اما اگر همواره باهوشتر شوند، به منبعی از دانش نیاز دارند. این منبع کجاست؟
شرکتهای هوش مصنوعی امروز تمرکز خود را روی یک منبع احتمالی گذاشتهاند: مکالمه. هرکسی که از بارد یا ChatGPT استفاده میکند در واقع وارد جزئی از یک روند آموزشی است. در واقع یکی از دلایل رایگان بودن این ابزارها، ارزش دادههایی است که کاربران ارائه میکنند: هر چیزی که برای چتبات تایپ میکنید، منبع تغذیهای برای مدل زبانی آن است.
بعلاوه، علاوه بر تایپ اطلاعاتی هم ارائه میکنید-مثل ایمیل، مستندات، کد، دستورالعمل، قرارداد و غیره. ما معمولا از هوش مصنوعی میخواهیم تا یک محتوا را خلاصه کند و یا درمورد آن سوال میپرسیم، روندی که شبیه به یک سمینار روخوانی است. در حال حاضر آنچه میتوانید در اختیار چتبات بگذارید محدود است اما مقدار اطلاعاتی که میتوانیم ارائه کنیم هم همواره در حال رشد است.
یکی از دلایل رایگان بودن این ابزارها، ارزش دادههایی است که کاربران ارائه میکنند
طولی نمیکشد که بسیاری از ما خصوصیترین اطلاعات خود را در اختیار این مدلها بگذاریم. یک چتبات هنوز اجازه دسترسی به ایمیل- یا متن،تقویم، نوتها و فایلها را نمیخواهد- را درخواست نمیکند اما شاید در ازای دسترسی به یک دستیار توانمند شخصی، حریم خصوصی خود را زیر پا بگذاریم. یک روبات دستیار شخصی شاید از من بخواهد تا افزونهای را روی مرورگرم نصب کنم و هوش مصنوعی بتواند از الگوهای جستجو و مرور من یاد بگیرد. همچنین ChatGPT و همتایانش به زودی «چندوجهی» میشوند و میتوانند متن، تصویر، ویدیو و متن را ترکیب کنند (ChatGPT در یکی از بروزرسانیهای اخیر این قابلیت را عرضه کرده است.) زبان بیشتر از اینکه کتبی باشد، شفاهی است و برای همین روباتها امکاناتی مثل رونویسی از جلسات و تماسهای تلفنی یا حتی روابط روزمره ما را ارائه میکنند.
پیش از اینکه مدلهایی مثل GPT-3.5 و GPT-4 با محصولی به نام ChatGPT در اختیار کاربران قرار بگیرند، به واسطه ساز و کاری به نام «یادگیری تقویتی براساس بازخورد انسانی» یا اساس R.L.H.F آموزش دیدهاند. در این فرایند اوپنایآی از گروهی از انسانها خواسته تا با مدل خام مکالمه داشته و کیفیت پاسخهای آن را ارزیابی کنند؛ مدل براساس این ارزیابی یاد میگیرد و بر همین اساس پاسخهای خود را به مرور زمان بهینهسازی میکند.
به همین دلیل ChatGPT به خوبی منظور حرف شما را درک کرده و پاسخ خوبی ارائه میکند. این فرایند بسیار پر هزینه است اما R.H.L.F. به صورت رایگان و در مقیاس گستردهتر هم به واسطه ارتباط با کاربران معمولی جهان انجام میشود. حتی اگر روی لایک، دیسلایک یا دکمههای «مفید بود» یا نبود هم کلیک نکنید، GPT-4 به خوبی میتواند یک مکالمه را تفسیر کرده و خودش برآوردی از عملکرد خود ارائه کند.
حتی میتوان از مکالمات یک مدل برای تقویت دیگری استفاده کرد: گفته شده که رقبای ChatGPT، از جمله گوگل بارد، با استفاده از رونوشت مکالمات ChatGPT که در اینترنت قابل دسترسی است، آموزش دیدهاند. (البته گوگل این موضوع را رد کرده است.)
هوش مصنوعی به خوبی میتواند یک مکالمه را تفسیر کرده و خودش برآوردی از عملکرد خود ارائه کند
استفاده از چتبات برای ارزیابی و آموزش یک چتبات دیگر به روندی اشاره دارد که شاید در نهایت انسان را به طور کامل از این حلقه آموزشی حذف کند. شاید مهمترین محدودیت مدلهای زبانی امروز، وابستگی آنها به دانش انسانی است. وقتی روباتها خودشان امکان خلق دانش داشته باشند، تغییر شگرفی رخ میدهد. یک روند احتمالی نیز داده مصنوعی را شامل میشود.
سم آلتمن، مدیرعامل اوپنایآی، میگوید دادههای مصنوعی شاید جایگزین دادههای واقعی شوند. قضیه از این قرار است که مدلی مثل GPT، مستندات مکالمات و ارزیابیهایی از مکالمات خود ارائه کرده و سپس مدل دیگری-شاید حتی یک کپی از مدل اولی-آنها را میبلعد.
امید میرود که هوش مصنوعی بتوانند همانگونه که بازی را یاد میگیرد، خودش را در موضوعات دیگر نیز آموزش دهد. برای یادگیری بازیهایی مثل Go و شترنج، هوش مصنوعی عمدتا در مقابل رقیبی از جنس خود و با مهارتی یکسان بازی کرده و سپس از آموختههای خود یاد میگیرد.
با وجود نگاه مثبت آلتمن به دادههای مصنوعی، دلایلی برای نقد آن وجود دارد. یکی از واضحترین نقدها اینکه شما با هر سطح هوشی، نمیتوانید تنها با بررسی دانستههای پیشین خود به حقایق تازهای درمورد جهان برسید. محققان در یک مطالعه جدید هوش مصنوعی را تصاویر مصنوعی که توسط خودش ساخته شده بود آموزش دادند؛ سپس از این مدل برای تولید دادههای آموزشی بیشتر استفاده شد.
در هر نسل، کیفیت مدل کمتر شد. تنها زمانی شاهد رشد بودیم که تصاویر واقعی و تازه در اختیار آن قرار میگرفت. برخی از وظایف سازگاری بهتری با دادههای مصنوعی دارند: شترنج و بازی گو نیازمند هوش هستند اما در جهانی بسته با قوانین ثابت انجام می شوند. محققان در حال کار روی «طراحی سیستم آموزش» هوش مصنوعی هستند تا ببیند چطور سیستمهای خود را با وظایفی که نیازمند حداکثر توانایی آنها است، درست مثل یک مربی خوب به چالش برسند. این روند در جهان شترنج و گو با بازی مقابل حریفی از جنس خود هوش مصنوعی رخ میدهد.
اما روشن نیست یک هوش مصنوعی چطور میتواند «بازی با خود» را به راهکاری برای خلق ایده های جدید و درک بهتر زبان تبدیل کند. انسانها نمیتوانند تنها با مطالعه نوشتههای خودشان به نویسنده بهتری تبدیل شوند یا تنها روی جملههای مطلوب کار کنند. روند آموزش ما علاوه بر ثمره ذهنی، تجربه در جهان واقعی را شامل میشود. این سیستم آموزش را معلمان و ما به چنین شکلی طراحی کردهایم. تنها مصرف دادههای عظیم برای دانشمند شدن ما کافی نیست.
باید بدانیم که چه چیز را میخواهیم بدانیم. تیلور بک، متخصص اعصابی که معلم شده، زمانی گفت که هوش مصنوعی تنها حالتی است که شما یادگیری کاملا بدون انگیزه را شاهد هستید: ماشین تنها حجم زیادی از متون ناشناخته را میبلعد و اهمیتی به ماهیت آن نمیدهد. اما هوش طبیعی، همواره از نوعی انگیزه یا هدف نشات میگیرد. مدلهای بزرگ زبانی از جمله ChatGPT هیچ انگیزهای ندارند؛ آنها اطلاعات را جذب و ترکیب میکنند.
یکی از پیشرفتهای مهم هوش مصنوعی مربوط به زمانی است که شاهد کنجکاوی یا حتی بیحوصلگی هوش مصنوعی باشیم.کنجکاوی و بیحوصلگی از جمله ویژگیهای یک ذهن طبیعی به نظر می آیند اما میتوان آنها را به هوش مصنوعی نیز القا کرد. چت باتهای امروزی تمایلی به «توهم» یا خلق اطلاعات دارند. ریشه این توهمات، ناتوانی آنها در بازبینی خود است: هوش مصنوعی متوجه نیست که میداند یا نمیداند. در حالی که محققان میخواهند اعتبار مدلها را افزایش داده و به منابع ارجاع دهند، اما این کار اعتبار چتباتها را بیشتر نمیکند و راهحل آن نوعی دانش فردی است.
یک هوش مصنوعی میتواند با مشاهده متن مکالمات خود، توهم را تشخیص دهد و درنتیجه بهتر است بگذاریم همین مشاهدات، راهنمایی برای یادگیری این ابزار شود. مدل هوش مصنوعی در این حالت خود را به سمت منابع مربوط به موضوعاتی سوق میدهد که کمترین اطلاع را درمورد آنها دارد- چیزی شبیه به کنجکاوی در انسان.
هوش مصنوعی متوجه نیست که میداند یا نمیداند
در این حالت، چتبات در صورت عدم دسترسی به اطلاعات، در پی آن میرود. میتوان حالتی را تصور کرد که یک چتبات پس از مدتی عدم فعالیت، خودش سوالاتی از من بپرسد. شاید براساس همین سوالات و دنبال آنها، دانش من به آن منتقل شود.
اگر طراحان هوش مصنوعی یک ماشین کنجکاوی را ممکن کنند، چیزی فراتر از چتبات را شاهد هستیم. این ابزار میتواند به جای استنباط و سوال در فضای محدود چت، ایمیل داده یا با تکنولوژی صدای مصنوعی، با افراد تماس بگیرد. اگر هوش کافی داشته باشد، شاید یک فرضیه فیزیک طراحی کرده و از فیزیک دانان بخواهد آن را آزمایش کنند. هوش مصنوعی در حال حاضر هم از رابطهای برنامهنویسی (API) برای ارتباط با سیستمهای کامپیوتری و کنترل ماشینها استفاده میکنند؛ یک روبات کنجکاو میتواند آزمایشگاهی روباتیک را در اختیار گرفته و از آن استفاده کند.
تنها طی چند سال ممکن است ما از جهانی که هوش مصنوعی در آن تنها دانش انسانی را گرفته و با بستهبندی جدید ارائه میکند، به جهانی با امکان ترکیب و تحکیم دانستههای انسان توسط هوش مصنوعی برسیم. پس از اینکه هوش مصنوعی استخراج دانش از دانستههای ما را یاد بگیرد، خودش امکان خلق دانش خواهد داشت.
اما نیمه تاریک و ترسناک ماجرا، تمرکز بیش از حد قدرت در نتیجه چنین روندی است. بارد و ChatGPT با بلعیدن اطلاعات جهان آنلاین و پیشرفت تصاعدی ممکن است به مرجعی کامل از اطلاعات جهان تبدیل شده و همواره گنجینه خود را بزرگتر کنند و همین ابزار میتواند در صورت نیاز دانش موجود را برای خود نگه داشته و مخفی کند.
برخلاف اجتماعاتی که در گذشته منبع ارزشمندی از اطلاعات بودند، ابزارهای هوش مصنوعی با وجود دسترسی به اطلاعات بیشتر، ماهیتی شبیه به یک جعبه سیاه دارند و هیچکس امکان دسترسی کامل به دانستههای آنها را ندارد.
با این حال، همین ابزار میتواند با توجه به توانایی فوقالعادهای که در خواندن اطلاعات دارد، بهترین آموزشها را طراحی کرده و سریعتر از معلم یا استادی، اطلاعات بهروز را خوانده و به دانش آموزان منتقل کند. امروزه با انتشار آنلاین مقالات، هیچ پروفسوری نمیتواند تمامی مقالات جدید را که در تعداد بیشمار منتشر میشوند مطالعه کند.
همچنین برای جلوگیری از تمرکز قدرت و اجحاف در حق منابع اصلی دانش یا همان انسانها، هوش مصنوعی بهتر است روند ارجاعدهی را در پیش بگیرد. حضور انسان در چرخه کار اولین نسخههای این ابزار الزامی است. مدیرعامل Stack Overflow و نماینده ویکیمدیا، بنیاد اداره کننده ویکیپدیا، میگویند که ارجاع چتباتها به منابع، راهکار خوبی برای وضعیت فعلی است.
هوش مصنوعی در آینده نباید انسان را تنها پلهای برای ترقی خود بداند، در عوض باید در کنار انسان به رشد و تکامل ما که منبع اصلی اطلاعات هستیم کمک کرده و ما را تشویق کند. باید در انتظار مدلهایی بود که همانند یک دانش آموز، درمورد آنچه نمیداند از انسان کمک بخواهد و ما بتوانیم خواسته آن را قبول یا رد کنیم.