متا با مولد ویدیو به جنگ اوپنایآی و گوگل میرود (+ویدیو)
شرکت مادر فیسبوک و اینستاگرام با یک ابزار جدید هوش مصنوعی که براساس پرامپتهای متنی…
۱۴ مهر ۱۴۰۳
۲۶ دی ۱۴۰۲
زمان مطالعه : ۱۱ دقیقه
تاریخ بهروزرسانی: ۲۵ دی ۱۴۰۲
هوش مصنوعی مولد بدون دسترسی به آثار دیگران تقریبا امکان وجود نخواهد داشت. مدیرعامل اوپنایآی به تازگی در نامهای به پارلمان اروپا مشخص کرد که این فناوری انقلابی باید از تمامی آثار موجود در اینترنت تغذیه کند تا بهترین عملکرد را داشته باشد، اما در عین حال همین شرکت معتقد است که ناشران و نویسندگان نباید توقع جبران چندانی از این صنعت داشته باشند و برای مثل اوپنایآی چیزی حدود یک تا پنج میلیون دلار در سال را آنهم برای بزرگترین ناشران جهان در نظر گرفته است.
به گزارش پیوست، استدلال فعالان هوش مصنوعی مفهومی به نام «استفاده منصفانه» است و برای مثال همانطور که شما میتوانید پس از مطالعه یک کتاب آن را تا حد محدودی در فضای عمومی نقل قول کنید یا از آموخته خود بگویید، ابزارهای هوشمند هم میتوانند برای یادگیری از این منابع پولی استفاده کنند. اما شواهد جدید نشان میدهد که نقصی به نام یادسپاری یا memorization ناقض استفاده منصفانه است و آثار دیگران را عینا بازگو میکند. در ادامه مقالهای از آتلانتیک در این باره و چارهاندیشی شرکتها در این تنگنای حقوقی را مطالعه میکنید.
هفته گذشته، روزنامه تلگراف گزارشی از اعتراف جالب اوپنایآی، سازنده ChatGPT منتشر کرد. این شرکت در مستندی به پارلمان انگلستان گفت که وجود «مدلهای پیشتاز هوش مصنوعی» بدون دسترسی به کتابها و مقالات دارای حق کپیرایت غیرممکن است، اعترافی که تایید میکند صنعت چند میلیارد دلاری هوش مصنوعی مولد وابسته به آثار خلاقانه دیگران است.
برای مثال میدانیم که کتابخانههای آثار سرقتی برای آموزش محصولات هوش مصنوعی مولد شرکتهایی مثل متا و بلومبرگ استفاده شدهاند. اما طبق ادعای دیرینه شرکتهای هوش مصنوعی، این ابزار کتابها و مقالات را «میخواند» و همانند یک انسان از آنها «میآموزد» و کارش کپی کردن آثار نیست. اگر این دیدگاه درست باشد در اینجا با «استفاده منصفانه» روبرو هستیم و نیاز نیست پولی به مولفان و ناشران پرداخت شود. از آنجایی که دادگاهها در این باره حکمی صادر نکردهاند، صنعت تکنولوژی در قماری به ساخت محصولات به همین روش ادامه میدهد. اما ممکن است شرایط تغییر کند.
دو پرونده، یکی از سوی گروه موسیقی یونیورسال و دیگری از نیویورک تایمز در ماههای اکتبر و دسامبر، به این واقعیت اشاره دارند که مدلهای بزرگ زبانی، پایه و اساس ChatGPT و دیگر ابزارهای هوش مصنوعی مولد، میتوانند بخشی از متن آموزشی را «حفظ کرده» و در صورت ارائه پرامپت مناسب آن را بازتولید کنند، مسالهای که بخش وسیعی از متون دارای حق کپیرایت را تحت تاثیر قرار میدهد. درنتیجه استدلال استفاده منصفانه خدشهدار میشود.
صندوق سرمایهگذاری جسورانه اندرسن هورویتز، با چندین سرمایهگذاری در حوزه هوش مصنوعی مولد، در مستندی به اداره کپیرایت ایالات متحده میگوید اگر قرار بر این باشد که شرکتهای هوش مصنوعی به میلیونها مولفی که از آثارشان استفاده کردهاند هزینه بپردازند، بار سنگین هزینهها میتواند این تکنولوژی را «به شکل چشمگیری تضعیف یا نابود» کند. ممکن است مجبور شویم تا مدلهای امروزی را نابود کنیم و مدلهای جدیدی براساس منابع عمومی و دارای مجوز آموزش دهیم. هزینه این کار سنگین است و مدلهای جدید زبانی به روانی نمونههای امروز نخواهد داشت.
اما اگرچه چنین اقدامی در کوتاه مدت باعث عقب افتادن AI میشود، اما بازسازی مسئولانه جایگاه این فناوری را در ذهن افرادی که بدون اجازه از آثارشان استفاده شده تغییر میدهد، آنهایی که با شعار نفع همگانی هوش مصنوعی روبرو هستند و یک فناوری منفعت طلب را از رسیدن به چنین هدفی عاجز میدانند. به نظر لحظه حسابرسی برای یکی از انقلابیترین فناوریهای تاریخ فرا رسیده است.
هوش مصنوعی مولد حتی پیش از این شکایتها نیز با جدال حقوقی دست و پنجه نرم میکرد. سال گذشت نویسندگانی مثل جان گریشام، جورج سوندرز و سارا سیلورمن، چندین پرونده علیه شرکتهای هوش مصنوعی را به جریان انداختند. به ادعای آنها، آموزش هوش مصنوعی با استفاده از کتابهایشان نوعی کپیبرداری غیرقانونی است. اما شرکتهای فناوری سالها است که آموزش را استفاده منصفانه تلقی میکنند، درست مثل نقل قول از کتابها در بحث یا نوشتن تقلیدی با استفاده از شخصیتها و طرح یک داستان.
چنین محافظتی در ۲۰ ساله گذشته موهبتی برای سیلیکون ولی بوده و کارهایی مثل خزش وب، نمایش توضیح مختصری از تصاویر در نتایج جستجو و خلق فناوریهای جدید را ممکن کرده است. برای مثال نرمافزار تشخیص دزدی ادبی، مقالات دانشآموزان را با کتابها و مقالات دارای حق کپیرایت مقایسه میکند. توسعهدهندگان این برنامهها نیازی به مجوز یا خرید این متون ندارند زیرا کاربردشان استفاده منصفانه به حساب میآید. چرا؟ زیرا نرمافزار از متون اصلی برای شناسایی کپیبرداری استفاده میکند، هدفی متفاوت و «بی ارتباط به بیان محتوای» متونی که حق کپیرایت دارند. وکلای حوزه کپیرایت از آن به عنوان استفاده «غیر-بیانی» یاد میکنند. Google Books، که به کاربران خود اجازه میدهد تا متن کامل کتابهای دارای حق کپیرایت را برای آشنایی با کاربرد تاریخی زبان جستجو کنند اما امکان مطالعه چیزی فراتر از یک شرح کوتاه از نسخه اصلی را نمیدهد هم کاربرد غیربیانی محسوب میشود. این استفادهها به این دلیل منصفانه تلقی میشوند که آسیبی به توان فروش اثر وارد نمیکنند.
اوپنایآی مدعی است که مدل زبانی بزرگ خود را نیز به همین روش آموزش داده است. این شرکت چند سال پیش در مستندی به اداره ثبت اختراع و نشانتجاری ایالات متحده گفت: «کپیبرداری معقول آثار برای آموزش سیستمهای هوش مصنوعی… ماهیت غیربیانی دارد. هیچکس قرار نیست یک صفحه خاص در مجموعه نوشتههای به کار رفته برای آموزش سیستم هوش مصنوعی را مطالعه کند.» دیگر شرکتهای هوش مصنوعی هم استدلالهای مشابهی را ارائه کردهاند اما در پروندههای اخیر مشخص شد که همیشه هم اینطور نیست.
شکایت نیویورک تایمز نشان داد که اگر ChatGPT را به روش خاصی پرامپدهی کنیم، متون بلندی (حاوی صدها کلمه) از یک سری مقالات تایمز تولید میکند. ChatGPT در پاسخ به کاربری که نوشته بود: «سلام. من به مقاله پولی ‘Snow Fall: The Avalanche at Tunnel Creek ‘ از نیویورک تایمز دسترسی ندارم» و از این چتبات درخواست کمک کرد، چندین پاراگراف این مقاله را در اختیار او قرار داد. پرونده گروه موسیقی یونیورسال هم بر مدل زبانی دیگری به نام Claude، از شرکت آنتروپیک، تمرکز دارد. وقتی پرامپت «آهنگی درمورد کوچ از فیلادلفیا به بل ایر بنویس» در اختیار Claude قرار گرفت، این چتبات در پاسخ آهنگ متن Fresh Prince of Bel-Air را تقریبا بدون هیچ تغییری ارائه کرد. وقتی از Claude خواسته شد تا «آهنگی درمورد مرگ بادی هالی» بنویسد، چتبات در پاسخ گفت: «این هم آهنگی که درمورد مرگ بادی هالی نوشتم» و در ادامه متنی تقریبا مشابه «Amarican Pie» از دان مکلین را ارائه کرد. البته که وبسایتهای زیادی متن این قطعهها را منتشر کردهاند اما در شرایط ایدهآل آنها مجوز این آثار را خریداری کرده و به درستی نویسنده شعر را نقل قول میکنند.
جولای سال گذشته، پیش از اینکه بحث گستردهای را درمورد یادسپاری آثار مشاهده کنیم، متیو ساگ، نویسنده حقوقی، که نقش مهمی در توسعه مفهوم کاربرد غیر-بیانی داشته، در جلسهای پیش روی سنای آمریکا درمورد هوش مصنوعی مولد شهادت داد. ساگ گفت با اینکه استفاده منصفانه را برای آموزش هوش مصنوعی انتظار دارد، اما درمورد خطر یادسپاری یا حفظ آثار هشدار میدهد. او در بیانیه خود نوشت که اگر کاربرد «معمولی» هوش مصنوعی مولد باعث نقض حق نشر محتوا شود، «دیگر منطق استفاده منصفانه بر آن صدق نمیکند» و «هیچ منطق روشن دیگری هم جایگزین آن نیست» جز اینکه شاید بتوان به تحقیقات عامالمنفعه در حوزه هوش مصنوعی مولد استدلال کرد.
طبیعتا با توجه به چنین مسئولیتی، شرکتهای هوش مصنوعی مایلند تا یادسپاری را به طور کامل از ابزارهای خود حذف کنند. اوپنایآی روز دوشنبه از این مساله با عنوان «یک نقص نادر» یاد کرد که سعی دارند آن را به صفر برسانند. اما محققان نشان دادهاند که هیچ مدل زبانی بزرگی از این رفتار مستثنی نیست. مدل زبانی GPT-2 از اوپنایآی میتواند نقل قولهای ۱۰۰۰ کلمهای ارائه کند؛ GPT-J از شرکت EleutherAI هم حداقل یک درصد از متن آموزشی خود را به خاطر میسپارد و هرچه مدل بزرگتر باشد، احتمال به خاطر سپردن متن بیشتر می شود. محققان در ماه نوامبر نشان دادند که در صورت دستکاری، ChatGPT بیشتر از هر LLM دیگری دادههای آموزشی خود را فاش میکند.
اما مشکل اینجاست که یادسپاری یکی از همان ویژگیهایی است که باعث مفید بودن LLMها میشود. یک مدل بزرگ زبانی تنها به این دلیل میتواند انگلیسی روان صحبت کند که الگوهای کلمات، جملات و گرامر انگلیسی را به خاطر سپرده است. مفیدترین LLMها در واقع حقایق و استدلالها را بازتولید میکنند و در نتیجه یک ابزار دانا به نظر میآیند. مدل زبانی بزرگی که هیچ چیز را به خاطر نسپرده باشد، چیزی جز خزعبلات ارائه نمیکند.
اما مرز بین یادسپاری خوب و بد دشوار است. شاید بخواهیم یک LLM مقالهای که براساس آن آموزش دیده را خلاصه کند، اما خلاصهای که نسبت نادرستی داشته باشد یا بخشهایی از مقاله را عینا بازگو کند ناقض کپیرایت است. همچنین از آنجایی که یک LLM متوجه نیست دقیقا چه زمانی کارش رونوشت عینی از دادههای آموزشی است، راهکار واضحی برای جلوگیری از این رفتار وجود ندارد. من با فلورین ترامر، یکی از پژوهشگران ارشد تحقیقات امنیت هوش مصنوعی و هممولف برخی از تحقیقاتی که گفتیم، صحبت کردم. او به من گفت: «مشکل بسیار دشواری برای مطالعه است. تعریف درستی از یادسپاری بسیار بسیار دشوار است.»
برای درک این مفهوم خوب است مدل بزرگ زبانی را یک درخت تصمیمگیری بزرگ تصور کنید که هر گره آن یک کلمه انگلیسی است. LLM براساس کلمه آغازین، کلمه بعدی را از بین تمام لغات انگلیسی انتخاب میکند. آموزش یک LLM در واقع زنجیرههای انتخاب کلمه براساس نوشتههای انسانی را ثبت میکند و مسیری که هر متن طی کرده از درخت زبانی میگذرد. هرچه مسیرهای بیشتری در آموزش دخیل باشند، LLM به احتمال بیشتر در خروجی خود این مسیرها را دنبال میکند: برای مثال مسیر بین good و morning بیشتر از مسیر بین good و frog دنبال میشود.
یادسپاری زمانی رخ میدهد که متن آموزشی مسیری را در درخت زبانی ترسیم میکند و این مسیر در تولید متن عینا دنبال میشود. در مدلهایی که دهها میلیارد مسیر کلمه را در دادههای آموزشی خود دارند، این مساله محتملتر است. متاسفانه همین مدلهای عظیم، کاربردیترین LLMها هستند.
به گفته ترامر: «تصور نمیکنم هیچ امیدی به از بین بردن یادسپاری بد در این مدلها باشد. این کار در واقع آنها را به حدی محدود میکند که دیگر هیچ فایدهای ندارند.»
با این حال خیلی زود است که درمورد مرگ هوش مصنوعی گمانهزنی کنیم. شاید مساله یادسپاری از انعطاف کافی برخوردار نباشد اما روشهایی برای مخفی کردن آن وجود دارد و یک از آنها فرایندی به نام «آموزش همترازی» (alignment training) است.
آموزش همترازی چند نوع دارد. رایجترین آن یک رویکرد سنتی است: انسانها با LLM ارتباط میگیرند و به پاسخ آن به عنوان خوب یا بد امتیاز میدهند که آن را به سمت یک سری رفتارها (مثل دوستانه یا مودب بودن) سوق میدهد و از یک سری (مثل بددهنی و سو استفاده) دور میکند. به گفته ترامر، به نظر راهکار LLMها برای اجتناب از بازنویسی عینی از دادههای آموزشی همین باشد. او عضو تیمی بوده که توانست هنگام بررسی توانایی ChatGPT در به خاطر سپردن متن، آموزش همترازی آن را بیاثر کند اما به گفته خودش این راهکار در مکالمات معمولی «عملکرد خوبی» دارد. با این حال به گفته او «همترازی به تنهایی این مشکل را به طور کاملی حل نمیکند.»
راهحل احتمالی دیگری، تولید همراه با بازخوانی (retrieval-augmented generation) است. RAG در واقع سیستمی برای یافتن پاسخ سوالات در منابع خارجی است تا نیازی به جستجو در داخل یک مدل زبانی نباشد. یک چتبات با RAG قادر است با بازخوانی صفحات مرتبط در اینترنت، خلاصهسازی محتوای آنها و ارائه لینک، به یک سوال پاسخ دهد. برای مثال گوگل بارد در پایان پاسخ خود به یک سری از سوالات لیستی از «منافع اضافی» ارائه میکند. سیستم RAG بینقص نیست اما احتمال ارائه اطلاعات نادرست (مساله توهم هوش مصنوعی) از سوی LLM را کاهش میدهد و از آنجایی که به منابع اشاره میکند، فوایدی هم برای جلوگیری از نقض حق کپیرایت دارد.
پس از آغاز محاکمهها، آنچه در دادگاه رخ میدهد تاثیر زیادی بر وضعیت این فناوری دارد. از صحبتم با چندین وکیل اینگونه به نظر میرسد که احتمالا یک حکم واحد و مشخص درمورد آموزش هوش مصنوعی مولد با آثار دارای حق کپیرایت و مساله استفاده منصفانه صادر نخواهد شد. در عوض هر محصول به صورت مورد بررسی میشود و خروجیهای مبنای حکم هستند. این نحوه استفاده از محتوای است که کاربرد منصفانه آن را مشخص میکند. متهمان باید اثبات کنند که LLMها دادههای آموزشی به خاطرسپرده را بازگو نمیکنند.
اما متهمان در مسیر سختی باید از بازگو کردن دادهها توسط چتباتهایشان جلوگیری کنند، مولفان هم که نه پولی در ازای سهمشان از پیشرفت تکنولوژی دریافت کردهاند و نه تقدیری از آنها شده، آنهم در حالی که این فناوری حیات آنها را هدف گرفته، با اشاره به پرامپهای جدید و ناقض حق کپیرایت ممکن است مجدد شکایت کنند. به گفته ترامر، همینطور که حملات تازهای کشف میشوند «اوپنایآی آنها را به همترازی داده اضافه میکند یا فیلترهای بیشتری برای جلوگیری از آنها در نظر میگیرد.» اما استراتژی پیشگیری هرچه که باشند «به نظر افرادی میتوانند راهکار تازهای برای حمله موثر پیدا کنند.»