آمریکا پاسخ چین به اوپنایآی را در لیست سیاه قرار داد
واشنگتن شرکت Zhipu چین، مهمترین استارتآپ این کشور در حوزه توسعه مدلهای بزرگ زبانی، را…
۲۸ دی ۱۴۰۳
۲۳ مهر ۱۴۰۲
زمان مطالعه : ۵ دقیقه
شرکتهای بزرگ در تلاشند تا استفاده از هوش مصنوعی را بهترین نحو یاد بگیرند. در این مسیر یکی از بزرگترین گامها یادگیری پرامپها یا دستورهایی است که برای دریافت خروجی از هوش مصنوعی استفاده میشوند. به گزارش مجله فورچن، شرکتهای بزرگی مثل Johnson & Johnson برای این کار کتابخانهای از پرامپتها را طراحی کرده و در اختیار کارکنان خود گذاشتهاند. کسبوکارها همچنین مدلهایی تخصصی را براساس دادهها و دانش خاص خود آموزش میدهند که به طور ویژه برای انجام وظایف مدنظر آنها بهینهسازی شده است.
شرکتها در تلاشند تا در یادگیری هوش مصنوعی از یکدیگر پیشی بگیرند: به جای اولین بودن، آنها تلاش میکنند تا نحوه استفاده صحیح از این ابزارها را یاد بگیرند. سازمانها میگویند استفاده از پرامپتهای (دستورهایی که خواسته شما را برای هوش مصنوعی بیان میکند) ضعیف و مدلهای غیرتخصصی باعث نتایج بیدقت و کاهش بازدهی میشود.
مثالهای متعددی از شرکتهای حاضر در این روند وجود دارد. شرکتهایی مثل Johnson & Johnson، برای بهبود خروجی هوش مصنوعی، کتابخانهای از پرامپتهای هوش مصنوعی ایجاد کرده و آن را با کارکنان در میان گذاشتهاند و شرکتهای دیگری مثل استارباکس هم در حال ساخت مدلهای بومی هستند.
خوب است بدانید که برای استفاده از مدلهای زبانی بزرگ، از جمله پرامپت برای ChatGPT، میتوانید حتی از پرامپت یا دستورهایی سادهای مثل «این داستان را خلاصه کن» نیز استفاده کنید.
کریستوفر منینگ، استاد علوم کامپیوتر و زبان دانشگاه استنفورد و رئیس آزمایشگاه هوش مصنوعی استنفورد، به مجله فورچن گفت: «پرامپتدهی دو بخش دارد. یک بخش توصیف درست از آنچه میخواهید انجام شود است و پس از آن، جزئیات زیادی را شاهد هستیم و مردم متوجه میشوند که برخی پرامپتها بهتر از بقیه جواب میدهند. اینطور که مشخص است، نصیحتهای مادرانهای مثل ‘با دقت درموردش فکر کن’، بازدهی خوبی دارند.»
کتابخانههای پرامپ در واقع مجموعهای از مکالمههای انجام گرفته با هوش مصنوعی هستند و برای مثال شرکت Johnson & Johnson از یک کتابخانه با چنین محتوایی برای کاهش اختلاف کارکنانی استفاده میکند که چتبات داخلی این شرکت را به کار میگیرند.
یکی از سخنگویان Johnson & Johnson میگوید: «ما از [چتباتمان] برای بارگذاری مستندات داخلی و خلاصه سازی یا سوالات تخصصی استفاده میکنیم. ما یک کتابخانه پرامپ برای شروع کار ایجاد کردیم تا کارکنان بتوانند کاربردهای احتمالی این ابزار در نواحی مختلف کسبوکار را بررسی کنند.»
اما هدف از دسته دیگری از پرامپها، به حداقل رساندن توهم هوش مصنوعی یا بهینهسازی حداکثری سوالات است.
کریستن پیر، مامور ارشد هوش مصنوعی و از شرکای آژانس خلاق GUT، میگوید: «ما با توجه به حوزه استفاده یا خروجی مورد نظر، کتابخانههای پرامپت متعددی داریم. استراتژی پردازان و تحلیلگران داده ما یک کتابخانه و ‘برگه تقلب کلمه کلیدی’ را به اشتراک میگذارند که کلمات کلیدی بهخصوصی را در خود جای داده و میتواند خروجی هوش مصنوعی را به شکل چشمگیری تغییر دهد. برای مثال، میدانیم که اضافه کردن عبارت ‘آن را به صورت یک جستجوی بولی ارائه کن’ باعث میشود تا ChatGPT جستجوهای بولی بنویسد و ما از آن در ابزارهای شنود اجتماعی استفاده کنیم.»
نتایج نامطلوب معمولا ناشی از عدم دانش کافی درمورد دادههای مربوطه است. برای مثال، اگر بپرسید که چرا ماشین به جان زد، مدل زبانی سریعا پاسخی ارائه میکند (حتی با اینکه هیچ اطلاعاتی درمورد جان یا تصادف صورت گرفته ندارد.)
پروفسور منینگ میگوید: «تمام این مدلها اینگونهاند که اگر حقایقی در میان باشد، از آنها استفاده میکنند و اگر هم حقایقی نباشد، موارد احتمالی را براساس واقعیت مینویسد.»
درنتیجه برای ساخت یک پرامپت خوب بهتر است با تغییر کلمات کلیدی و توصیف دقیق شکل مورد نظرتان، مضمون کاملی ارائه کنید. این کار به مهندسی پرامپت معروف است.
اما متاسفانه حتی بهینهسازی پرامپت هم گاهی اوقات نتیجه مطلوبی را ارائه نمیکند.
بیتریس سانز سیز، مسئول دادههای مشاوره و هوش مصنوعی شرکت Ernst & Young، میگوید: «این مدلهای بزرگ زبانی معمولا به گونهای عمومی آموزش دیدهاند. ما سعی داریم که بهترین را از آن استخراج کنیم، برای مثال متخصصان مالیاتی میخواهند آن را تقویت و نگهداری کرده و مجددا آموزش دهند.»
شرکت Ernst & Young یک پلتفرم هوش مصنوعی داخلی به نام EY.ai را طراحی کرده است. مایکروسافت به این شرکت اجازه داد تا برای ساخت سیستم امن و تخصصی، زودتر از عموم به خدمت Azure OpenAI، یک خدمت ابری، دسترسی پیدا کند. همین موضوع به سرعت سیستم و محافظت از دادهها کمک کرد و مهمتر از همه،EY توانست مدل خود را برای رسیدن به نتیجه مطلوب تنظیم کند.
پروفسور منینگ میگوید: «اگر انجام یک کار خاص مدنظرتان است- مثل خواندن درخواستهای بیمه، نوشتن پاسخ ما و دلیل آن- و تعدادی مثال از عملکرد گذشته کسبوکارتان دارید، میتوانید مدل را برای کار خاص خود بهینهسازی کنید، به ویژه اگر در این حوزه ماهر باشید.»
بهینهسازی را شخصی انجام میدهد که در حوزه یادگیری ماشینی تخصص دارد و نه یک مهندس پرامپت. در این مرحله، ممکن است پایگاه داده را با حذف موارد غیرضروری کوچک تر کند تا مدل زبانی روی یک موضوع خاص تمرکز داشته باشد.
Ernst & Young سیستم خود را با ایجاد کتابخانهای از درونهگیریها، سیستم خود را تخصصیتر کرده است.
سیز میگوید: «[درونهگیریها] مجموعههایی اضافی هستند که شما درون مدل قرار میدهید. ما میتوانیم با گردآوری تمامی دانش مالیاتی خود، مقررات کشوری و شاید دانش خاص این بخش، تصویر روشنی ایجاد کنیم.»
سیز تصریح میکند: «در حال حاضر میتوانیم مشتریان را ارزیابی کنیم، نه براساس تخصص یک تیم مالیاتی بلکه دانش جمعی EY که در طول سالیان جمع شده و نه تنها در حوزه قضایی ما، بلکه در حوزههای قضایی مختلف.»
سیز باور دارد که شخصیسازی مدلهای هوش مصنوعی با بهینهسازی مدلهای داخلی و جای دادن کتابخانه در آن، برای آینده شرکتهایی که از هوش مصنوعی استفاده میکنند نقش حیاتی دارد. البته به گفته او با پیشرفت هوش مصنوعی، اهمیت پرامپتها کمتر میشود.
با این حال پروفسور منینگ معتقد است که آیندهای ترکیبی را پیش روی خود داریم. در حالی که سیستمهای تخصصی برای بسیاری از وظایف به کار میروند، اما بخشی از کارهای خاص مثل نوشتن طرح یک تبلیغات شغلی، نیز با مدلهای عمومی انجام میشوند.