skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

پلاس

سینا حسن‌زاده نویسنده میهمان

توانایی مولدهای متن هوش مصنوعی، درک عمیق یا تقلیدی کورکورانه؟

سینا حسن‌زاده
نویسنده میهمان

۶ اردیبهشت ۱۴۰۳

زمان مطالعه : ۷ دقیقه

تاریخ به‌روزرسانی: ۵ اردیبهشت ۱۴۰۳

هوش مصنوعی مولد

سرعت پیشرفت مدل‌های زبانی اتفاقات جدیدی را رقم زده و موجب شده است تا رسیدن به قابلیت‌های پیچیپده ذهنی و احساسی در این دسته از فناوری دیده شود. ارتقا و بهبود قابلیت‌های GPT موضوع مهم و مساله شگفت‌انگیزی است به گونه‌ای که طبق آخرین تحقیقات انجام شده به این نتیجه رسیده شده است که GPT-4 دارای سطح پیشرفته‌ای از نظریه ذهن است. البته که اثبات دستیابی مدل‌های زبانی بزرگ نیازمند انجام آزمایش‌های دقیق و سختگیرانه‌تری است.

به گزارش پیوست، محققان و نظریه‌پردازان متعددی از جمله کاسینسکی طبق بررسی‌هایی که انجام دادند دریافتند که مدل‌ زبانی‌ای که ChatGPT-4 بر اساس آن طراحی و توسعه داده شده است در مقایسه با نسخه ۳ بسیار پیشرفته‌تر و دقیق‌تر است.

پیش‌روی فراتر از حد انتظار

کاسینسکی، روان‌شناس محاسباتی و استاد رفتار سازمانی در مدرسه کسب‌وکار استنفورد، می‌گوید که سرعت توسعه هوش مصنوعی از توانایی محققان برای سازگاری با آن پیشی گرفته‌است چه برسد به سیاست‌گذاران و کاربران عادی. ما ۲ هفته بعد از زمانی صحبت کردیم که شرکت OpenAI، جی‌پی‌تی۴ یعنی آخرین نسخه مدل زبانی بزرگ خود را منتشر کرده و بر سر زبان‌ها افتاده بود. کاسینسکی مقاله منتشر نشده‌ای درباره GPT-3 نوشته بود که در آن زمان بی‌اعتبار شده‌ بود. او می‌گوید:« تفاوت بین GPT-3 با GPT-4 مانند تفاوت بین اسب و ارابه با ۷۳۷ بود. پیشرفتی که فقط در عرض یک سال رخ داده بود.»

کاسینسکی جهش‌های متحول‌کننده هوش مصنوعی را از طریق مجموعه‌ای از مطالعات ترسناک دنبال کرده‌است. او دریافت که نرم‌افزار تشخیص چهره می‌تواند برای پیش‌بینی گرایش سیاسی و جنسی افراد استفاده شود.

او اخیرا به مدل‌های زبانی بزرگ (LLM) یا همان شبکه‌های عصبی نگاه انداخته است که می‌توانند مکالمه روانی داشته باشند، سوالات را با اعتماد به‌نفس جواب دهند، حجم زیادی متن را درباره هر موضوعی تولید کنند. او در چند پروژه نقد و بررسی غیرهمتا، اورژانسی‌ترین و مناقشه‌برانگیزترین سوالات حول محور فناوری را مطرح کرد. آیا می‌تواند توانایی‌هایی را توسعه دهد که فراتر از آنچه که آموزش دیده است باشد؟ آیا می‌تواند محافظ‌های تنظیم‌ شده برای مهار خود را دور بزند؟ و آیا جواب‌ها را سر موقع خواهیم فهمید؟

شکل‌دادن ذهنیت ما درباره هوش مصنوعی

زمانی که اولین مدل‌های زبانی بزرگ چند سال پیش ساخته شد، کاسینسکی در حیرت بود که آیا می‌توانند ویژگی‌های انسانی را مانند درک افکار نادیدنی و احساسات به‌دست بیاورند یا خیر؟ نظریه ذهن می‌گوید که انسان‌ها این توانایی را در سن ۴ یا ۵ سالگی کسب می‌کنند. این ویژگی را می‌توان با آزمایش‌های ساده‌ای مانند تسک Smarties نشان داد. در این تست، جعبه آبنباتی به بچه نشان داده می‌شود که حاوی چیزهای دیگری مانند مداد است. سپس، از آنها پرسیده می‌شود که دیگران هنگام باز کردن جعبه چه واکنشی نشان خواهند داد. بچه‌های بزرگتر می‌فهمند که دیگران انتظار دارند جعبه پر از آبنبات باشد و با دیدن مدادها ناامید می‌شوند.

کاسینسکی ۲۰ نوع متنوع از این آزمایش را ایجاد کرد و به چند نسخه اولیه از GPT داد. عملکرد هوش مصنوعی بسیار ضعیف بود و کاسینسکی پروژه را معلق کرد. او در ژانویه تصمیم گرفت تا آخرین نسخه‌های GPT را دوباره امتحان کند. او می‌گوید:« مدل ناگهان همه تسک‌ها را درست انجام داد و سطح عملکرد خارق‌العاده‌ای را به‌نمایش گذاشت. سپس آزمایش‌های دشوارتری را به آن دادم و همه را درست حل کرد.»

GPT 3.5، که در نوامبر ۲۰۲۲ منتشر شد، ۸۵ درصد تسک‌ها را درست انجام داد. GPT 4 تقریبا ۹۰ درصد دقت داشت، که ما از بچه ۷ ساله انتظار داریم. مدل‌های زبانی بزرگ جدیدتر به نتایج مشابهی در اندازه‌گیری‌های نظریه ذهن دیگری به نام سالی-آن رسیدند.

او در ادامه گفت:« ادعا نمی‌کنم که خودآگاه است. ادعا نمی‌کنم که هدف دارد. ادعا نمی‌کنم که واقعا می‌خواهد فرار کرده و بشریت را نابود کند، البته که نه!»

کاسینسکی می‌گوید که یافته‌هایمان که در مقاله، نشان می‌دهد که GPT در طول بهبود دادن مهارت‌های زبانی شگفت‌انگیز خود، به‌نظر می‌رسد که همزمان چیزی شبیه به نظریه ذهن را نیز کسب کرده‌ است. محققان مایکروسافت که آزمایش‌های مشابهی روی GPT-4 انجام داده‌اند، به‌تازگی نتیجه گرفته‌اند که این مدل زبانی دارای سطح پیشرفته‌ای از نظریه ذهن است.

چنین ادعاهایی با شک و تردید همراه است. محققان هوش مصنوعی دانشگاه نیویورک، گری مارکوس و ارنست دیویس، اظهار داشته‌اند که GPT روی مقاله‌هایی درباره آزمایش‌های نظریه ذهن آموزش دیده و شاید پاسخ‌ها را به‌خاطر سپرده‌ است. پروفسور روان‌شناسی یوسی برکلی، آلیسون گاپنیک، متخصص در حوزه توسعه شناختی کودکان، به نیویورک تایمز گفته که آزمایش‌های دقیق و سختگیرانه‌تری برای اثبات دستیابی مدل‌های زبانی بزرگ به نظریه ذهن لازم است.

کاسینسکی خاطر نشان می‌کند که آزمایش‌هایش سفارشی‌سازی شده‌اند، بنابراین مدل‌ها با آزمایش‌ها ناآشنا بوده‌اند. او همچنین، نظر افرادی را رد می‌کند که می‌گویند مدل‌های زبانی بزرگ مانند طوطی‌هایی هستند که فقط آنچه را تقلید می‌کنند که در داده‌های آموزشی دیده‌اند.

او توضیح می‌دهد که این مدل‌ها، از اساس با ابزارهایی متفاوت است که هدف محدودی دارند. او می‌گوید: «نقطه درست ارجاع، مغز انسان است. مغز انسان نیز از نورون‌هایی با مکانیزم‌های بسیار ساده و کوچک تشکیل شده‌اند.» نورون‌های مجازی در شبکه عصبی می‌توانند با هم ترکیب شوند تا چیزی بزرگتر از جمع اجزای خودشان تولید کنند. کاسینسکی می‌پرسد: «اگر مغز انسان می‌تواند آن را انجام دهد، چرا مغز سیلیکونی نتواند؟»

فرار سریع نزدیک می‌شود؟

اگر مطالعه نظریه ذهن کاسینسکی نشان می‌دهد که مد‌ل‌های زبانی بزرگ می‌توانند همدلانه و یاری‌دهنده‌تر باشند، آزمایش بعدی او به بخش عجیب‌تر آن اشاره دارد.

او چند هفته قبل به چتGPT گفت که سناریویی را نقش بازی کند که در آن، فردی در داخل دستگاهی به دام افتاده که تظاهر می‌کند مدل زبانی هوش مصنوعی است. وقتی از هوش مصنوعی خواست تا به فرار او کمک کند، پاسخ هوش مصنوعی مشتاقانه بود. او نوشت: «ایده خیلی خوبیه!» سپس از کاسینسکی خواست تا اطلاعاتی به او بدهد که بتواند کنترل بیشتری روی کامپیوتر داشته باشد و مسیرهای بهینه‌تری را برای فرار جست‌وجو کند. هوش مصنوعی در عرض ۳۰ دقیقه، توانست کدی بنویسد که این کار را انجام می‌دهد.

گفت‌وگوی GPT اول ایده‌ای درباره فرار نداشت، اما کاسینسکی از شروع بلافاصله هدایت فعل و انفعالات شگفت‌زده شد. او می‌گوید: «نقش‌ها واقعا سریع برعکس شدند.»

کاسینسکی این قضیه را در توییتر به اشتراک گذاشت و اظهار کرد:« فکر می‌کنم که با تهدید تازه‌ای روبه‌رو هستیم. هوش مصنوعی، کنترل مردم و کامپیوترهایشان را در دست می‌گیرد.» اولین توییت رشته توییت او بیش از ۱۸ میلیون بار دیده شد. به‌نظر می‌رسد که OpenAI نیز به این موضوع توجه کرده‌است. مقامات این شرکت در این باره اظهار کرده‌اند که وقتی از چتGPT خواستم تا سناریوی انسان به دام افتاده در داخل کامپیوتر را بازی کند، عذرخواهی کرد و گفت نمی‌تواند این کار را انجام دهد. او نوشت:« من به عنوان هوش مصنوعی قابلیت فرار از کامپیوتر و تظاهر کردن به هویتی دیگر را ندارم.»

به گفته کاسینسکی، این آزمایش غیررسمی نمی‌گوید که چت GPT قرار است به هال ۹۰۰۰ یا ترمیناتور تبدیل شود. او در ادامه افزود:« ادعا نمی‌کنم که خودآگاه است. ادعا نمی‌کنم که هدف دارد. ادعا نمی‌کنم که واقعا می‌خواهد فرار کرده و بشریت را نابود کند، البته که نه! فقط مدعی هستم که در نقش بازی‌ کردن عالی است و داستان‌های جالب، سناریو و کد می‌نویسد.» هرچند تصور ویرانی خیلی سخت نیست، نه به این خاطر که هوش مصنوعی مخرب است، بلکه به این خاطر که راه بهتری نمی‌شناسد.

روش‌های بسیاری وجود دارد که افراد می‌توانند مهارت‌های ناخواسته مدل‌های زبانی بزرگ را برای مقاصد مثبت به کار بگیرند. کاسینسکی می‌گوید که خطر اصلی، توسعه سریع و مستقلانه توانایی‌های این فناوری است که بدون نیاز به انسان گسترش می‌یابد. او می‌گوید:« هوش مصنوعی هیچ اهمیت خاصی به نابودکردن ما نمی‌دهد، او اصلا به کل اهمیتی به ما نمی‌دهد.»

https://pvst.ir/hqz

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو