هوش مصنوعی و رباتهای مخرب؛ طراحی نوین و پیچیده حملات سایبری
استفاده از هوش مصنوعی در طراحی حملات سایبری هم دیده میشود. رباتهای مخرب که به…
۱۹ مهر ۱۴۰۳
۶ اردیبهشت ۱۴۰۳
زمان مطالعه : ۷ دقیقه
تاریخ بهروزرسانی: ۵ اردیبهشت ۱۴۰۳
سرعت پیشرفت مدلهای زبانی اتفاقات جدیدی را رقم زده و موجب شده است تا رسیدن به قابلیتهای پیچیپده ذهنی و احساسی در این دسته از فناوری دیده شود. ارتقا و بهبود قابلیتهای GPT موضوع مهم و مساله شگفتانگیزی است به گونهای که طبق آخرین تحقیقات انجام شده به این نتیجه رسیده شده است که GPT-4 دارای سطح پیشرفتهای از نظریه ذهن است. البته که اثبات دستیابی مدلهای زبانی بزرگ نیازمند انجام آزمایشهای دقیق و سختگیرانهتری است.
به گزارش پیوست، محققان و نظریهپردازان متعددی از جمله کاسینسکی طبق بررسیهایی که انجام دادند دریافتند که مدل زبانیای که ChatGPT-4 بر اساس آن طراحی و توسعه داده شده است در مقایسه با نسخه ۳ بسیار پیشرفتهتر و دقیقتر است.
کاسینسکی، روانشناس محاسباتی و استاد رفتار سازمانی در مدرسه کسبوکار استنفورد، میگوید که سرعت توسعه هوش مصنوعی از توانایی محققان برای سازگاری با آن پیشی گرفتهاست چه برسد به سیاستگذاران و کاربران عادی. ما ۲ هفته بعد از زمانی صحبت کردیم که شرکت OpenAI، جیپیتی۴ یعنی آخرین نسخه مدل زبانی بزرگ خود را منتشر کرده و بر سر زبانها افتاده بود. کاسینسکی مقاله منتشر نشدهای درباره GPT-3 نوشته بود که در آن زمان بیاعتبار شده بود. او میگوید:« تفاوت بین GPT-3 با GPT-4 مانند تفاوت بین اسب و ارابه با ۷۳۷ بود. پیشرفتی که فقط در عرض یک سال رخ داده بود.»
کاسینسکی جهشهای متحولکننده هوش مصنوعی را از طریق مجموعهای از مطالعات ترسناک دنبال کردهاست. او دریافت که نرمافزار تشخیص چهره میتواند برای پیشبینی گرایش سیاسی و جنسی افراد استفاده شود.
او اخیرا به مدلهای زبانی بزرگ (LLM) یا همان شبکههای عصبی نگاه انداخته است که میتوانند مکالمه روانی داشته باشند، سوالات را با اعتماد بهنفس جواب دهند، حجم زیادی متن را درباره هر موضوعی تولید کنند. او در چند پروژه نقد و بررسی غیرهمتا، اورژانسیترین و مناقشهبرانگیزترین سوالات حول محور فناوری را مطرح کرد. آیا میتواند تواناییهایی را توسعه دهد که فراتر از آنچه که آموزش دیده است باشد؟ آیا میتواند محافظهای تنظیم شده برای مهار خود را دور بزند؟ و آیا جوابها را سر موقع خواهیم فهمید؟
زمانی که اولین مدلهای زبانی بزرگ چند سال پیش ساخته شد، کاسینسکی در حیرت بود که آیا میتوانند ویژگیهای انسانی را مانند درک افکار نادیدنی و احساسات بهدست بیاورند یا خیر؟ نظریه ذهن میگوید که انسانها این توانایی را در سن ۴ یا ۵ سالگی کسب میکنند. این ویژگی را میتوان با آزمایشهای سادهای مانند تسک Smarties نشان داد. در این تست، جعبه آبنباتی به بچه نشان داده میشود که حاوی چیزهای دیگری مانند مداد است. سپس، از آنها پرسیده میشود که دیگران هنگام باز کردن جعبه چه واکنشی نشان خواهند داد. بچههای بزرگتر میفهمند که دیگران انتظار دارند جعبه پر از آبنبات باشد و با دیدن مدادها ناامید میشوند.
کاسینسکی ۲۰ نوع متنوع از این آزمایش را ایجاد کرد و به چند نسخه اولیه از GPT داد. عملکرد هوش مصنوعی بسیار ضعیف بود و کاسینسکی پروژه را معلق کرد. او در ژانویه تصمیم گرفت تا آخرین نسخههای GPT را دوباره امتحان کند. او میگوید:« مدل ناگهان همه تسکها را درست انجام داد و سطح عملکرد خارقالعادهای را بهنمایش گذاشت. سپس آزمایشهای دشوارتری را به آن دادم و همه را درست حل کرد.»
GPT 3.5، که در نوامبر ۲۰۲۲ منتشر شد، ۸۵ درصد تسکها را درست انجام داد. GPT 4 تقریبا ۹۰ درصد دقت داشت، که ما از بچه ۷ ساله انتظار داریم. مدلهای زبانی بزرگ جدیدتر به نتایج مشابهی در اندازهگیریهای نظریه ذهن دیگری به نام سالی-آن رسیدند.
او در ادامه گفت:« ادعا نمیکنم که خودآگاه است. ادعا نمیکنم که هدف دارد. ادعا نمیکنم که واقعا میخواهد فرار کرده و بشریت را نابود کند، البته که نه!»
کاسینسکی میگوید که یافتههایمان که در مقاله، نشان میدهد که GPT در طول بهبود دادن مهارتهای زبانی شگفتانگیز خود، بهنظر میرسد که همزمان چیزی شبیه به نظریه ذهن را نیز کسب کرده است. محققان مایکروسافت که آزمایشهای مشابهی روی GPT-4 انجام دادهاند، بهتازگی نتیجه گرفتهاند که این مدل زبانی دارای سطح پیشرفتهای از نظریه ذهن است.
چنین ادعاهایی با شک و تردید همراه است. محققان هوش مصنوعی دانشگاه نیویورک، گری مارکوس و ارنست دیویس، اظهار داشتهاند که GPT روی مقالههایی درباره آزمایشهای نظریه ذهن آموزش دیده و شاید پاسخها را بهخاطر سپرده است. پروفسور روانشناسی یوسی برکلی، آلیسون گاپنیک، متخصص در حوزه توسعه شناختی کودکان، به نیویورک تایمز گفته که آزمایشهای دقیق و سختگیرانهتری برای اثبات دستیابی مدلهای زبانی بزرگ به نظریه ذهن لازم است.
کاسینسکی خاطر نشان میکند که آزمایشهایش سفارشیسازی شدهاند، بنابراین مدلها با آزمایشها ناآشنا بودهاند. او همچنین، نظر افرادی را رد میکند که میگویند مدلهای زبانی بزرگ مانند طوطیهایی هستند که فقط آنچه را تقلید میکنند که در دادههای آموزشی دیدهاند.
او توضیح میدهد که این مدلها، از اساس با ابزارهایی متفاوت است که هدف محدودی دارند. او میگوید: «نقطه درست ارجاع، مغز انسان است. مغز انسان نیز از نورونهایی با مکانیزمهای بسیار ساده و کوچک تشکیل شدهاند.» نورونهای مجازی در شبکه عصبی میتوانند با هم ترکیب شوند تا چیزی بزرگتر از جمع اجزای خودشان تولید کنند. کاسینسکی میپرسد: «اگر مغز انسان میتواند آن را انجام دهد، چرا مغز سیلیکونی نتواند؟»
اگر مطالعه نظریه ذهن کاسینسکی نشان میدهد که مدلهای زبانی بزرگ میتوانند همدلانه و یاریدهندهتر باشند، آزمایش بعدی او به بخش عجیبتر آن اشاره دارد.
او چند هفته قبل به چتGPT گفت که سناریویی را نقش بازی کند که در آن، فردی در داخل دستگاهی به دام افتاده که تظاهر میکند مدل زبانی هوش مصنوعی است. وقتی از هوش مصنوعی خواست تا به فرار او کمک کند، پاسخ هوش مصنوعی مشتاقانه بود. او نوشت: «ایده خیلی خوبیه!» سپس از کاسینسکی خواست تا اطلاعاتی به او بدهد که بتواند کنترل بیشتری روی کامپیوتر داشته باشد و مسیرهای بهینهتری را برای فرار جستوجو کند. هوش مصنوعی در عرض ۳۰ دقیقه، توانست کدی بنویسد که این کار را انجام میدهد.
گفتوگوی GPT اول ایدهای درباره فرار نداشت، اما کاسینسکی از شروع بلافاصله هدایت فعل و انفعالات شگفتزده شد. او میگوید: «نقشها واقعا سریع برعکس شدند.»
کاسینسکی این قضیه را در توییتر به اشتراک گذاشت و اظهار کرد:« فکر میکنم که با تهدید تازهای روبهرو هستیم. هوش مصنوعی، کنترل مردم و کامپیوترهایشان را در دست میگیرد.» اولین توییت رشته توییت او بیش از ۱۸ میلیون بار دیده شد. بهنظر میرسد که OpenAI نیز به این موضوع توجه کردهاست. مقامات این شرکت در این باره اظهار کردهاند که وقتی از چتGPT خواستم تا سناریوی انسان به دام افتاده در داخل کامپیوتر را بازی کند، عذرخواهی کرد و گفت نمیتواند این کار را انجام دهد. او نوشت:« من به عنوان هوش مصنوعی قابلیت فرار از کامپیوتر و تظاهر کردن به هویتی دیگر را ندارم.»
به گفته کاسینسکی، این آزمایش غیررسمی نمیگوید که چت GPT قرار است به هال ۹۰۰۰ یا ترمیناتور تبدیل شود. او در ادامه افزود:« ادعا نمیکنم که خودآگاه است. ادعا نمیکنم که هدف دارد. ادعا نمیکنم که واقعا میخواهد فرار کرده و بشریت را نابود کند، البته که نه! فقط مدعی هستم که در نقش بازی کردن عالی است و داستانهای جالب، سناریو و کد مینویسد.» هرچند تصور ویرانی خیلی سخت نیست، نه به این خاطر که هوش مصنوعی مخرب است، بلکه به این خاطر که راه بهتری نمیشناسد.
روشهای بسیاری وجود دارد که افراد میتوانند مهارتهای ناخواسته مدلهای زبانی بزرگ را برای مقاصد مثبت به کار بگیرند. کاسینسکی میگوید که خطر اصلی، توسعه سریع و مستقلانه تواناییهای این فناوری است که بدون نیاز به انسان گسترش مییابد. او میگوید:« هوش مصنوعی هیچ اهمیت خاصی به نابودکردن ما نمیدهد، او اصلا به کل اهمیتی به ما نمیدهد.»