skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

اخبار

تحریریه پیوست

نگاهی به انقلاب هوش مصنوعی؛ یادگیری اما به شکلی متفاوت

تحریریه پیوست

۲۲ مرداد ۱۳۹۹

زمان مطالعه : ۴ دقیقه

مدیران معمولا درمورد محصولات خود بدگویی نمی‌کنند اما سم آلتمن مدیر عامل شرکت هوش مصنوعی باز (Open AI) درمودر مبدل آموزش دیده زایا 3 (GPT-3) اینگونه عمل نکرد و در توییتی نوشت «درمورد GPT-3 بیش از حد هیجان زده شده‌اید. این هوش مصنوعی در عین شکوهمندی هنوز نقاط ضعف جدی دارد و گاهی اوقات اشتباهات مضحکی از آن سر می زند» این توییت وی در پاسخ به کسانی بود که GPT-3 را تداعی لحظه پایان یک عصر علمی و تولد دوره‌ای تازه عنوان می‌کردند.

به گزارش پیوست، نرم افزار GPT-3 یا نسل سوم پردازشگرهای زبان به خوبی انسان را شبیه سازی می‌کند و می‌توان این نرم افزار را بهترین نویسنده غیر انسانی دانست. اگر جمله‌ای به این نرم‌افزار ارائه کنیم و از آن بخواهیم جمله دیگری شبیه به آن بنویسد بدون هیچ نقصی این کار را انجام می‌دهد. اما این کار را یکی از قابلیت‌های ایمیل هم به خوبی انجام می‌دهد، کاربران توقع بیشتری از این نرم‌افزار دارند.

آنچه GPT-3 را منحصر به فرد می‌کند، ۴۵ ترابایت اطلاعاتی است که برای آموزش آن به کار رفته است، یعنی بیشتر از هر نرم افزار دیگری.
از آنجایی که این نرم افزار هرنوع ترکیب ممکن برای کلمات را به خاطر می‌آورد، درنتیجه به سرعت مراحل آزمون و خطا را برای هر ۱۷۵ میلیارد حالت ممکن انجام می‌دهد. جالب اینکه این نرم افزار قادر است مهارت‌های خود را در زمینه‌های مرتبط نیز به کار گیرد؛ با توجه به توان ترجمه GPT-3 می‌تواند همانطور که انگلیسی را به فرانسه تبدیل می‌کند زبان انگلیسی را نیز به جاوا اسکریپت تبدیل کند. در واقع این نرم افزار در حال یادگیری است؛ اما یادگیری نه به آن صورتی که ما می‌پنداریم.

این فرایند را نمی‌توان هوش یا خلاقیت نامید. در حقیقت GPT-3 از ماهیت آنچه انجام می‌دهد مطلع نیست؛ این نرم‌افزار نمی‌داند که چطور یا چرا تصمیم به تکمیل جملات گرفته است؛ هیچ برداشتی از تجربه انسانی ندارد؛ و قادر به تشخیص این نیست که آیا آنچه می‌نویسد منطقی است یا غیر منطقی. در واقع GPT-3 الگوی علمی پیروز بر دیگر الگو ها را به ما ارائه می‌دهد.

در ابتدای پیدایش هوش مصنوعی، ماشین‌ها نمی‌توانستند استاد بزرگ شطرنج را شکست دهند. اما زمانی که داده‌های آموزشی در اختیار آنها قرار داد شد و آنها به جای «حفظ آنچه دریافته‌اند»، به «جستجو همانند یک استاد» پرداختند، توانستند استاد بزرگ‌ها را شکست دهند. این روزها دیگر استاد بزرگ‌های شطرنج قادر به پیروزی نیستند.

دلیل این موضوع قانون مور است، با افزایش تعداد، هزینه نیز بسیار کاهش پیدا می‌کند. منطق هوش مصنوعی به این صورت است که هرچه داده‌های بیشتری مصرف شوند، مدل‌های بیشتری شکل می‌گیرند و هوش مصنوعی از لحاظ کمی انسان‌ها را شکست خواهد داد. اگر افزایش مقیاس را ملاکی برای دستیابی به هوش انسانی بدانیم، بازهم GPT-3 حدود ۱۰۰۰ برابر کوچکتر از مغز ۱۰۰ تریلیون سیناپسی انسان است.

مغز انسان تنها با چند بار مشاهده یک عمل آن را یاد می‌گیرد. ماشین‌ها هنوز قادر نیستند همانند انسان با تنها چند مثال یا حتی بدون مشاهده نمونه یک عمل را بیاموزند و GPT-3 نیز از این مسئله مستثنی نیست.

آموزش شبکه‌های عصبی GPT-3 هزینه بر است. مایکروسافت سال گذشته یک میلیارد دلار روی این پروژه سرمایه گذاری کرد. مسئله آلودگی کربنی نیز یکی دیگر از مشکلات پیش روست. حال آنکه یک شبکه عصبی بزرگ با آلودگی کربن پنج خودرو در تمام طول حیاتشان برابری می‌کند. از همین رو این سوال مطرح می‌شود که آیا هوش مصنوعی ارزش چنین هزینه‌هایی را دارد؟

اما مسئله اصلی این است که هوش مصنوعی تجاری باید قانونمند شود. این شرکت پیشتر راه‌اندازی GPT-2 با یک و نیم میلیارد پارامتر را به دلیل ترس از کاربردهای احتمالی به تعویق انداخت. ترس این شرکت بسیار منطقی بود؛ هوش مصنوعی می‌تواند از گرایشات نژادپرستانه و جنسیت ستیز داده‌هایی که دریافت می‌کند تقلید کند.

در عصر خبرهای جعلی، دستگاه‌هایی همچون GPT سلاح‌های قدرتمندی محسوب می‌شوند: سلاح هایی که با انتشار اطلاعات نادرست و تفرقه انداز، رقبای سیاسی را به جان هم بیاندازد.

منبع: theguardian

http://pvst.ir/8fs

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو