skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

بیل گیتس هراس چندانی از هوش مصنوعی ندارد اما راه‌حلی جدیدی هم ارائه نمی‌کند

۲۱ تیر ۱۴۰۲

زمان مطالعه : ۷ دقیقه

نظر بیل گیتس درمورد خطرات هوش مصنوعی

بیل گیتس هم همانند بسیاری از نامداران جهان تکنولوژی در مورد خطرات هوش مصنوعی اظهار نظر کرده است. او برخلاف طیفی از فعالان تکنولوژی معتقد است که چندان جای نگرانی نیست و ما پیش از این هم چنین شرایطی را تجربه کرده‌ایم.

پس از مدت‌ها اظهار نگرانی فعالان تکنولوژی و در حالی که سازمان همکاری و توسعه اقتصادی درمورد تبعات هوش مصنوعی به ویژه برای کشور‌های ثروتمند هشدار داده است، خوش‌بینی گیتس نمای امیدوارکننده‌‌تری از آینده را به تصویر می‌کشد. گیتس روز گذشته نظراتش را در وبلاگ شخصی خود منتشر کرد که در ادامه بررسی MIT Technology Review بر این پست وبلاگی و جوانب مختلف آن را مشاهده می‌کنید.

گفتنی است که ایلان ماسک و تعداد زیادی از متخصصان حوزه تکنولوژی پیش از این درمورد خطرات نابودگر این تکنولوژی برای بشر هشدار داده‌اند.

خوشبینی گیتس به معنی عدم نگرانی او نیست

میلیاردر و نیکوکار آمریکایی دیروز (۱۱ جولای) طی یک پست وبلاگی در بلاگ شخصی خود (GatesNotes) گفت: «می‌خواهم به نگرانی‌های بسیاری که شنیده و می‌خوانم، که بسیاری از آنها نگرانی من نیز هستند، اقرار کنم و نظرم درمورد آنها را توضیح دهم.»

به گفته گیتس، هوش مصنوعی «تحول‌آفرین‌ترین تکنولوژی است که همه ما در طول عمرمان خواهیم دید.» درنتیجه این تکنولوژی از نظر گیتس بالاتر از اینترنت، گوشی هوشمند و کامپیوتر‌های خانگی، که گیتس خودش بیشتر از همه در پیدایش آن نقش داشت، قرار می‌گیرد (و همچنین نشان می‌دهد که در چند دهه آینده رقیبی برای هوش مصنوعی پدید نمی‌آید.)

هوش مصنوعی تحول‌آفرین‌ترین تکنولوژی است که همه ما در طول عمرمان خواهیم دید.

گیتس یکی از ده‌ها چهره مطرحی است که بیانیه چند هفته پیش مرکز امنیت هوش مصنوعی (Center for AI Safety) سن‌فرانسیسکو را امضا کرد. این بیانیه تصریح می‌کند که: «جلوگیری از خطر انقراض ناشی از هوش مصنوعی باید در کنار دیگر خطرات گسترده اجتماعی از جمله همه‌گیری و جنگ اتمی در اولویت باشد.»

اما در پست وبلاگی گیتس خبری از این نوع وحشت‌آفرینی‌ها نیست. این پست اصلا نگاهی به خطر حیاتی و انقراض بشر ندارد. گیتس در عوض خطر «بلند مدت» را در مقابل «فوری» قرار داده و ترجیح می‌دهد که روی «خطراتی که در حال حاضر وجود دارند یا به زودی ایجاد می‌شوند» تمرکز کند.

دیوید لزلی، رئیس بخش تحقیقات اخلاق و مسئولیت نوآوری‌ در موسسه الن ترینگ (Alan Turing) انگلستان، می‌گوید: «گیتس مدت‌ها است که به این ریسمان چنگ می‌زند.» او یکی از چندین چهره‌ای است که یک دهه پیش و زمانی که برای اولین بار یادگیری عمیق به صحنه آمده بود،‌درمورد خطر هوش مصنوعی برای موجودیت بشر صحبت کرده است. لزلی می‌گوید:‌ «او خیلی درگذشته بیشتر از این نگران هوش برتر (superintelligence) بود. به نظر شدت [نگرانی او] کمتر شده است.»

تا زمان توسعه هوش مصنوعی عمومی (AGI)، حواسمان به خطرات فعلی باشد

گیتس به طور کامل خطرات حیاتی هوش مصنوعی و احتمالی نابودی بشر را نادیده نمی‌گیرد. او درمورد «زمانی که ما یک هوش مصنوعی با توانایی یادگیری هر موضوع یا کاری را توسعه دهیم» نگران است. این نوع هوش مصنوعی به هوش مصنوعی عمومی یا AGI شهرت دارد.

او می‌نویسد: «چه پس از یک دهه و چه یک قرن، زمانی که به این نقطه برسیم جامعه باید با سوالاتی جدی دست و پنجه نرم کند. چه می‌شود اگر یک هوش مصنوعی قدرتمند اهداف خودش را مشخص کند؟ اگر آنها با بشریت در تضاد باشند چه؟ آیا اصلا ضرورتی برای ساخت این هوش مصنوعی وجودد ارد؟ اما فکر کردن به این خطرات بلند مدت نباید باعث نادیده گرفتن خطرات فوری‌تر شود.»

دیدگاه گیتس چیزی مابین جفری هینتون، که از گوگل خارج شد و در ماه مه درمورد هوش مصنوعی اظهار نگرانی کرد، و افرادی مثل ین لیکان و جوئل پینو در تیم هوش مصنوعی شرکت متا (که معتقدند خطر نابودی بشر «بطور مضحکی نامعقول» و «روانی» است.) یا مردیت ویتاکسر از شرکت سیگنال است (که می‌گوید ترس هینتون و دیگران «داستان ارواح» است.)

لزلی می‌گوید: «در حالی که همه درمورد [خطرات هوش مصنوعی] صحبت می‌کنند، به نوعی اشباع شده‌ایم» و باید پرسید که گیتس با این اظهارنظر چه کمکی می‌کند.

لزلی هم همانند گیتس سناریو‌های تاریک را به طور کامل نادیده نمی‌گیرد. او می‌گوید: «تبهکاران می‌توانند از این تکنولوژی‌ها استفاده کرده و آسیب‌های جدی وارد کنند. برای درک این موضوع نیازی به پذیرش هوش برتر، روبات‌های آخرزمانی یا AGI نیست.»

او می‌گوید: «اما من هم موافقم که نگرانی‌های فعلی ما باید رفع خطرات موجود توسعه سریع هوش مصنوعی مولد باشد. خوب است که کمی دیدمان را متمرکز کرده و بگوییم، ‌خب نگرانی‌های فعلی چیست؟»

ما توان مدیریت خطرات فعلی را داریم

گیتس در پست وبلاگی خود تصریح می‌کند که هوش مصنوعی همین حالا در بسیاری از زمینه‌های مهم، از آموزش تا اشتغال، تهدیدی برای جامعه محسوب می‌شود. اما از نگاه با وجود چنین تهدید‌هایی، اوضاع تحت کنترل است: «بهترین دلیل برای باور اینکه توان مدیریت خطرات را داریم این است که در گذشته چنین کاری را انجام داده‌ایم.»

در دهه‌های ۱۹۷۰ و ۱۹۸۰، ماشین حساب‌ها روند یادگیری ریاضیات را برای دانش آموزان تغییر دادند تا به گفته گیتس به جای محاسبه روی «مهارت‌های فکری پس زمینه حساب» تمرکز کنند. از نگاه او اپلیکیشن‌هایی مثل ChatGPT هم حالا کاربرد مشابهی در موضوعات دیگر دارند.

در دهه‌های ۱۹۸۰ و ۱۹۹۰ نیز اپلیکیشن‌های پردازش کلمه و صفحات گسترده کامپیوتری ساز و کار ادارات را متحول کردند-که شرکت متعلق به گیتس، مایکروسافت، چنین تغییراتی را رهبری می‌کرد.

گیتس در این مورد هم به انطباق مردم با شرایط به وجود آمده اشاره کرده و می‌گوید چنین کاری دوباره امکان‌پذیر است. او می‌نویسد: «اپلیکیشن‌های پردازش کلمه کار دفتری را نابود نکردند بلکه آن را برای همیشه تغییر دادند. تحول ناشی از هوش مصنوعی یک گذار پر مانع است، اما دلایل زیادی نشان می‌دهد که می‌توانیم اختلال آن در زندگی و روزمره مردم را کاهش دهیم.»

اطلاعات وارونه هم وضعیت مشابهی دارند: ما نحوه مبارزه با اسپم را یاد گرفتیم و می‌توانیم همین کار را برای دیپ‌فیک‌ها انجام دهیم. گیتس می‌نویسد: «نهایتا، اکثر مردم یاد گرفتن که مراقب ایمیل‌ها باشند. با پیچیده‌تر شدن کلاهبرداری‌ها، اهداف آنها نیز پیچده‌تر شدند. ما باید برای دیپ‌فیک‌ها هم بازوی مشابهی بسازیم.»

همان پیشنهادات همیشگی

گیتس خواستار اقدام سریع و محتاطانه برای رفع این مشکلات است. اما مشکل اینجاست که او هیچ پیشنهاد جدیدی ندارد. بسیاری از پیشنهادات او قبلا امتحان شده‌اند؛ برخی از آنها هم سطحی و بی محتوا هستند.

پیشنهادات گیتس برای رفع مشکلات هوش مصنوعی یا قبلا امتحان شده‌اند و یا سطحی و بی‌محتوا هستند.

گیتس نیز همانند دیگران خواستار قانون‌گذاری هوش مصنوعی توسط یک نهاد بین‌المللی است، درست شبیه به آژانس انرژی اتمی که فناوری هسته‌ای را قانون‌گذاری می‌کند. او معتقد است که چنین اقدامی راهکار خوبی برای کنترل توسعه سلاح‌های سایبری هوش مصنوعی است اما گیتس مشخص نمی‌کند که این مقررات باید از چه چیزی جلوگیری کرده و یا چه چیزی را اجبار کنند.

به گفته او دولت و کسب‌وکارها باید از برنامه‌های آموزشی حمایت کنند تا مردم از بازار کار عقب نمانند. او می‌گوید در گذار به جهانی که اپلیکیشن هایی مثل ChatGPT یک چیز معمولی محسوب می‌شوند، باید از معلم‌ها حمایت کرد. اما گیتس چگونگی این پشتیبانی را مشخص نمی‌کند.

به گفته او باید مهارت بیشتری در شناسایی دیپ‌فیک‌ها داشته باشیم یا حداقل ابزاری برای شناسایی آنها تهیه کنیم. اما ابزارهای جدید به اندازه کافی در شناسایی تصاویر یا متون مهارت ندارند. با پیشرفت هوش مصنوعی مولد، آیا شناساگرها توان همپایی دارند؟؟

گیتس درست می‌گوید که: «در راستای یک بحث سالم باید همه درکی از تکنولوژی، مزایا و خطرات آن داشته باشند» اما نتیجه نهایی او معمولا این است که هوش مصنوعی خودش مشکلات هوش مصنوعی را حل می‌کند- رویکردی که همه با آن موافق نیستند.

درست است که خطرات فوری باید در اولویت قرار گیرند. بله ما پیش از این هم مشکلات مربوط به فناوری را پشت سر گذاشته‌ایم و دوباره هم توان چنین کاری را داریم. اما چگونه؟

گیتس می‌نویسد: «با توجه به چیزهایی که تا امروز درمورد خطرات هوش مصنوعی نوشته شده- که نوشته‌های بسیاری هستند-یک مساله روشن است و آن اینکه هیچکس همه جواب‌ها را ندارد.»

هنوز هم همینطور است.

https://pvst.ir/fek

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو