معرفی سیزده هوش مصنوعی تولید و پردازش تصویر: خلق از حروف ساده
امروزه و با توسعه هوش مصنوعی ابزار پردازش تصویر بسیاری برای تبدیل متن به تصویر…
۳۰ آبان ۱۴۰۳
۲۱ تیر ۱۴۰۲
زمان مطالعه : ۷ دقیقه
بیل گیتس هم همانند بسیاری از نامداران جهان تکنولوژی در مورد خطرات هوش مصنوعی اظهار نظر کرده است. او برخلاف طیفی از فعالان تکنولوژی معتقد است که چندان جای نگرانی نیست و ما پیش از این هم چنین شرایطی را تجربه کردهایم.
پس از مدتها اظهار نگرانی فعالان تکنولوژی و در حالی که سازمان همکاری و توسعه اقتصادی درمورد تبعات هوش مصنوعی به ویژه برای کشورهای ثروتمند هشدار داده است، خوشبینی گیتس نمای امیدوارکنندهتری از آینده را به تصویر میکشد. گیتس روز گذشته نظراتش را در وبلاگ شخصی خود منتشر کرد که در ادامه بررسی MIT Technology Review بر این پست وبلاگی و جوانب مختلف آن را مشاهده میکنید.
گفتنی است که ایلان ماسک و تعداد زیادی از متخصصان حوزه تکنولوژی پیش از این درمورد خطرات نابودگر این تکنولوژی برای بشر هشدار دادهاند.
میلیاردر و نیکوکار آمریکایی دیروز (۱۱ جولای) طی یک پست وبلاگی در بلاگ شخصی خود (GatesNotes) گفت: «میخواهم به نگرانیهای بسیاری که شنیده و میخوانم، که بسیاری از آنها نگرانی من نیز هستند، اقرار کنم و نظرم درمورد آنها را توضیح دهم.»
به گفته گیتس، هوش مصنوعی «تحولآفرینترین تکنولوژی است که همه ما در طول عمرمان خواهیم دید.» درنتیجه این تکنولوژی از نظر گیتس بالاتر از اینترنت، گوشی هوشمند و کامپیوترهای خانگی، که گیتس خودش بیشتر از همه در پیدایش آن نقش داشت، قرار میگیرد (و همچنین نشان میدهد که در چند دهه آینده رقیبی برای هوش مصنوعی پدید نمیآید.)
هوش مصنوعی تحولآفرینترین تکنولوژی است که همه ما در طول عمرمان خواهیم دید.
گیتس یکی از دهها چهره مطرحی است که بیانیه چند هفته پیش مرکز امنیت هوش مصنوعی (Center for AI Safety) سنفرانسیسکو را امضا کرد. این بیانیه تصریح میکند که: «جلوگیری از خطر انقراض ناشی از هوش مصنوعی باید در کنار دیگر خطرات گسترده اجتماعی از جمله همهگیری و جنگ اتمی در اولویت باشد.»
اما در پست وبلاگی گیتس خبری از این نوع وحشتآفرینیها نیست. این پست اصلا نگاهی به خطر حیاتی و انقراض بشر ندارد. گیتس در عوض خطر «بلند مدت» را در مقابل «فوری» قرار داده و ترجیح میدهد که روی «خطراتی که در حال حاضر وجود دارند یا به زودی ایجاد میشوند» تمرکز کند.
دیوید لزلی، رئیس بخش تحقیقات اخلاق و مسئولیت نوآوری در موسسه الن ترینگ (Alan Turing) انگلستان، میگوید: «گیتس مدتها است که به این ریسمان چنگ میزند.» او یکی از چندین چهرهای است که یک دهه پیش و زمانی که برای اولین بار یادگیری عمیق به صحنه آمده بود،درمورد خطر هوش مصنوعی برای موجودیت بشر صحبت کرده است. لزلی میگوید: «او خیلی درگذشته بیشتر از این نگران هوش برتر (superintelligence) بود. به نظر شدت [نگرانی او] کمتر شده است.»
گیتس به طور کامل خطرات حیاتی هوش مصنوعی و احتمالی نابودی بشر را نادیده نمیگیرد. او درمورد «زمانی که ما یک هوش مصنوعی با توانایی یادگیری هر موضوع یا کاری را توسعه دهیم» نگران است. این نوع هوش مصنوعی به هوش مصنوعی عمومی یا AGI شهرت دارد.
او مینویسد: «چه پس از یک دهه و چه یک قرن، زمانی که به این نقطه برسیم جامعه باید با سوالاتی جدی دست و پنجه نرم کند. چه میشود اگر یک هوش مصنوعی قدرتمند اهداف خودش را مشخص کند؟ اگر آنها با بشریت در تضاد باشند چه؟ آیا اصلا ضرورتی برای ساخت این هوش مصنوعی وجودد ارد؟ اما فکر کردن به این خطرات بلند مدت نباید باعث نادیده گرفتن خطرات فوریتر شود.»
دیدگاه گیتس چیزی مابین جفری هینتون، که از گوگل خارج شد و در ماه مه درمورد هوش مصنوعی اظهار نگرانی کرد، و افرادی مثل ین لیکان و جوئل پینو در تیم هوش مصنوعی شرکت متا (که معتقدند خطر نابودی بشر «بطور مضحکی نامعقول» و «روانی» است.) یا مردیت ویتاکسر از شرکت سیگنال است (که میگوید ترس هینتون و دیگران «داستان ارواح» است.)
لزلی میگوید: «در حالی که همه درمورد [خطرات هوش مصنوعی] صحبت میکنند، به نوعی اشباع شدهایم» و باید پرسید که گیتس با این اظهارنظر چه کمکی میکند.
لزلی هم همانند گیتس سناریوهای تاریک را به طور کامل نادیده نمیگیرد. او میگوید: «تبهکاران میتوانند از این تکنولوژیها استفاده کرده و آسیبهای جدی وارد کنند. برای درک این موضوع نیازی به پذیرش هوش برتر، روباتهای آخرزمانی یا AGI نیست.»
او میگوید: «اما من هم موافقم که نگرانیهای فعلی ما باید رفع خطرات موجود توسعه سریع هوش مصنوعی مولد باشد. خوب است که کمی دیدمان را متمرکز کرده و بگوییم، خب نگرانیهای فعلی چیست؟»
گیتس در پست وبلاگی خود تصریح میکند که هوش مصنوعی همین حالا در بسیاری از زمینههای مهم، از آموزش تا اشتغال، تهدیدی برای جامعه محسوب میشود. اما از نگاه با وجود چنین تهدیدهایی، اوضاع تحت کنترل است: «بهترین دلیل برای باور اینکه توان مدیریت خطرات را داریم این است که در گذشته چنین کاری را انجام دادهایم.»
در دهههای ۱۹۷۰ و ۱۹۸۰، ماشین حسابها روند یادگیری ریاضیات را برای دانش آموزان تغییر دادند تا به گفته گیتس به جای محاسبه روی «مهارتهای فکری پس زمینه حساب» تمرکز کنند. از نگاه او اپلیکیشنهایی مثل ChatGPT هم حالا کاربرد مشابهی در موضوعات دیگر دارند.
در دهههای ۱۹۸۰ و ۱۹۹۰ نیز اپلیکیشنهای پردازش کلمه و صفحات گسترده کامپیوتری ساز و کار ادارات را متحول کردند-که شرکت متعلق به گیتس، مایکروسافت، چنین تغییراتی را رهبری میکرد.
گیتس در این مورد هم به انطباق مردم با شرایط به وجود آمده اشاره کرده و میگوید چنین کاری دوباره امکانپذیر است. او مینویسد: «اپلیکیشنهای پردازش کلمه کار دفتری را نابود نکردند بلکه آن را برای همیشه تغییر دادند. تحول ناشی از هوش مصنوعی یک گذار پر مانع است، اما دلایل زیادی نشان میدهد که میتوانیم اختلال آن در زندگی و روزمره مردم را کاهش دهیم.»
اطلاعات وارونه هم وضعیت مشابهی دارند: ما نحوه مبارزه با اسپم را یاد گرفتیم و میتوانیم همین کار را برای دیپفیکها انجام دهیم. گیتس مینویسد: «نهایتا، اکثر مردم یاد گرفتن که مراقب ایمیلها باشند. با پیچیدهتر شدن کلاهبرداریها، اهداف آنها نیز پیچدهتر شدند. ما باید برای دیپفیکها هم بازوی مشابهی بسازیم.»
گیتس خواستار اقدام سریع و محتاطانه برای رفع این مشکلات است. اما مشکل اینجاست که او هیچ پیشنهاد جدیدی ندارد. بسیاری از پیشنهادات او قبلا امتحان شدهاند؛ برخی از آنها هم سطحی و بی محتوا هستند.
پیشنهادات گیتس برای رفع مشکلات هوش مصنوعی یا قبلا امتحان شدهاند و یا سطحی و بیمحتوا هستند.
گیتس نیز همانند دیگران خواستار قانونگذاری هوش مصنوعی توسط یک نهاد بینالمللی است، درست شبیه به آژانس انرژی اتمی که فناوری هستهای را قانونگذاری میکند. او معتقد است که چنین اقدامی راهکار خوبی برای کنترل توسعه سلاحهای سایبری هوش مصنوعی است اما گیتس مشخص نمیکند که این مقررات باید از چه چیزی جلوگیری کرده و یا چه چیزی را اجبار کنند.
به گفته او دولت و کسبوکارها باید از برنامههای آموزشی حمایت کنند تا مردم از بازار کار عقب نمانند. او میگوید در گذار به جهانی که اپلیکیشن هایی مثل ChatGPT یک چیز معمولی محسوب میشوند، باید از معلمها حمایت کرد. اما گیتس چگونگی این پشتیبانی را مشخص نمیکند.
به گفته او باید مهارت بیشتری در شناسایی دیپفیکها داشته باشیم یا حداقل ابزاری برای شناسایی آنها تهیه کنیم. اما ابزارهای جدید به اندازه کافی در شناسایی تصاویر یا متون مهارت ندارند. با پیشرفت هوش مصنوعی مولد، آیا شناساگرها توان همپایی دارند؟؟
گیتس درست میگوید که: «در راستای یک بحث سالم باید همه درکی از تکنولوژی، مزایا و خطرات آن داشته باشند» اما نتیجه نهایی او معمولا این است که هوش مصنوعی خودش مشکلات هوش مصنوعی را حل میکند- رویکردی که همه با آن موافق نیستند.
درست است که خطرات فوری باید در اولویت قرار گیرند. بله ما پیش از این هم مشکلات مربوط به فناوری را پشت سر گذاشتهایم و دوباره هم توان چنین کاری را داریم. اما چگونه؟
گیتس مینویسد: «با توجه به چیزهایی که تا امروز درمورد خطرات هوش مصنوعی نوشته شده- که نوشتههای بسیاری هستند-یک مساله روشن است و آن اینکه هیچکس همه جوابها را ندارد.»
هنوز هم همینطور است.