skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

فناوری

پرستو توکلی نویسنده میهمان

سخنرانی TED جنیفر گلبک: هوش مصنوعی از این پس جهشی نخواهد داشت

پرستو توکلی
نویسنده میهمان

۱۰ فروردین ۱۴۰۴

زمان مطالعه : ۱۲ دقیقه

تاریخ به‌روزرسانی: ۱ فروردین ۱۴۰۴

جنیفر گلبک، مهندس علوم رایانه

جنیفر گلبک، دانشمند علوم رایانه معقتد است توانایی هوش مصنوعی که امروزه از سمت رسانه‌ها ترسناک و تمدن‌برانگیز توصیف می‌شود تنها در زمینه فعالیت‌های تولید موفق است و همچنان از توانایی هوش انسانی از جمله احساسات عمیق او در فاصله بسیاری قرار دارد. او در سخنرانی خود گفت که ممکن است از این پس آنچه تحت عنوان توسعه هوش مصنوعی دیده شود صرفا پیشرفت‌های تدریجی باشد نه جهش بزرگ.

به گزارش پیوست، جنیفر گلبک، دانشمند علوم رایانه معتقد است پیش از این هوش مصنوعی‌هایی ساخته‌ایم که در انجام وظایف خاصی بهتر از انسان‌ها عمل می‌کنند. برای مثال، هوش مصنوعی‌ای وجود دارد که می‌تواند شطرنج بازی کند و استادان بزرگ شطرنج انسانی را شکست دهد. اما از زمانی که هوش مصنوعی مولد (Generative AI) به صورت عمومی معرفی شد، بحث‌های بیشتری درباره هوش مصنوعی عمومی یا «AG» مطرح شده است. این اصطلاح به ایده‌ای اشاره دارد که می‌گوید هوش مصنوعی می‌تواند در مجموعه‌ای گسترده از وظایف، در سطحی برابر یا حتی بالاتر از انسان‌ها عمل کند؛ درست همان‌طور که ما انسان‌ها توانایی انجام کارهای مختلف را داریم. افرادی که درباره هوش مصنوعی عمومی فکر می‌کنند، نگران هستند که اگر به چنین سطحی از عملکرد در فناوری دست پیدا کنیم، چه پیامدهایی خواهد داشت.

طبق گفته جنیفر گلبک در حال حاضر، برخی از افراد در صنعت فناوری ادعا می‌کنند که هوش مصنوعی‌ای که در حال ساخت آن هستند آنقدر قدرتمند و خطرناک است که می‌تواند تهدیدی برای تمدن بشری باشد و حتی به دولت‌ها پیشنهاد می‌دهند که شاید لازم باشد این فناوری را محدود یا قانون‌گذاری کنند. اما معمولاً وقتی یک صنعت ابزار قدرتمند جدیدی می‌سازد، ادعا نمی‌کند که آن ابزار می‌تواند یک تهدید وجودی برای بشریت باشد و باید محدود شود. پس چرا چنین زبان و بیانی را می‌شنویم؟

جنیفر گلبک ۲ دلیل برای این موضوع مطرح می‌کند. نخست، جلب سرمایه‌گذاری از طریق ایجاد ترس است. اگر فناوری شما آنقدر قدرتمند باشد که بتواند تمدن بشری را نابود کند، این یعنی فرصت‌های مالی فوق‌العاده‌ای در این مسیر وجود دارد. چه راهی بهتر از این برای متقاعد کردن سرمایه‌گذاران که ابزار شما آنقدر خطرناک و ارزشمند است که باید روی آن سرمایه‌گذاری کنند؟

دومین علتی که جنیفر گلبک آن را بیان می‌کند، جذابیت سینمایی ایده تسلط هوش مصنوعی بر بشریت است. این یک مفهوم جذاب و سرگرم‌کننده است. همه ما فیلم‌هایی را دیده‌ایم که درباره تسلط هوش مصنوعی بر انسان‌ها ساخته شده‌ و حالا تصور این که چنین سناریوهایی ممکن است به واقعیت تبدیل شود، توجه زیادی را جلب می‌کند.

جنیفر گلبک معتقد است این موضوع آنقدر سرگرم‌کننده است که می‌تواند حواس ما را از مشکلات واقعی و موجود ناشی از هوش مصنوعی منحرف کند. هرچه بیشتر به آینده‌های نامحتمل فکر کنیم، وقت کمتری برای بررسی مسائلی مانند مشکل دیپ‌فیک‌ها (ویدیوهای جعلی) یا این حقیقت که همین حالا هوش مصنوعی در تصمیم‌گیری‌های حساس مثل تعیین آزادی زندانیان مورد استفاده قرار می‌گیرد و دارای سوگیری‌های نژادی است، خواهیم داشت.

آیا ما واقعا به دستیابی به هوش مصنوعی عمومی «AGI» نزدیک هستیم؟

از نظر جنیفر گلبک برخی افراد اینطور فکر می‌کنند. ایلان ماسک گفته است که ما ظرف یک سال به نوع جدیدی از  فناوری دست خواهیم یافت. اما در همین زمان، شرکت گوگل ابزار جست‌وجوی هوش مصنوعی خود را معرفی کرد که قرار بود به شما پاسخ دهد تا دیگر نیازی به کلیک روی لینک‌ها نباشد و نتیجه کار چندان موفق نبود.

جنیفر گلبک در ادامه سخنرانی خود گفت: البته این ابزارها به مرور زمان بهتر خواهند شد، اما اگر قرار باشد به هوش مصنوعی عمومی دست یابیم یا حتی اگر این فناوری بخواهد به طور بنیادی نحوه کار و زندگی ما را تغییر دهد، باید شاهد یک روند پیشرفت صعودی و مداوم در توانایی‌های آن باشیم. اما احتمال دیگری هم وجود دارد؛ شاید آنچه امروز می‌بینیم، سقف توانایی‌های این فناوری باشد و از این پس تنها شاهد پیشرفت‌های تدریجی باشیم، نه جهش‌های بزرگ.

جنیفر گلبک معقتد است برای درک آینده هوش مصنوعی باید از میان هیاهوی تبلیغاتی عبور کنیم و ببینیم واقعاً چه چیزی از نظر فنی امکان‌پذیر است. همچنین باید بدانیم که در کدام حوزه‌ها باید نگران باشیم و در کدام‌ موارد نیازی به نگرانی نیست.

چالش اصلی اعتمادپذیری است

جنیفر گلبک در ادامه گفت: اگر بخواهیم به وعده‌های بزرگ درباره هوش مصنوعی دست پیدا کنیم، مهم‌ترین چالشی که باید حل کنیم، قابل‌ اعتماد بودن این فناوری است. این الگوریتم‌ها اغلب اشتباه می‌کنند. برای مثال، وقتی گوگل پس از ارائه نتایج نادرست جست‌وجوی هوش مصنوعی خود، با انتقادات زیادی مواجه شد، رسما اعلام کرد: «ما نمی‌دانیم چطور این مشکل را برطرف کنیم.» من خودم هر روز از ChatGPT استفاده می‌کنم و از آن برای مطالعه یک خبرنامه استفاده می‌کنم که بحث‌های موجود در انجمن‌های راست افراطی را خلاصه می‌کند. من داده‌ها را دانلود می‌کنم و ChatGPT به من کمک می‌کند تا خلاصه‌ای از آنها بنویسم. این باعث می‌شود که کارم سریع‌تر پیش برود، اما هر روز باید اشتباهاتش را تصحیح کنم، چون گاهی موضوع را بد می‌فهمد یا از متن اصلی خارج می‌شود. به همین دلیل نمی‌توان به طور کامل به آن اعتماد کرد تا کار را به تنهایی انجام دهد.

مساله توهم هوش مصنوعی 

جنیفر گلبک یکی از مشکلات زیرمجموعه اعتمادپذیری هوش مصنوعی را توهم این فناوری عنوان کرد. او در ارتباط با این مساله گفت: توهم هوش مصنوعی (AI Hallucination) یک اصطلاح فنی برای توضیح این واقعیت است که هوش مصنوعی گاهی اوقات چیزهایی را کاملاً از خودش می‌سازد! برای مثال، در خبرنامه‌ام از ChatGPT پرسیدم: «آیا کسی تهدید به خشونت کرده است؟ اگر بله، نقل‌قول‌ها را ارائه بده.»

هوش مصنوعی سه تهدید واضح از خشونت را به من نشان داد که اصلاً شبیه سبک گفتار افراد در آن انجمن‌ها نبود. وقتی به داده‌های اصلی برگشتم، دیدم هیچ‌ شخصی چنین چیزی نگفته بود. هوش مصنوعی این تهدیدات را از «هیچ» ساخته بود! ممکن است این پدیده را هنگام استفاده از تولیدکننده‌های تصویر هوش مصنوعی هم دیده باشید. مثلاً از آن خواستم تصویر نمای نزدیکی از «افرادی که دست هم را گرفته‌اند» ایجاد کند. نتیجه تصویری بود که اصلاً طبیعی نبود و حتی ترسناک و عجیب به نظر می‌رسید.

آیا می‌توان مشکل توهم را حل کرد؟

جنیفر گلبک در این سخرانی گفت: من فکر نمی‌کنم این مساله با ساختار فعلی فناوری هوش مصنوعی قابل حل باشد. برخی افراد ادعا می‌کنند این مشکل را ظرف چند ماه حل خواهند کرد، اما هیچ دلیل فنی وجود ندارد که این ادعا درست باشد، چون هوش مصنوعی مولد هر بار که از آن سوالی می‌پرسید، پاسخ را از ابتدا می‌سازد و برخلاف یک موتور جست‌وجو که پاسخ‌ها را از صفحات موجود پیدا می‌کند، هوش مصنوعی مولد پاسخ را تولید می‌کند، نه بازیابی.

بنابراین، چون کار اصلی این فناوری «اختراع» پاسخ است، نمی‌دانم چگونه می‌توانیم از آن بخواهیم که فقط پاسخ‌های صحیح بسازد و هیچ‌ وقت چیزی را از خودش خلق نکند. این اصلا چیزی نیست که برای آن آموزش دیده باشد و ما هنوز فاصله زیادی تا دستیابی به چنین توانایی‌ای داریم.

اعتماد به AI در حوزه حقوقی ممکن است؟

جنیفر گلبک در ادامه سخنرانی گفت: یکی از حوزه‌هایی که امید زیادی به هوش مصنوعی وجود دارد، حوزه حقوقی است. بسیاری از افراد امیدوارند که این فناوری بتواند در نگارش لوایح حقوقی یا انجام تحقیقات قضایی کمک کند. اما برخی افراد به سختی دریافته‌اند که نباید به ChatGPT برای نوشتن لوایح قانونی اعتماد کنند و آن را مستقیماً به دادگاه فدرال بفرستند! چرا؟ چون این فناوری موارد حقوقی جعلی می‌سازد، پرونده‌هایی که کاملاً منطقی و درست به نظر می‌رسند اما در واقع وجود خارجی ندارند. این یک راه سریع برای عصبانی کردن قاضی و رد شدن پرونده شما است.

بهترین مدل‌های هوش مصنوعی بدون توهم هنوز هم در ۱۷٪ مواقع دچار توهم می‌شوند

در حال حاضر برخی از شرکت‌های تحقیقاتی حقوقی ادعا می‌کنند که «هوش مصنوعی بدون توهم» ارائه می‌دهند. من نسبت به این ادعا تردید داشتم، اما محققان دانشگاه استنفورد این موضوع را بررسی کردند و متوجه شدند که حتی بهترین مدل‌های هوش مصنوعی بدون توهم هنوز هم در ۱۷٪ مواقع دچار توهم می‌شوند.

امیدی نگران‌کننده

جنیفر گلبک معقتد است از یک طرف، این یک دستاورد علمی بزرگ است که ما ابزاری ساخته‌ایم که می‌تواند به اکثر سوالات پاسخ دهد و در ۶۰ یا ۷۰ یا حتی ۸۰ درصد موارد، پاسخ معقولی ارائه کند. اما از طرف دیگر، اگر قرار باشد روی این ابزارها حساب کنیم و بدانیم که آنها در ۲۰ تا ۳۰ درصد مواقع اشتباه می‌کنند، دیگر نمی‌توان به آنها اعتماد کامل داشت. این موضوع ما را به این سوال می‌رساند که چطور می‌توانیم این ابزارها را واقعا مفید کنیم؟ حتی اگر فکر کنیم می‌توانیم مشکل توهم و اعتمادپذیری را حل کنیم، این فناوری هنوز هم نیاز دارد تا بهتر از وضعیت فعلی شود. برای رسیدن به این هدف، به ۲ متغیر نیاز داریم. نخست داده‌های بسیار بیشتر و سپس پیشرفت در فناوری اصلی هوش مصنوعی است.

چالش تامین داده

جنیفر گلبک پیرو الزام دسترسی هوش مصنوعی به داده‌ گفت: از کجا قرار است این همه داده جدید پیدا کنیم؟ واقعیت این است که تقریبا تمام داده‌های قابل‌ اعتماد اینترنتی تاکنون برای آموزش هوش مصنوعی استفاده شده است. حتی اگر ۲برابر داده‌های فعلی پیدا کنیم، این به معنای  ۲برابر شدن هوش سیستم نیست. اگر هوش مصنوعی شروع به آموزش دیدن از محتوایی کند که خودش تولید کرده است، بر اساس دهه‌ها تحقیق در این زمینه می‌دانیم که کیفیت عملکردش به تدریج کاهش می‌یابد. حتی اگر مشکل داده‌ها را حل کنیم، باید همچنان فناوری را بهبود دهیم.

در سال‌های اخیر، بیش از ۵۰ میلیارد دلار برای بهبود هوش مصنوعی مولد سرمایه‌گذاری شده، اما فقط ۳ میلیارد دلار درآمد ایجاد کرده است. این روند پایدار نیست و البته این صنعت هنوز در مراحل اولیه است.

شاید شرکت‌ها راه‌های جدیدی برای کسب درآمد از این فناوری پیدا کنند. اما سؤال اینجاست که آیا این فناوری به اندازه‌ای ارزشمند خواهد بود که بتواند صدها میلیارد دلار هزینه زیرساخت را توجیه کند؟ من فکر نمی‌کنم که این گونه باشد.

هراس از دست دادن شغل 

جنیفر گلبک  با اشاره به اینکه یکی از بزرگ‌ترین نگرانی‌های پیرامون هوش مصنوعی از دست دادن شغل است گفت:  اما به نظر من در این نگرانی، یک سوءتفاهم اساسی وجود دارد. فرض کنید یک شرکت می‌تواند حقوق ۲ مهندس نرم‌افزار را پرداخت کند. حالا به این ۲ مهندس، هوش مصنوعی بدهید تا به آنها در نوشتن کد کمک کند.

فرض کنیم (که البته اغراق‌آمیز است) بهره‌وری آنها ۲ برابر شود. در این صورت، شرکت ۲ انتخاب دارد. نخست اخراج یکی از مهندسان، چون دیگری می‌تواند کار هر ۲ نفر را انجام دهد و دوم، نگه داشتن هر ۲ نفر و استفاده از افزایش بهره‌وری برای کسب سود بیشتر.

کدام انتخاب به‌صرفه‌تر است؟ اگر هزینه استفاده از هوش مصنوعی خیلی بالا باشد، اخراج کارمندان به‌صرفه نیست. امروز نسخه‌های ارزان و متن‌باز این ابزارها وجود دارد که شرکت‌ها می‌توانند با هزینه کم از آنها استفاده کنند. حتی اگر این ابزارها به اندازه مدل‌های پیشرفته خوب نباشند، باز هم برای بسیاری از شرکت‌ها مقرون‌به‌صرفه‌تر هستند و شرکت‌ها می‌توانند به جای هزینه سالانه صدها هزار دلار از این مدل‌های ارزان استفاده کنند.

بنابراین حتی اگر قابلیت اطمینان و مشکل داده هوش مصنوعی را حل کنیم و مدل‌ها را بهبود بخشیم، این واقعیت که نسخه‌های ارزان قیمتی از این موجود است نشان می‌دهد که شرکت‌ها قرار نیست صدها میلیون دلار برای جایگزینی نیروی کار خود با هوش مصنوعی هزینه کنند.

سوگیری‌های انسانی در هوش مصنوعی

طبق گفته جنیفر گلبک یکی از بزرگ‌ترین مشکلات هوش مصنوعی این است که اگر آن را با داده‌های انسانی آموزش دهیم، همان سوگیری‌های انسانی را یاد می‌گیرد.

او پیرو این موضوع گفت: من بیش از ۲۰ سال است که در زمینه هوش مصنوعی کار می‌کنم و می‌توانم با اطمینان بگویم که ما هنوز نتوانسته‌ایم این مشکل را حل کنیم. ما این سوگیری‌ها (Biases) را حتی در هوش مصنوعی‌های مولد جدید هم می‌بینیم. واکنش اولیه معمولا این است که بگوییم که تنها باید یک سری قوانین محدودکننده بگذاریم تا از بروز سوگیری جلوگیری کنیم.

اما این کار شامل ۲ مشکل اساسی است. این قوانین هیچ‌وقت سوگیری را به‌طور کامل از بین نمی‌برند، چون هوش مصنوعی همیشه راهی پیدا می‌کند تا از این قوانین عبور کند و دوم این که خود این محدودیت‌ها می‌توانند مشکلات جدیدی ایجاد کنند. به عنوان مثال، گوگل یک مولد تصویر هوش مصنوعی داشت و سعی کرد با اضافه کردن محدودیت‌هایی، سوگیری‌های نژادی و جنسیتی را کنترل کند.

اما نتیجه چه شد؟ وقتی از آن درخواست کردیم تصویری از امضای اعلامیه استقلال آمریکا بسازد، تصویری تولید کرد که از نظر تاریخی کاملا اشتباه بود.در تلاش برای رفع سوگیری، در واقع مشکل جدیدی در دقت و صحت اطلاعات به وجود آمد.

آیا باید تصمیم‌گیری‌های انسانی را به هوش مصنوعی بسپاریم؟

جنیفر گلبک در این سخنرانی گفت: اگر قرار باشد هوش مصنوعی در تصمیم‌گیری‌های مهم انسانی دخالت کند، باید این مشکل سوگیری را قبل از پذیرش گسترده آن حل کنیم.

در غیر این صورت، ما به سیستمی وابسته خواهیم شد که تصمیماتش بر اساس پیش‌داوری‌ها و کلیشه‌های انسانی است، اما چون این تصمیمات از هوش مصنوعی می‌آیند، ممکن است کمتر مورد نقد قرار بگیرند.

تفاوت‌های اساسی بین هوش مصنوعی و هوش انسانی

جنیفر گلبک در پایان سخنرانی خود گفت: در نهایت، باید به این نکته توجه کنیم که هوش انسانی فقط در توانایی انجام کارهای تولیدی یا فکری خلاصه نمی‌شود. هوش انسانی ریشه در توانایی‌های عمیق‌تری دارد. ایجاد ارتباطات عاطفی (Emotional Connection)، واکنش‌های احساسی (Emotional Responses)،  ترکیب تجربیات گذشته با اطلاعات جدید (Integration of Experiences) و خلاقیت اصیل (Genuine Creativity) مواردی است که هوش مصنوعی نه حالا و نه هیچ وقت دیگر نمی‌تواند آنها را به‌طور واقعی انجام دهد.بله، شاید این فناوری بتواند تقلیدی از این ویژگی‌ها ارائه دهد. یک نسخه ارزان‌قیمت و مصنوعی از همدلی یا خلاقیت، اما هیچ‌وقت نمی‌تواند جایگزین احساسات انسانی واقعی شود. به همین دلیل است که من نگران نیستم هوش مصنوعی عمومی (AGI) بتواند کنترل تمدن بشری را در دست بگیرد.

https://pvst.ir/kp6

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو