جریمه ۱۵۰ میلیون یورویی فرانسه برای اپل
نهاد ناظر بر رقابت فرانسه، اپل را به دلیل شیوههای جمعآوری دادههای کاربران در iOS…
۱۱ فروردین ۱۴۰۴
۱۰ فروردین ۱۴۰۴
زمان مطالعه : ۱۲ دقیقه
تاریخ بهروزرسانی: ۱ فروردین ۱۴۰۴
جنیفر گلبک، دانشمند علوم رایانه معقتد است توانایی هوش مصنوعی که امروزه از سمت رسانهها ترسناک و تمدنبرانگیز توصیف میشود تنها در زمینه فعالیتهای تولید موفق است و همچنان از توانایی هوش انسانی از جمله احساسات عمیق او در فاصله بسیاری قرار دارد. او در سخنرانی خود گفت که ممکن است از این پس آنچه تحت عنوان توسعه هوش مصنوعی دیده شود صرفا پیشرفتهای تدریجی باشد نه جهش بزرگ.
به گزارش پیوست، جنیفر گلبک، دانشمند علوم رایانه معتقد است پیش از این هوش مصنوعیهایی ساختهایم که در انجام وظایف خاصی بهتر از انسانها عمل میکنند. برای مثال، هوش مصنوعیای وجود دارد که میتواند شطرنج بازی کند و استادان بزرگ شطرنج انسانی را شکست دهد. اما از زمانی که هوش مصنوعی مولد (Generative AI) به صورت عمومی معرفی شد، بحثهای بیشتری درباره هوش مصنوعی عمومی یا «AG» مطرح شده است. این اصطلاح به ایدهای اشاره دارد که میگوید هوش مصنوعی میتواند در مجموعهای گسترده از وظایف، در سطحی برابر یا حتی بالاتر از انسانها عمل کند؛ درست همانطور که ما انسانها توانایی انجام کارهای مختلف را داریم. افرادی که درباره هوش مصنوعی عمومی فکر میکنند، نگران هستند که اگر به چنین سطحی از عملکرد در فناوری دست پیدا کنیم، چه پیامدهایی خواهد داشت.
طبق گفته جنیفر گلبک در حال حاضر، برخی از افراد در صنعت فناوری ادعا میکنند که هوش مصنوعیای که در حال ساخت آن هستند آنقدر قدرتمند و خطرناک است که میتواند تهدیدی برای تمدن بشری باشد و حتی به دولتها پیشنهاد میدهند که شاید لازم باشد این فناوری را محدود یا قانونگذاری کنند. اما معمولاً وقتی یک صنعت ابزار قدرتمند جدیدی میسازد، ادعا نمیکند که آن ابزار میتواند یک تهدید وجودی برای بشریت باشد و باید محدود شود. پس چرا چنین زبان و بیانی را میشنویم؟
جنیفر گلبک ۲ دلیل برای این موضوع مطرح میکند. نخست، جلب سرمایهگذاری از طریق ایجاد ترس است. اگر فناوری شما آنقدر قدرتمند باشد که بتواند تمدن بشری را نابود کند، این یعنی فرصتهای مالی فوقالعادهای در این مسیر وجود دارد. چه راهی بهتر از این برای متقاعد کردن سرمایهگذاران که ابزار شما آنقدر خطرناک و ارزشمند است که باید روی آن سرمایهگذاری کنند؟
دومین علتی که جنیفر گلبک آن را بیان میکند، جذابیت سینمایی ایده تسلط هوش مصنوعی بر بشریت است. این یک مفهوم جذاب و سرگرمکننده است. همه ما فیلمهایی را دیدهایم که درباره تسلط هوش مصنوعی بر انسانها ساخته شده و حالا تصور این که چنین سناریوهایی ممکن است به واقعیت تبدیل شود، توجه زیادی را جلب میکند.
جنیفر گلبک معتقد است این موضوع آنقدر سرگرمکننده است که میتواند حواس ما را از مشکلات واقعی و موجود ناشی از هوش مصنوعی منحرف کند. هرچه بیشتر به آیندههای نامحتمل فکر کنیم، وقت کمتری برای بررسی مسائلی مانند مشکل دیپفیکها (ویدیوهای جعلی) یا این حقیقت که همین حالا هوش مصنوعی در تصمیمگیریهای حساس مثل تعیین آزادی زندانیان مورد استفاده قرار میگیرد و دارای سوگیریهای نژادی است، خواهیم داشت.
از نظر جنیفر گلبک برخی افراد اینطور فکر میکنند. ایلان ماسک گفته است که ما ظرف یک سال به نوع جدیدی از فناوری دست خواهیم یافت. اما در همین زمان، شرکت گوگل ابزار جستوجوی هوش مصنوعی خود را معرفی کرد که قرار بود به شما پاسخ دهد تا دیگر نیازی به کلیک روی لینکها نباشد و نتیجه کار چندان موفق نبود.
جنیفر گلبک در ادامه سخنرانی خود گفت: البته این ابزارها به مرور زمان بهتر خواهند شد، اما اگر قرار باشد به هوش مصنوعی عمومی دست یابیم یا حتی اگر این فناوری بخواهد به طور بنیادی نحوه کار و زندگی ما را تغییر دهد، باید شاهد یک روند پیشرفت صعودی و مداوم در تواناییهای آن باشیم. اما احتمال دیگری هم وجود دارد؛ شاید آنچه امروز میبینیم، سقف تواناییهای این فناوری باشد و از این پس تنها شاهد پیشرفتهای تدریجی باشیم، نه جهشهای بزرگ.
جنیفر گلبک معقتد است برای درک آینده هوش مصنوعی باید از میان هیاهوی تبلیغاتی عبور کنیم و ببینیم واقعاً چه چیزی از نظر فنی امکانپذیر است. همچنین باید بدانیم که در کدام حوزهها باید نگران باشیم و در کدام موارد نیازی به نگرانی نیست.
جنیفر گلبک در ادامه گفت: اگر بخواهیم به وعدههای بزرگ درباره هوش مصنوعی دست پیدا کنیم، مهمترین چالشی که باید حل کنیم، قابل اعتماد بودن این فناوری است. این الگوریتمها اغلب اشتباه میکنند. برای مثال، وقتی گوگل پس از ارائه نتایج نادرست جستوجوی هوش مصنوعی خود، با انتقادات زیادی مواجه شد، رسما اعلام کرد: «ما نمیدانیم چطور این مشکل را برطرف کنیم.» من خودم هر روز از ChatGPT استفاده میکنم و از آن برای مطالعه یک خبرنامه استفاده میکنم که بحثهای موجود در انجمنهای راست افراطی را خلاصه میکند. من دادهها را دانلود میکنم و ChatGPT به من کمک میکند تا خلاصهای از آنها بنویسم. این باعث میشود که کارم سریعتر پیش برود، اما هر روز باید اشتباهاتش را تصحیح کنم، چون گاهی موضوع را بد میفهمد یا از متن اصلی خارج میشود. به همین دلیل نمیتوان به طور کامل به آن اعتماد کرد تا کار را به تنهایی انجام دهد.
جنیفر گلبک یکی از مشکلات زیرمجموعه اعتمادپذیری هوش مصنوعی را توهم این فناوری عنوان کرد. او در ارتباط با این مساله گفت: توهم هوش مصنوعی (AI Hallucination) یک اصطلاح فنی برای توضیح این واقعیت است که هوش مصنوعی گاهی اوقات چیزهایی را کاملاً از خودش میسازد! برای مثال، در خبرنامهام از ChatGPT پرسیدم: «آیا کسی تهدید به خشونت کرده است؟ اگر بله، نقلقولها را ارائه بده.»
هوش مصنوعی سه تهدید واضح از خشونت را به من نشان داد که اصلاً شبیه سبک گفتار افراد در آن انجمنها نبود. وقتی به دادههای اصلی برگشتم، دیدم هیچ شخصی چنین چیزی نگفته بود. هوش مصنوعی این تهدیدات را از «هیچ» ساخته بود! ممکن است این پدیده را هنگام استفاده از تولیدکنندههای تصویر هوش مصنوعی هم دیده باشید. مثلاً از آن خواستم تصویر نمای نزدیکی از «افرادی که دست هم را گرفتهاند» ایجاد کند. نتیجه تصویری بود که اصلاً طبیعی نبود و حتی ترسناک و عجیب به نظر میرسید.
جنیفر گلبک در این سخرانی گفت: من فکر نمیکنم این مساله با ساختار فعلی فناوری هوش مصنوعی قابل حل باشد. برخی افراد ادعا میکنند این مشکل را ظرف چند ماه حل خواهند کرد، اما هیچ دلیل فنی وجود ندارد که این ادعا درست باشد، چون هوش مصنوعی مولد هر بار که از آن سوالی میپرسید، پاسخ را از ابتدا میسازد و برخلاف یک موتور جستوجو که پاسخها را از صفحات موجود پیدا میکند، هوش مصنوعی مولد پاسخ را تولید میکند، نه بازیابی.
بنابراین، چون کار اصلی این فناوری «اختراع» پاسخ است، نمیدانم چگونه میتوانیم از آن بخواهیم که فقط پاسخهای صحیح بسازد و هیچ وقت چیزی را از خودش خلق نکند. این اصلا چیزی نیست که برای آن آموزش دیده باشد و ما هنوز فاصله زیادی تا دستیابی به چنین تواناییای داریم.
جنیفر گلبک در ادامه سخنرانی گفت: یکی از حوزههایی که امید زیادی به هوش مصنوعی وجود دارد، حوزه حقوقی است. بسیاری از افراد امیدوارند که این فناوری بتواند در نگارش لوایح حقوقی یا انجام تحقیقات قضایی کمک کند. اما برخی افراد به سختی دریافتهاند که نباید به ChatGPT برای نوشتن لوایح قانونی اعتماد کنند و آن را مستقیماً به دادگاه فدرال بفرستند! چرا؟ چون این فناوری موارد حقوقی جعلی میسازد، پروندههایی که کاملاً منطقی و درست به نظر میرسند اما در واقع وجود خارجی ندارند. این یک راه سریع برای عصبانی کردن قاضی و رد شدن پرونده شما است.
بهترین مدلهای هوش مصنوعی بدون توهم هنوز هم در ۱۷٪ مواقع دچار توهم میشوند
در حال حاضر برخی از شرکتهای تحقیقاتی حقوقی ادعا میکنند که «هوش مصنوعی بدون توهم» ارائه میدهند. من نسبت به این ادعا تردید داشتم، اما محققان دانشگاه استنفورد این موضوع را بررسی کردند و متوجه شدند که حتی بهترین مدلهای هوش مصنوعی بدون توهم هنوز هم در ۱۷٪ مواقع دچار توهم میشوند.
جنیفر گلبک معقتد است از یک طرف، این یک دستاورد علمی بزرگ است که ما ابزاری ساختهایم که میتواند به اکثر سوالات پاسخ دهد و در ۶۰ یا ۷۰ یا حتی ۸۰ درصد موارد، پاسخ معقولی ارائه کند. اما از طرف دیگر، اگر قرار باشد روی این ابزارها حساب کنیم و بدانیم که آنها در ۲۰ تا ۳۰ درصد مواقع اشتباه میکنند، دیگر نمیتوان به آنها اعتماد کامل داشت. این موضوع ما را به این سوال میرساند که چطور میتوانیم این ابزارها را واقعا مفید کنیم؟ حتی اگر فکر کنیم میتوانیم مشکل توهم و اعتمادپذیری را حل کنیم، این فناوری هنوز هم نیاز دارد تا بهتر از وضعیت فعلی شود. برای رسیدن به این هدف، به ۲ متغیر نیاز داریم. نخست دادههای بسیار بیشتر و سپس پیشرفت در فناوری اصلی هوش مصنوعی است.
جنیفر گلبک پیرو الزام دسترسی هوش مصنوعی به داده گفت: از کجا قرار است این همه داده جدید پیدا کنیم؟ واقعیت این است که تقریبا تمام دادههای قابل اعتماد اینترنتی تاکنون برای آموزش هوش مصنوعی استفاده شده است. حتی اگر ۲برابر دادههای فعلی پیدا کنیم، این به معنای ۲برابر شدن هوش سیستم نیست. اگر هوش مصنوعی شروع به آموزش دیدن از محتوایی کند که خودش تولید کرده است، بر اساس دههها تحقیق در این زمینه میدانیم که کیفیت عملکردش به تدریج کاهش مییابد. حتی اگر مشکل دادهها را حل کنیم، باید همچنان فناوری را بهبود دهیم.
در سالهای اخیر، بیش از ۵۰ میلیارد دلار برای بهبود هوش مصنوعی مولد سرمایهگذاری شده، اما فقط ۳ میلیارد دلار درآمد ایجاد کرده است. این روند پایدار نیست و البته این صنعت هنوز در مراحل اولیه است.
شاید شرکتها راههای جدیدی برای کسب درآمد از این فناوری پیدا کنند. اما سؤال اینجاست که آیا این فناوری به اندازهای ارزشمند خواهد بود که بتواند صدها میلیارد دلار هزینه زیرساخت را توجیه کند؟ من فکر نمیکنم که این گونه باشد.
جنیفر گلبک با اشاره به اینکه یکی از بزرگترین نگرانیهای پیرامون هوش مصنوعی از دست دادن شغل است گفت: اما به نظر من در این نگرانی، یک سوءتفاهم اساسی وجود دارد. فرض کنید یک شرکت میتواند حقوق ۲ مهندس نرمافزار را پرداخت کند. حالا به این ۲ مهندس، هوش مصنوعی بدهید تا به آنها در نوشتن کد کمک کند.
فرض کنیم (که البته اغراقآمیز است) بهرهوری آنها ۲ برابر شود. در این صورت، شرکت ۲ انتخاب دارد. نخست اخراج یکی از مهندسان، چون دیگری میتواند کار هر ۲ نفر را انجام دهد و دوم، نگه داشتن هر ۲ نفر و استفاده از افزایش بهرهوری برای کسب سود بیشتر.
کدام انتخاب بهصرفهتر است؟ اگر هزینه استفاده از هوش مصنوعی خیلی بالا باشد، اخراج کارمندان بهصرفه نیست. امروز نسخههای ارزان و متنباز این ابزارها وجود دارد که شرکتها میتوانند با هزینه کم از آنها استفاده کنند. حتی اگر این ابزارها به اندازه مدلهای پیشرفته خوب نباشند، باز هم برای بسیاری از شرکتها مقرونبهصرفهتر هستند و شرکتها میتوانند به جای هزینه سالانه صدها هزار دلار از این مدلهای ارزان استفاده کنند.
بنابراین حتی اگر قابلیت اطمینان و مشکل داده هوش مصنوعی را حل کنیم و مدلها را بهبود بخشیم، این واقعیت که نسخههای ارزان قیمتی از این موجود است نشان میدهد که شرکتها قرار نیست صدها میلیون دلار برای جایگزینی نیروی کار خود با هوش مصنوعی هزینه کنند.
طبق گفته جنیفر گلبک یکی از بزرگترین مشکلات هوش مصنوعی این است که اگر آن را با دادههای انسانی آموزش دهیم، همان سوگیریهای انسانی را یاد میگیرد.
او پیرو این موضوع گفت: من بیش از ۲۰ سال است که در زمینه هوش مصنوعی کار میکنم و میتوانم با اطمینان بگویم که ما هنوز نتوانستهایم این مشکل را حل کنیم. ما این سوگیریها (Biases) را حتی در هوش مصنوعیهای مولد جدید هم میبینیم. واکنش اولیه معمولا این است که بگوییم که تنها باید یک سری قوانین محدودکننده بگذاریم تا از بروز سوگیری جلوگیری کنیم.
اما این کار شامل ۲ مشکل اساسی است. این قوانین هیچوقت سوگیری را بهطور کامل از بین نمیبرند، چون هوش مصنوعی همیشه راهی پیدا میکند تا از این قوانین عبور کند و دوم این که خود این محدودیتها میتوانند مشکلات جدیدی ایجاد کنند. به عنوان مثال، گوگل یک مولد تصویر هوش مصنوعی داشت و سعی کرد با اضافه کردن محدودیتهایی، سوگیریهای نژادی و جنسیتی را کنترل کند.
اما نتیجه چه شد؟ وقتی از آن درخواست کردیم تصویری از امضای اعلامیه استقلال آمریکا بسازد، تصویری تولید کرد که از نظر تاریخی کاملا اشتباه بود.در تلاش برای رفع سوگیری، در واقع مشکل جدیدی در دقت و صحت اطلاعات به وجود آمد.
جنیفر گلبک در این سخنرانی گفت: اگر قرار باشد هوش مصنوعی در تصمیمگیریهای مهم انسانی دخالت کند، باید این مشکل سوگیری را قبل از پذیرش گسترده آن حل کنیم.
در غیر این صورت، ما به سیستمی وابسته خواهیم شد که تصمیماتش بر اساس پیشداوریها و کلیشههای انسانی است، اما چون این تصمیمات از هوش مصنوعی میآیند، ممکن است کمتر مورد نقد قرار بگیرند.
جنیفر گلبک در پایان سخنرانی خود گفت: در نهایت، باید به این نکته توجه کنیم که هوش انسانی فقط در توانایی انجام کارهای تولیدی یا فکری خلاصه نمیشود. هوش انسانی ریشه در تواناییهای عمیقتری دارد. ایجاد ارتباطات عاطفی (Emotional Connection)، واکنشهای احساسی (Emotional Responses)، ترکیب تجربیات گذشته با اطلاعات جدید (Integration of Experiences) و خلاقیت اصیل (Genuine Creativity) مواردی است که هوش مصنوعی نه حالا و نه هیچ وقت دیگر نمیتواند آنها را بهطور واقعی انجام دهد.بله، شاید این فناوری بتواند تقلیدی از این ویژگیها ارائه دهد. یک نسخه ارزانقیمت و مصنوعی از همدلی یا خلاقیت، اما هیچوقت نمیتواند جایگزین احساسات انسانی واقعی شود. به همین دلیل است که من نگران نیستم هوش مصنوعی عمومی (AGI) بتواند کنترل تمدن بشری را در دست بگیرد.