موفقیت دیپسیک جرقه همکاری هوش مصنوعی بزرگترین بانک روسیه با پژوهشگران چینی شد
اسبربانک روسیه با چین در حوزه هوش مصنوعی همکاری میکند. گزارشی از رویترز به نقل…
۱۸ بهمن ۱۴۰۳
۱۹ بهمن ۱۴۰۳
زمان مطالعه : ۱۴ دقیقه
اطلاعات حاصل از دادهها و الگوریتمهای یادگیری ماشین در عین حال که میتواند بسیار ارزشمند باشد، اما گاها اشتباهات آن نیز می تواند غیرقابل جبران باشد. در مطلب زیر به اشتباهات برجسته هوش مصنوعی و مشکلاتی که میتواند رقم بزند، پرداخته شده است.
در سال ۲۰۱۷، مجله اکونومیست (Economist) اعلام کرد که علم داده با گرفتن جای نفت، به باارزشترین منبع جهان تبدیل شده است و از آن زمان، این ایده بارها تکرار شده است. سازمانها در صنایع مختلف سرمایهگذاریهای عظیمی در زمینه داده و تحلیلها انجام دادهاند و همچنان نیز به این روند ادامه میدهند. اما همانند نفت، داده و تحلیلها نیز میتوانند جنبههای تاریکی داشته باشند.
طبق گزارش مدیران ارشد فناوری اطلاعات (State of the CIO 2023)، حدود ۲۶٪ از رهبران فناوری اطلاعات معتقدند که یادگیری ماشین (ML) و هوش مصنوعی بیشترین سرمایهگذاریها در حوزه فناوری اطلاعات را به خود اختصاص خواهند داد. هرچند اقدامات مبتنی بر الگوریتمهای یادگیری ماشین میتواند مزیت رقابتی برای سازمانها ایجاد کند، اما از سوی دیگر اشتباهات آن نیز میتواند به اعتبار، درآمد یا حتی جان انسانها آسیب بزند.
درک دادهها و پیامهای آنها مهم است، اما به همان اندازه شناخت ابزارها، دادهها و پایبندی به ارزشهای سازمان ضروری است. در ادامه، چند مورد از اشتباهات برجسته هوش مصنوعی در دهه گذشته آورده شده است:
پس از همکاری سهساله با شرکت «IBM» (آی بی ام) برای استفاده از هوش مصنوعی در سفارشگیری از طریق صف خودرویی (Drive-through)، مکدونالد در ژوئن ۲۰۲۴ این پروژه را متوقف کرد. دلیل این تصمیم، انتشار ویدئوهای متعددی در شبکههای اجتماعی بود که مشتریان گیج و ناامید را در تلاش برای فهماندن سفارش خود به هوش مصنوعی نشان میداد.
درایو-ترو، خدمات بدون پیاده شدن یا خدمات پنجرهای؛ نوعی خدمت در کسب و کارهای گوناگون است که به مشتریان اجازه میدهد بدون ترک خودرو، محصولات مورد نیاز خود را از پنجره فروشگاه خریداری کنند
در یکی از ویدئوهای پرطرفدار تیکتاک، دو نفر بارها از هوش مصنوعی درخواست میکنند که اضافه کردن ناگت مرغ به سفارش آنها را متوقف کند، اما در نهایت سفارش به ۲۶۰ عدد ناگت مرغ میرسد. در یک اطلاعیه درون سازمانی در تاریخ ۱۳ ژوئن ۲۰۲۴ که توسط نشریه «Restaurant Business» به دست آمده، مکدونالد اعلام کرده که این همکاری را پایان داده و آزمایشها را متوقف میکند.
این رستوران از هوش مصنوعی در بیش از ۱۰۰ درایو-ترو در ایالات متحده استفاده کرده بود اما همچنان به آینده راهحلهای سفارشگیری صوتی امیدوار است.
در آوریل ۲۰۲۴، گراک، چتبات هوش مصنوعی از شرکت «xAI» متعلق به ایلان ماسک، به اشتباه کلی تامپسون، ستاره بسکتبال اِنبیاِی (NBA) را به پرتاب آجر به پنجره خانههای مختلف در ساکرامنتو، کالیفرنیا متهم کرد.
برخی از مفسران حدس زدند که هوش مصنوعی گراگ، احتمالا این داستان خرابکاری را از پستهایی که درباره «پرتاب آجر» (اصطلاحی برای شوتهای بد در بسکتبال) منتشر شده بود، به اشتباه ساخته است. تامپسون، که اکنون به تیم دالاس ماوریکس منتقل شده، در آخرین بازی خود با گلدن استیت واریرز عملکرد ضعیفی داشت.
گراک هشدار میدهد که «این ویژگی هنوز در مراحل ابتدایی است و ممکن است اشتباه کند، پس خروجیهای آن را راستی آزمایی کنید.» با این حال، این اتفاق پرسش هایی را درباره مسئولیت قانونی در صورت انتشار اطلاعات نادرست توسط یک چتبات هوش مصنوعی مطرح میکند.
در مارس ۲۰۲۴، نشریه «The Markup» گزارش داد که چتبات قدرت گرفته از مایکروسافت با عنوان «MyCity»، اطلاعات نادرستی به کارآفرینان میدهد که باعث میشود قوانین را نقض کنند.
هوش مصنوعی «MyCity» که در اکتبر ۲۰۲۴ معرفی شد، قرار بود به نیویورکیها اطلاعاتی درباره راهاندازی و مدیریت کسبوکار، سیاستهای مسکن و حقوق کارگران ارائه دهد. اما گزارشها نشان داد که این چتبات به اشتباه ادعا میکرد کارفرمایان میتوانند بخشی از انعام کارگران را بردارند، کارگرانی که از آزار جنسی شکایت میکنند را اخراج کنند، یا غذاهای مانده به کارگران دهند. همچنین این هوش مصنوعی به اشتباه ادعا کرده که صاحبخانهها میتوانند بر اساس منبع درآمد، میان مستاجران تبعیض قائل شوند.
پس از این گزارش، شهردار نیویورک، اریک آدامز، از این پروژه دفاع کرد. این چتبات همچنان فعال است.
در فوریه ۲۰۲۴، ایر کانادا (خطوط هوایی کانادا) مجبور شد به یکی از مسافران به دلیل اطلاعات نادرست چتبات خود غرامت پرداخت کند.
جیک موفات پس از درگذشت مادربزرگش در نوامبر ۲۰۲۳، درباره تخفیف پروازهای سوگواری با چتبات ایر کانادا مشورت کرد. چتبات به او گفت میتواند بلیت خود از ونکوور به تورنتو را با قیمت عادی خریداری کند و ظرف ۹۰ روز برای تخفیف درخواست دهد. موفات یک بلیت یکطرفه به مبلغ ۷۹۴.۹۸ دلار کانادا به تورنتو و یک بلیت برگشت به مبلغ ۸۴۵.۳۸ دلار به ونکوور خریداری کرد.
اما زمانی که او درخواست بازپرداخت خود را ثبت کرد، ایر کانادا آن را رد کرد و گفت تخفیف سوگواری نمیتواند پس از خرید بلیت اعمال شود.
موفات از ایر کانادا به دادگاه شکایت کرد و ادعا کرد که این شرکت از طریق چتبات خود اطلاعات غلط ارائه داده است. دادگاه این استدلال ایر کانادا را که نمیتواند مسئول اطلاعات ارائهشده توسط چتبات باشد، رد کرد و ایر کانادا را به پرداخت ۸۱۲.۰۲ دلار کانادا، معادل ۶۵۰.۸۸ دلار غرامت، محکوم کرد.
در نوامبر ۲۰۲۳، مجله آنلاین فوتوریسم (Futurism) گزارش داد که مجله ورزشی اسپرتس ایلاستریتد مقالاتی را منتشر کرده است که توسط هوش مصنوعی تهیه شدهاند.
فوتوریسم به نقل از منابع ناشناس اعلام کرد که این مجله معروف ورزشی، مقالات زیادی که توسط هوش مصنوعی تولید شده منتشر کرده است. این مجله آنلاین متوجه شد که تصاویر پروفایل نویسندگان مذکور در سایتی که پرترههای تولیدشده توسط هوش مصنوعی میفروشد، فهرست شدهاند.
فوتوریسم سپس با کمپانی «Arena Group»، ناشر اسپرتس ایلاستریتد، تماس گرفت و در بیانیهای که «Arena Group» ارائه داد، اعلام شد که مقالات مورد بحث، محتوای دارای مجوز از یک شرکت ثالث به نام « AdVon Commerce» بودهاند.
این گروه در بیانیه خود افزود: «ما بهطور مداوم فعالیت شرکای خود را نظارت میکنیم و هنگام مطرح شدن این ادعاها در حال بررسی بودیم. AdVon به ما اطمینان داده است که تمام مقالات مذکور توسط انسانها نوشته و تدوین شدهاند.» همچنین این بیانیه اشاره کرد که نویسندگان AdVon در برخی مقالات از نامهای مستعار استفاده کردهاند، اما این اقدامات از سوی ما تأیید نمیشود. پس از آن، این گروه مقالات مورد بحث را از وبسایت این مجله ورزشی حذف کرد.
در واکنش به این گزارش، اتحادیه کارکنان مجله اسپرتس ایلاستریند در بیانیهای اعلام کرد که از این اتهامات شوکه شده و خواستار پاسخگویی و شفافیت از مدیریت «Arena Group» شد.
اتحادیه در بیانیه خود گفت: «اگر این موضوع صحت داشته باشد، این اقدامات تمام اصولی را که ما درباره روزنامهنگاری به آنها اعتقاد داریم، نقض میکند. ما از اینکه با چیزی چنین بیاحترامی به خوانندگانمان ارتباط پیدا کنیم، منزجر هستیم.»
در آگوست ۲۰۲۳، شرکت تدریس خصوصی «iTutor Group» با پرداخت ۳۶۵ هزار دلار برای حلوفصل شکایتی که توسط کمیسیون فرصتهای شغلی برابر ایالات متحده (EEOC) مطرح شده بود، موافقت کرد. این آژانس فدرال اعلام کرد که این شرکت، که خدمات تدریس آنلاین به دانشآموزان چینی ارائه میدهد، از نرمافزار استخدامی مجهز به هوش مصنوعی استفاده میکرد که بهطور خودکار زنان بالای ۵۵ سال و مردان بالای ۶۰ سال را رد میکرد.
کمیسیون فرصتهای شغلی برابر ایالات متحده گزارش داد که بیش از ۲۰۰ متقاضی واجد شرایط بهطور خودکار توسط این نرمافزار رد شدهاند.
شارلوت باروز، رئیس این کمیسیون، در بیانیهای گفت: «تبعیض سنی ناعادلانه و غیرقانونی است. حتی اگر فناوری این تبعیض را خودکار کند، کارفرما همچنان مسئول است.»
«iTutor Group» هرگونه تخلف را انکار کرد، اما تصمیم گرفت این شکایت را حلوفصل کند. بهعنوان بخشی از این توافقنامه، این شرکت متعهد شد سیاستهای جدید ضدتبعیض را اتخاذ کند.
پیشرفتهای انجامشده در سال ۲۰۲۳ توسط مدلهای زبانی بزرگ (LLMs) علاقه گستردهای به پتانسیل تغییرآفرین هوش مصنوعی مولد در تقریباً تمام صنایع ایجاد کرد. هوش مصنوعی «ChatGPT» از شرکت «OpenAI» در مرکز این توجه قرار داشت، اما این فناوری همچنان فاصله زیادی با قابلیت جایگزینی قابلاعتماد اکثر فرایندها دارد. وکیلی به نام استیون شوارتز این موضوع را تجربه کرد، زمانی که در سال ۲۰۲۳ به دلیل استفاده از «ChatGPT» برای تحقیق درباره سوابق حقوقی در یک پرونده علیه شرکت هواپیمایی کلمبیایی « Avianca»، با قاضی منطقهای ایالات متحده، کوین کستل، دچار مشکل شد.
شوارتز، وکیلی از شرکت حقوقی «Levidow, Levidow & Oberman» در نیویورک، از چتبات «ChatGPT» برای یافتن پروندههای قبلی بهمنظور حمایت از یک دعوی استفاده کرد. این دعوی توسط کارمند «Avianca»، روبرتو ماتا، به دلیل صدماتی که در سال ۲۰۱۹ متحمل شده بود، مطرح شده بود. اما حداقل شش مورد از پروندههایی که در گزارش شوارتز ارائه شده بود، وجود خارجی نداشتند.
در سندی که در ماه مه سال گذشته ارائه شد، قاضی کوین کستل اعلام کرد که پروندههای ارائهشده توسط شوارتز شامل اسامی جعلی، شماره پروندههای ساختگی و استنادها و نقلقولهای نادرست بوده است.
شوارتز در نهایت به دادگاه گفت که این اولین بار بود که از «ChatGPT» بهعنوان منبع تحقیق حقوقی استفاده کرده است و از احتمال نادرست بودن محتوای آن بیخبر بوده است. او اعتراف کرد که منابع ارائهشده توسط این چتبات را تأیید نکرده است و از استفاده از هوش مصنوعی مولد در تحقیقات حقوقی خود پشیمان است. او افزود که دیگر هرگز بدون تأیید صحت اطلاعات، از این فناوری استفاده نخواهد کرد.
از زمان شروع همهگیری کووید در سال ۲۰۲۰، سازمانهای مختلف تلاش کردند الگوریتمهای یادگیری ماشین (ML) را برای کمک به بیمارستانها در تشخیص یا اولویتبندی بیماران به کار گیرند. اما به گفته موسسه تورینگ بریتانیا که یک مرکز ملی علم داده و هوش مصنوعی است، این ابزارهای پیشبینی، تأثیر کمی داشتند یا هیچ تأثیری نگذاشتند.
مجله امآیتی تکنالجی ریویو (MIT Technology Review )تعدادی از این شکستها را مستند کرده است که اکثر آنها ناشی از اشتباهات در نحوه آموزش یا آزمایش ابزارها بودند. استفاده از دادههای برچسبگذاریشده نادرست یا دادهها با منابع ناشناخته از دلایل رایج این شکستها بود.
در یک مقاله منتشرشده در مجله علمی نیچر ماشین اینتلیجنس( Nature Machine Intelligence)، درک دریگز، محقق یادگیری ماشین از دانشگاه کمبریج و همکارانش استفاده از مدلهای یادگیری عمیق برای تشخیص ویروس را بررسی کردند. این مقاله نشان داد که این تکنیک برای استفاده بالینی مناسب نیست. به عنوان مثال، گروه دریگز متوجه شدند که مدل آنها به دلیل آموزش با دادههایی که شامل اسکنهایی از بیمارانی بود که در حالت خوابیده یا ایستاده بودند، معیوب بود. بیمارانی که در حالت خوابیده بودند، بیشتر احتمال داشت که به شدت بیمار باشند؛ بنابراین الگوریتم یاد گرفت که خطر ابتلا به کووید را بر اساس وضعیت بدن بیمار شناسایی کند.
مثال مشابه دیگری شامل الگوریتمی است که با مجموعه دادههایی شامل اسکنهای قفسه سینه کودکان سالم آموزش داده شده بود. این الگوریتم به جای شناسایی بیماران پرخطر، کودکان را شناسایی میکرد.
در نوامبر ۲۰۲۱، شرکت بازار املاک آنلاین زیلو (Zillow) به سهامداران اعلام کرد که استفاده از «Zillow Offers» را تعطیل کرده و ۲۵٪ از نیروی کار خود را، یعنی حدود ۲۰۰۰ نفر، کاهش خواهد داد. مشکلات این واحد خرید و فروش خانه ناشی از نرخ خطای الگوریتم یادگیری ماشین آن در پیشبینی قیمت خانهها بود.
«Zillow Offers» برنامهای بود که از طریق آن شرکت بر اساس یک ارزشگذاری مبتنی بر الگوریتم، قیمتهای پیشنهادی نقدی برای خانهها ارائه میداد. ایده این بود که خانهها بازسازی شوند و به سرعت فروخته شوند. اما یک سخنگوی گروه زیلو به سیانان گفت که نرخ خطای میانه الگوریتم ۱.۹٪ بود و برای خانههای خارج از بازار به ۶.۹٪ هم میرسید.
سیانان گزارش داد که زیلو از زمان شروع کار برنامه «Zillow Offers» درآوریل ۲۰۱۸، ۲۷ هزار خانه خرید اما تا پایان سپتامبر ۲۰۲۱ فقط ۱۷ هزار خانه فروخت. رویدادهای غیرقابل پیشبینی مانند همهگیری COVID-19 و کمبود نیروی کار برای بازسازی خانهها نیز به مشکلات دقت الگوریتم اضافه کردند.
الگوریتم مراقبتهای بهداشتی، نتوانست بیماران سیاهپوست را شناسایی کند
در سال ۲۰۱۹، یک مطالعه منتشرشده در مجله ساینس (Science) نشان داد که یک الگوریتم پیشبینی مراقبتهای بهداشتی که در بیمارستانها و شرکتهای بیمه در سراسر ایالات متحده استفاده میشد، بهمراتب کمتر از بیماران سیاهپوست حمایت میکرد.
برنامه های مدیریت مراقبت های پرخطر، کارکنان پرستاری آموزش دیده و نظارت بر مراقبت های اولیه را برای بیماران مزمن در تلاش برای جلوگیری از عوارض جدی فراهم می کند. اما الگوریتم به احتمال زیاد بیماران سفیدپوست را برای این برنامه ها توصیه می کرد تا بیماران سیاه پوست.
این مطالعه نشان داد که این الگوریتم از هزینه های مراقبت های بهداشتی به عنوان عاملی برای تعیین نیازهای مراقبت های بهداشتی فرد استفاده می کند. اما به گفته مجله ساینتیفیک امریکن، هزینههای مراقبتهای بهداشتی بیماران سیاهپوست با هزینههای افراد سفیدپوست سالمتر برابر بود، به این معنی که آنها حتی زمانی که نیازشان بیشتر بود، نمرات خطر کمتری دریافت کردند.
محققان این مطالعه پیشنهاد کردند که چند عامل ممکن است در این امر نقش داشته باشند. اول اینکه، افراد رنگین پوست به احتمال زیاد درآمد کمتری دارند، که، حتی در صورت بیمه شدن، ممکن است احتمال دسترسی آنها به مراقبت های پزشکی را کاهش دهد. سوگیری ضمنی ممکن است باعث شود افراد رنگین پوست مراقبت های با کیفیت پایین تری دریافت کنند.
در حالی که این مطالعه نامی از الگوریتم یا توسعهدهنده نداشت، اما محققان به گفته مجله ساینتیفیک امریکن گفتند که با توسعهدهنده برای رسیدگی به مشکل همکاری میکنند.
در مارس ۲۰۱۶، مایکرؤسافت دریافت که استفاده از تعاملات توییتر بهعنوان داده آموزشی میتواند نتایج ناخوشایندی داشته باشد.
مایکرؤسافت یک چتبات هوش مصنوعی به نام تای (Tay) در توییتر منتشر کرد و آن را بهعنوان یک آزمایش برای درک مکالمه توصیف کرد. ایده این بود که چتبات شخصیت یک دختر نوجوان را فرض بگیرد و با افراد از طریق توییتر تعامل کند.
در کمتر از ۱۶ ساعت، این چتبات بیش از ۹۵ هزار توییت منتشر کرد و آنها به سرعت نژادپرستانه و زنستیزانه شدند. مایکرؤسافت به سرعت این سرویس را تعلیق کرد و در نهایت آن را متوقف کرد.
پیتر لی، معاون تحقیقات مایکرؤساف تدر واکنش به این اتفاق گفت: «ما عمیقاً برای توئیتهای توهینآمیز و آزاردهنده ناخواسته هوش مصنوعی «تای» متأسفیم، و این اظهارات نماینده ما نیست».
لی اشاره کرد که نسخه پیشین چت بات «تای» با عنوان « Xiaoice» در سال ۲۰۱۴ توسط مایکرؤسافت در چین منتشر شد و با بیش از ۴۰ میلیون نفر مکالمه را با موفقیت انجام داده بود. چیزی که مایکرؤسافت در نظر نگرفت این بود که گروهی از کاربران توییتر فوراً شروع به توییت کردن نظرات نژادپرستانه و زن ستیزانه برای تای کردند. ربات به سرعت از آن مطالب یاد گرفت و آنها را در توییتهای خود استفاده کرد.
در سال ۲۰۱۴، آمازون شروع به کار روی نرمافزار استخدام مجهز به هوش مصنوعی کرد. اما این سیستم به شدت به مردان اولویت میداد.
این الگوریتم، رزومههای ارسالی به آمازون طی ۱۰ سال گذشته را که بیشتر آنها متعلق به مردان بودند، تحلیل کرده بود. به همین دلیل، این ابزار رزومههایی را که شامل کلمات مرتبط با «زنان» بود، کمتر ارزش میداد و حتی به کاندیداهای فارغالتحصیل از کالجهای زنانه را نمره پایینتری میداد.
در سال ۲۰۱۸، آمازون پروژه را متوقف کرد زیرا نمیتوانست تضمین کند که سیستم روشهای دیگری برای تبعیض پیدا نمیکند.
سیستم آمازون به کاندیداها رتبهبندی ستارهای از ۱ تا ۵ میداد، اما مدلهای یادگیری ماشین در قلب سیستم بر اساس رزومههای ۱۰ ساله ارائهشده به آمازون آموزش دیدهاند که بیشتر آنها از مردان بودند. در نتیجه این دادههای آموزشی، سیستم شروع به جریمه کردن عباراتی در رزومههایی کرد که شامل کلمه «زنان» بود و حتی نامزدهای کالجهای زنانه را کاهش داد.
در آن زمان، آمازون گفت که این ابزار هرگز توسط استخدامکنندگان آمازون برای ارزیابی نامزدها استفاده نشده است. این شرکت ابتدا سعی کرد ابزار را ویرایش کند، اما در نهایت اعلام کرد نمیتواند تضمین کند که اینهوش مصنوعی روشهای تبعیضآمیز دیگری برای مرتبسازی نامزدها نمیآموزد و بنابراین به پروژه پایان داد.