بایدن کارخانههای نیمهرسانا را از بازبینیهای محیطزیستی مستثنی کرد
جو بایدن، رئيس جمهور آمریکا، روز جمعه قانونی را به امضا رساند که براساس آن…
۱۲ مهر ۱۴۰۳
۲۵ تیر ۱۳۹۸
زمان مطالعه : ۴ دقیقه
تاریخ بهروزرسانی: ۱۷ اسفند ۱۳۹۸
استفاده و اجرای الگوریتمهای یادگیری ماشین (machine learning) اغلب منجر به پیامدهایی غیر قابل انکار و غیراخلاقی میشود. هنگامی که داستانهای مربوط به شرکتهایی را میشنویم که با استفاده از این فناوری، الگوریتمهای نژادپرستانه، تبعیضهای جنسیتی و دیگر گزارههای غیراخلاقی را تقویت میکنند، متوجه میشویم یادگیری ماشین با مشکلی جدی مواجه است.
بر اساس گزارش گاردین «برنامههایی که شرکتها با استفاده از هوش مصنوعی ارائه میدهند، منجر به مجموعهای از اشتباهات شده که ظاهرا ناشی از تعصبها و نگاههای یکطرفه انسان است؛ مثلاً برنامه شناسایی تصویر گوگل چهرههای تعداد زیادی از سیاهپوستان را به عنوان «گوریل» شناسایی میکند. برنامه تبلیغاتی لینکدین بارها نشان داده که ترجیح میدهد در جستوجوها، اسامی مردان را بیشتر از زنان به نمایش بگذارد و در نهایت ربات چت مایکروسافت به نام Tay، در اولین روز راهاندازیاش در توییتر، پیامهای غیرانسانی را در واکنش به توییتهای کاربران، توییت کرده است». علاوه بر اینها، اثبات شده است که برنامههای یادگیری ماشین نسبت به متهمان سیاهپوست، سوگیری دارند.
اولین مشکل در زمینه یادگیری ماشین این است که هدف کلی آن پردازش داده است و الگوریتم آن از طریق دادهها توسعه مییابد (مثل شناسایی چهره یا ترجمه از زبانی به زبان دیگر، کشف الگوها و غیره). این دادهها به طور طبیعی تعصب انسانها را منعکس میکنند.
مساله دوم این است که یادگیری ماشین الگوریتمهایی را تولید میکند که فهم آنها بسیار پیچیده است. ایده اصلی این است که مغز انسانها به طور عجیبی پیچیده است. کارکردهایی مثل شناسایی یا تصمیمگیری، تحت تاثیر مجموعهای از عوامل قرار دارد و تشخیص اکثر این پیچیدگیها و تاثیرات فراتر از فهم و ادراک ما است. تا قبل از یادگیری ماشین، نمیتوانستیم الگوریتمهایی را بنویسیم که با مغزهایمان رقابت کنند؛ چون نمیتوانستیم قابلیتهای منحصر به فرد مغز را در الگوریتمها بازنمایی و منعکس کنیم؛ از سوی دیگر ما دقیقا نمیدانیم که در ذهن ما نسبت به همه مسائل چه میگذرد. یادگیری ماشین این مساله را از میان برداشت، چون مثل مغز انسانها عمل میکند و الگوریتمهایی را از طریق مواجهه با میلیونها نمونه و یادگیری تولید میکند. اما این امر به این معنا نیست که این الگوریتمهای توسعهیافته به اندازه عملیات مغز ما در زمینه برخی مسائل، مبهم یا غیرقابل توضیح است.
هنگامی که این دو عنصر در الگوریتمها با یکدیگر ترکیب میشوند، احتمال دارد با تعصب وارد عمل شوند. الگوریتمهایی که از طریق مجموعهای از دادهها توسعه یافتهاند، عموما اطلاعات خود را از میلیونها نفر گرفتهاند و همه این ویژگیها را بازتاب میدهند، حتی باورهای ناخودآگاه یا متعصبانه آنها را. این الگوریتمها آنقدر متراکم و انبوهاند که عموما ممکن نیست پتانسیل پیامدهای غیراخلاقی آنها را پیشبینی یا شناسایی کرد. به این ترتیب، پیامدهای شرورانه آشکار میشوند و سپس شناسایی و گزارش داده میشوند. در واقع در حال حاضر، هر پاسخی از طرف این دستگاهها واکنشی است و این امر میتواند مخرب باشد.
به گزارش پیوست، پوشش وسیع رسانهی در زمینه الگوریتمها منجر به ایجاد این انتظار شده که شرکتها باید مسئولانهتر برخورد کنند. برخی سازمانها تلاش کردهاند که برخی از کاربران دائمی محصولاتشان را به عنوان ناظر تعیین کنند تا رفتاریهای تبعیضآمیز را گزارش دهند. برخی دیگر از شرکتها در تیمهای توسعه خود، تنوع ایجاد کردهاند و امیدوارند که حضور زیان و اقلیتهای نژادی بیشتر، باعث انتخاب مجموعه دادههای بهتری شود؛ زیرا این افراد بهتر از بقیه تبعیض را تشخیص میدهند.
جئوف نیچکه (Geoff Nitschke)، سخنران ارشد دپارتمان علوم رایانهای دانشگاه کیپتاون (University of Cape Tow) به آزمایشگاههایی در سراسر جهان اشاره میکند که در حال بررسی توسعه الگوریتمهایی هستند که «یاد میگیرند اخلاقمدار باشند». به نظر او ما در فضای مشخصی بزرگ شدهایم و «اخلاقیاتمان را طی سالها ارتباط یاد گرفتهایم. ایده این آزمایشگاهها این است که الگوریتم یادگیری ماشین نیز میتواند این اخلاقیات را با سرعت بیشتری یاد بگیرد. یادگیری ماشین قدرت پردازش بالایی دارد و میتواند رفتار اخلاقی را بر اساس استانداردهای ما و با گزارههای چه چیزی اخلاقی است و چه چیزی اخلاقی نیست، بیاموزد».
ممکن است روزی الگوریتمهایی ایجاد شوند که میتوانند داده اخلاقاً صحیح را از داده اخلاقاً نادرست، تشخیص بدهند. چنین تحقیقاتی پتانسیل این را دارند که عناصر و پیامدهای مخرب الگوریتمها را قبل از تاثیر آنها بر دیگران و استفاده از آنها در فرایندهای مختلف، حذف کنند. در واقع، میتان گفت راهحل آتی مشکلات ناشی از الگوریتمهای یادگیری ماشین، استفاده بیشتر از الگوریتمهای یادگیری ماشین است!