skip to Main Content
تلویزیون‌های بزرگ سامسونگ

محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

اخبار

تحریریه پیوست

یادگیری ماشین و مساله الگوریتم‌های اخلاقی

تحریریه پیوست

۲۵ تیر ۱۳۹۸

زمان مطالعه : ۴ دقیقه

برای بوکمارک این نوشته

استفاده و اجرای الگوریتم‌های یادگیری ماشین (machine learning) اغلب منجر به پیامدهایی غیر قابل انکار و غیراخلاقی می‌شود. هنگامی که داستان‌های مربوط به شرکت‌هایی را می‌شنویم که با استفاده از این فناوری، الگوریتم‌های نژادپرستانه، تبعیض‌های جنسیتی و دیگر گزاره‌های غیراخلاقی را تقویت می‌کنند، متوجه می‌شویم یادگیری ماشین با مشکلی جدی مواجه است.

بر اساس گزارش گاردین «برنامه‌هایی که شرکت‌ها با استفاده از هوش مصنوعی ارائه می‌دهند، منجر به مجموعه‌ای از اشتباهات شده که ظاهرا ناشی از تعصب‌ها و نگاه‌های یک‌طرفه انسان است؛ مثلاً برنامه شناسایی تصویر گوگل چهره‌های تعداد زیادی از سیاه‌پوستان را به عنوان «گوریل» شناسایی می‌کند. برنامه تبلیغاتی لینکدین بارها نشان داده که ترجیح می‌دهد در جست‌وجوها، اسامی مردان را بیشتر از زنان به نمایش بگذارد و در نهایت ربات چت مایکروسافت به نام Tay، در اولین روز راه‌اندازی‌اش در توییتر، پیام‌های غیرانسانی را  در واکنش‌ به توییت‌های کاربران، توییت کرده است». علاوه بر این‌ها، اثبات شده است که برنامه‌های یادگیری ماشین نسبت به متهمان سیاه‌پوست، سوگیری دارند. 

چالش‌های یادگیری ماشین 

اولین مشکل در زمینه یادگیری ماشین این است که هدف کلی آن پردازش داده‌ است و الگوریتم آن از طریق داده‌ها توسعه می‌یابد (مثل شناسایی چهره یا ترجمه از زبانی به زبان دیگر، کشف الگوها و غیره). این داده‌ها به طور طبیعی تعصب‌ انسان‌ها را منعکس می‌کنند. 

مساله دوم این است که یادگیری ماشین الگوریتم‌هایی را تولید می‌کند که فهم آنها بسیار پیچیده است. ایده اصلی این است که مغز انسان‌ها به طور عجیبی پیچیده است. کارکردهایی مثل شناسایی یا تصمیم‌گیری، تحت تاثیر مجموعه‌ای از عوامل قرار دارد و تشخیص اکثر این پیچیدگی‌ها و تاثیرات فراتر از فهم و ادراک ما است. تا قبل از یادگیری ماشین، نمی‌توانستیم الگوریتم‌هایی را بنویسیم که با مغزهایمان رقابت کنند؛ چون نمی‌توانستیم قابلیت‌های منحصر به فرد مغز را در الگوریتم‌ها بازنمایی و منعکس کنیم؛ از سوی دیگر ما دقیقا نمی‌دانیم که در ذهن ما نسبت به همه مسائل چه می‌گذرد. یادگیری ماشین این مساله را از میان برداشت، چون مثل مغز انسان‌ها عمل می‌کند و الگوریتم‌هایی را از طریق مواجهه با میلیون‌ها نمونه و یادگیری تولید می‌کند. اما این امر به این معنا نیست که این الگوریتم‌های توسعه‌یافته به اندازه عملیات مغز ما در زمینه برخی مسائل، مبهم یا غیرقابل توضیح است. 

هنگامی که این دو عنصر در الگوریتم‌ها با یکدیگر ترکیب می‌شوند، احتمال دارد با تعصب وارد عمل ‌شوند. الگوریتم‌هایی که از طریق مجموعه‌ای از داده‌ها توسعه یافته‌اند، عموما اطلاعات خود را از میلیون‌ها نفر گرفته‌اند و همه این ویژگی‌ها را بازتاب می‌دهند، حتی باورهای ناخودآگاه یا متعصبانه آنها را. این الگوریتم‌ها آنقدر متراکم و انبوه‌اند که عموما ممکن نیست پتانسیل پیامدهای غیراخلاقی آنها را پیش‌بینی یا شناسایی کرد. به این ترتیب، پیامدهای شرورانه آشکار می‌شوند و سپس شناسایی و گزارش داده می‌شوند. در واقع در حال حاضر، هر پاسخی از طرف این دستگاه‌ها واکنشی است و این امر می‌تواند مخرب باشد.

اقدام‌های مسئولانه شرکت‌ها 

به گزارش پیوست، پوشش وسیع رسانه‌ی در زمینه الگوریتم‌ها منجر به ایجاد این انتظار شده که شرکت‌ها باید مسئولانه‌تر برخورد کنند. برخی سازمان‌ها تلاش کرده‌اند که برخی از کاربران دائمی محصولاتشان را به عنوان ناظر تعیین کنند تا رفتاری‌های تبعیض‌آمیز را گزارش دهند. برخی دیگر از شرکت‌ها در تیم‌های توسعه خود، تنوع ایجاد کرده‌اند و امیدوارند که حضور زیان و اقلیت‌های نژادی بیشتر، باعث انتخاب مجموعه داده‌های بهتری شود؛ زیرا این افراد بهتر از بقیه تبعیض را تشخیص می‌دهند. 

الگوریتم‌های اخلاق‌محور

جئوف نیچکه (Geoff Nitschke)، سخنران ارشد دپارتمان علوم رایانه‌ای دانشگاه کیپ‌تاون (University of Cape Tow) به آزمایشگاه‌هایی در سراسر جهان اشاره می‌کند که در حال بررسی توسعه الگوریتم‌هایی هستند که «یاد می‌گیرند اخلاق‌مدار باشند». به نظر او ما در فضای مشخصی بزرگ شده‌ایم و «اخلاقیاتمان را طی سال‌ها ارتباط یاد گرفته‌ایم. ایده این آزمایشگاه‌ها این است که الگوریتم یادگیری ماشین نیز می‌تواند این اخلاقیات را با سرعت بیشتری یاد بگیرد. یادگیری ماشین قدرت پردازش بالایی دارد و می‌تواند رفتار اخلاقی را بر اساس استانداردهای ما و با گزاره‌های چه چیزی اخلاقی است و چه چیزی اخلاقی نیست، بیاموزد». 

ممکن است روزی الگوریتم‌هایی ایجاد شوند که می‌توانند داده اخلاقاً صحیح را از داده اخلاقاً نادرست، تشخیص بدهند. چنین تحقیقاتی پتانسیل این را دارند که عناصر و پیامدهای مخرب الگوریتم‌ها را قبل از تاثیر آنها بر دیگران و استفاده از آنها در فرایندهای مختلف، حذف کنند. در واقع، می‌تان گفت راه‌حل آتی مشکلات ناشی از الگوریتم‌های یادگیری ماشین، استفاده بیشتر از الگوریتم‌های یادگیری ماشین است!

برای بوکمارک این نوشته

http://pvst.ir/625

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

Back To Top
×Close search
جستجو