skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

پرونده

اندرو فرانسیس

اولیور اوبست

جیمز اروانیتکیس

تبعیض آشکار و نهان در دنیای داده؛ انعکاس جهان واقعی

اندرو فرانسیس
اولیور اوبست
جیمز اروانیتکیس

۱۰ اردیبهشت ۱۴۰۱

زمان مطالعه : ۶ دقیقه

شماره ۱۰۰

تاریخ به‌روزرسانی: ۱۹ اردیبهشت ۱۴۰۱

انعکاس جهان واقعی
بسیاری تصور می‌کنند که تبعیض جنسیتی و نژادی فقط در زندگی واقعی خود را نشان می‌دهد اما بررسی‌های صورت گرفته مشخص کرده که این تبعیض حتی در داده‌ها و هوش مصنوعی نیز پابرجا هستند. تبعیض‌های ناخودآگاهی که ریشه در گذشته و تجربیات افراد داشته به تکنولوژی‌های حاضر نفوذ کرده و همین امر موجب باز منفی آن برای اقلیت‌های جوامع مختلف شده است. مساله اخلاق در بحث داده فقط مربوط به نحوه استفاده نیست، بلکه همان‌قدر اهمیت دارد که چه کسی از آن استفاده می‌کند. رسوایی کمبریج آنالیتیکا به همه آموخت که باید اصول اخلاقی بزرگ‌ترین شرکت‌های تکنولوژی را با دقت بیشتری بازبینی کنیم. اما تنها اینکه چه داده‌ای را می‌توان جمع‌آوری کرد و چطور باید آن را به کار گرفت تازه آغاز ماجراست. سوال مهم‌تر این است که این تصمیمات بر عهده چه کسی است. طبق روال فعلی، قدرت تصمیم‌گیری و اصول اخلاقی به‌کارگیری داده‌ها عمدتاً بر عهده مردان سفید‌پوست است. طبق تحقیقات، تبعیض‌های ناخودآگاهی که ریشه در گذشته و تجربیات فرد دارد، به تکنولوژی حاصل هم نفوذ کرده و برای اقلیت‌ها پیامد‌های منفی خواهد داشت. تشخیص چنین تبعیض‌هایی ساده نیست و به همین منظور یکی از ابزارهای مهم و ضروری برای مبارزه جلوگیری از تبعیض‌، آن هم پیش از آسیب، افزایش تنوع در نیروی کار است. از آنجا که اهمیت تصمیمات و الگوریتم‌های داده‌محور بیشتر شده است، سوال اینجاست که شرایط چقدر در آینده تغییر می‌کند؟ متاسفانه شاخص‌ها نشان می‌دهند که تغییر چندانی در پیش نیست. درباره چه پیامد‌هایی صحبت می‌کنیم؟ تبعیض الگوریتمی یک از موضوعات داغ مطالعاتی است و اشاره به حالتی دارد که تبعیض‌ و جهت‌گیری‌های انسان پای خود را به تصمیمات کامپیوتری باز می‌کنند. این موضوع به نگاه جنسیتی در ترجمه‌ها، پیشنهادهای تبعیض‌آمیز برای مجازات مجرمان و تبعیض نژادی در سیستم‌های تشخیص چهره منتهی شده است. برای مثال اگر از ابزار ترجمه‌ای مثل گوگل ترنسلیت بخواهیم...

شما وارد سایت نشده‌اید. برای خواندن ادامه مطلب و ۵ مطلب دیگر از ماهنامه پیوست به صورت رایگان باید عضو سایت شوید.

وارد شوید

عضو نیستید؟ عضو شوید

این مطلب در شماره ۱۰۰ پیوست منتشر شده است.

ماهنامه ۱۰۰ پیوست
دانلود نسخه PDF
https://pvst.ir/c9w

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو