شرکتها و دولتها هر روز از الگوریتمها یا فرمولهای پیچیده و اغلب غیرشفاف استفاده میکنند تا درباره زندگیهایمان تصمیم بگیرند. بررسی این فرمولهای تصمیمگیری که سیستمهای تصمیم خودکار هم نامیده میشوند برای شناسایی نقصها و سوگیریها دشوار است زیرا این فرمولها اسرار تجاری تلقی میشوند و قابل بررسی آزاد نیستند. موانع دیگری نیز بر سر راه است. با وجود این، الگوریتمها تاثیر واضحی بر زندگی مردم میگذارد؛ بهویژه زندگی آسیبپذیرترین و محرومترین قشرهای جامعه مانند افراد کمدرآمد، سیاهپوستها، افراد بومی، رنگینپوستها یا ناتوانها. نکته نگرانکنندهتر اینکه افرادی که از سیستمهای تصمیم خودکار تاثیر میگیرند امکان به چالش کشیدن مسائل نادرست و سوگیریها را ندارند یا حتی نحوه کار کردن سیستمها را درک نمیکنند. در این نوشتار، بررسی میکنیم که چگونه الگوریتمهای غیرشفاف و غیرمسئول میتوانند دسترسی به یکی از ابتداییترین نیازهای بشر را محدود کنند: مسکن. الگوریتمها و مالکیت خانه در سال ۲۰۱۹، زوجی از کارولینای شمالی خانه رویاییشان را پیدا کردند اما تنها دو روز قبل از موعد امضای اسناد اقساط خانه، از دریافت وام منع شدند. برای پرداخت اقساط پسانداز کافی داشتند. امتیاز اعتباری خوبی هم داشتند و هر کدام درآمد مناسبی داشتند. با وجود این مزیتها، به آنها گفته شد صلاحیت دریافت وام را ندارند زیرا یکی از آنها پیمانکار بود و کارمند تماموقت محسوب نمیشد. اما همکارانشان نیز پیمانکار بودند و همچنان خانه اقساطی میخریدند. تفاوت کلیدی؟ همکارانشان سفیدپوستاند. و این زوج سیاهپوست هستند. این صرفاً یکی از داستانهای زیادی است که در آنها مردم رنگینپوست نمیتوانند صاحب خانه شوند زیرا وامدهندهها به آنها وام نمیدهند. الگوریتمها مقصر اصلی در این زمینه قلمداد میشوند. تحقیقی از مارکاپ نشان داد در سال ۲۰۱۹، وامدهندهها به سفیدپوستها بیشتر از رنگینپوستها وام خانه دادند. متقاضیان روی کاغذ یکسان بودند اما نژادشان متفاوت بود. در واقع، سیستم متقاضیان سیاهپوست پردرآمد با بدهی کمتر را بیشتر از متقاضیان سفیدپوست پردرآمد با...
شما وارد سایت نشدهاید. برای خواندن ادامه مطلب و ۵ مطلب دیگر از ماهنامه پیوست به صورت رایگان باید عضو سایت شوید.