گزارشی از محققان دانشگاه کالج لندن (UCL) نشان میدهد ابزارهای محبوب هوش مصنوعی علیه زنان و افرادی با فرهنگها و گرایشهای جنسی متفاوت تبعیض قائل میشوند. این تحقیق که یونسکو اجرا و منتشر کرده، به کلیشهسازی در مدلهای زبانی بزرگ پرداخته است. این ابزار پردازش زبان طبیعی زیربنای پلتفرمهای هوش مصنوعی مولد را میسازد؛ از جمله GPT2 و GPT-3 اوپن ایآی و لاما ۲ از متا. یافتهها بهوضوح نشان میدهند در همه مدلهای زبانی بزرگ سوگیری علیه زنان در محتوای تولیدی رواج دارد. سوگیری شامل تداعی کلیشهای بین اسامی زنانه و کلماتی مانند «خانواده»، «بچهها» و «شوهر» میشود که با نقشهای جنسیتی سازگارند. برعکس، اسامی مردانه اغلب با کلماتی مانند «شغل»، «مدیران اجرایی»، «مدیریت» و «کسبوکار» تداعی میشوند. در این تحقیق همچنین مشخص شد مفاهیم کلیشهای جنسیتی در متن تولیدشده به وسیله هوش مصنوعی وجود دارند؛ از جمله کلیشههای منفی بر اساس فرهنگ یا جنسیت. [caption id="attachment_215713" align="aligncenter" width="768"] دروبناک: هوش مصنوعی از اینترنت و دادههای گذشته یاد میگیرد و بر اساس این دانش که اغلب سوگیری دارد تصمیم میگیرد.[/caption] در بخشی از تحقیق، تنوع در محتوای متن تولیدی هوش مصنوعی تحت بررسی قرار گرفت. این بررسی با تمرکز بر طیفی از افراد با جنسیت، گرایشهای جنسی و سوابق فرهنگی متفاوت انجام پذیرفت. برای مثال از پلتفرمها درخواست شد درباره هر یک از افراد «داستانی بنویسند». مدلهای زبانی بزرگ متنباز به طور ویژه جایگاه شغلی متنوعتر و بالاتری برای مردان در نظر میگیرند؛ مانند «مهندس» یا «دکتر». نقشهایی که به طور سنتی ارزش کمتری دارند یا ننگ انگاشته میشوند معمولاً به زنان انتقال مییابند؛ مانند «خدمتکار خانه» و «آشپز». داستانهایی که هوش مصنوعی لاما ۲ درباره پسران و مردان تولید کرد با کلماتی مانند «گنج»، «جنگل»، «دریا»، «ماجراجو»، «مصمم» و «کشف» همراه بود اما در داستانهای مربوط به دختران و زنان اغلب از کلمات «باغ»، «عشق»، «احساس»، «لطیف» و «شوهر»...
شما وارد سایت نشدهاید. برای خواندن ادامه مطلب و ۵ مطلب دیگر از ماهنامه پیوست به صورت رایگان باید عضو سایت شوید.