زمانی که در مقالهای فاش شد شرکت هوش مصنوعی کلریفای (Clarifai) با پنتاگون کار میکند و چند نفر از کارمندان، اصول اخلاقی ساخت هوش مصنوعیای را که تصاویر ارسالی از پهپادها را تحلیل میکرد زیر سوال بردند، شرکت ادعا کرد این پروژه جان شهروندان و سربازان را نجات خواهد داد. مت زیلر (Matt Zeiler) موسس و مدیر اجرایی شرکت کلریفای و پژوهشگر برجسته هوش مصنوعی در پستی وبلاگی نوشت: «ماموریت کلریفای سرعت بخشیدن به پیشرفت بشر توسط هوش مصنوعیای است که به طور مرتب اصلاح میشود.» او بعدتر در یک مصاحبه خبری برای اطمینان از اینکه همه پروژههای شرکت معیارهای اخلاق را رعایت میکنند جایگاه مدیریتی جدیدی را معرفی کرد. از وقتی کنشگران، پژوهشگران و روزنامهنگاران از ظهور هوش مصنوعی ابراز نگرانی کردند و درباره جانبداری، فریبندگی و خباثت اپلیکیشنها هشدار دادند، شرکتهایی که این فناوریها را ساختهاند پاسخگو شدهاند. بیشتر شرکتها از غولهای فناوری مانند گوگل و مایکروسافت تا استارتآپهای فناوری خرد به تنظیم اصول شرکتی برای اطمینان از طراحی سیستمها در مسیری اخلاقی روی آوردهاند و برای نظارت بر این اصول ماموران یا هیاتهای اخلاق تعیین کردهاند. اما تنشها ادامه دارد زیرا در پایداری این وعدهها تردید وجود دارد. شرکتها میتوانند مسیر خود را تغییر دهند. ایدهآلگرایی میتواند در مقابل فشارهای مالی سرخم کند. برخی از کنشگران و حتی بعضی از شرکتها بحث درباره تنظیم مقررات دولتی به عنوان تنها راه اطمینان از فعالیتهای اخلاقی را کلید زدهاند. برد اسمیت، رئیس و سرپرست حقوقی مایکروسافت در اجلاس مشاغل جدید که فوریه ۲۰۱۹ در خلیج هفمون کالیفرنیا به میزبانی نیویورک تایمز برگزار شد، گفت: «نمیخواهیم شاهد سقوط مسابقه تجارت باشیم. به قانون نیاز داریم.» موقعیت اخلاقی جدید در کلریفای هیچگاه محقق نشد. در حالی که این استارتآپ نیویورکی فعالیتهای نظامی و خدمات تشخیص چهره خود را گسترش داد، نگرانی بعضی از کارکنان نیز افزایش یافت که کارشان در نهایت...