هوش مصنوعی گاهی آنقدرها که فکر میکنیم باهوش نیست. محققانی که الگوریتمی را برای تشخیص سرطان پوست آموزش میدادند، تصور میکردند به موفقیت دست یافتهاند تا اینکه پی بردند الگوریتم در پیشبینیهایش اشتباه کرده است. در واقع مجموعه داده (Dataset) این پژوهشگران شامل تصاویری بود که یک متخصص پاتولوژی برای اندازهگیری ضایعات بدخیم، خطکشی کنار آنها قرار داده بود. الگوریتم این منطق را به تمام تصاویر خارج از مجموعه داده تعمیم داد و به همین دلیل، اگر در تصویری خطکش وجود داشت، الگوریتم بافت خوشخیم را هم بدخیم تشخیص میداد. در اینجا مشکل این نیست که الگوریتم هوش مصنوعی مرتکب اشتباه شده بود. بلکه آنچه نگرانکننده است شیوه «تفکر» هوش مصنوعی است. هیچ پاتولوژیست انسانی چنین نتیجهگیریای نمیکرد. موارد زیادی از چنین «استدلال»های معیوب وجود دارد- از الگوریتمهای منابع انسانی که مردان را برای استخدام ترجیح میدهند به این دلیل که اطلاعات درون مجموعه دادهها بیشتر به نفع مردان است، تا رواج نابرابری نژادی در زمینه مراقبت و درمان پزشکی. شرکت گوگل بهتازگی تصمیم گرفته به ممنوعیت طولانیمدت خود درباره ساخت تسلیحات هوش مصنوعی پایان دهد. این تصمیم چند روزی پس از آن اتخاذ شد که ارزش سهام آلفابت شرکت مادرگوگل افت 6 درصدی پیدا کرد. این نخستین باری نیست که گوگل تصمیم میگیرد به دل موقعیتی ناشناخته و پرمخاطره بزند. این شرکت پیشتر با وزارت دفاع آمریکا بر سر استفاده از فناوری هوش مصنوعی خود برای پروژهای به نام Maven که هدف از آن مجهز کردن پهپادها به سیستم تشخیص اجسام بود، همکاری کرده بود. انتشار خبر این قرارداد در سال ۲۰۱۸ واکنش منفی کارکنان شرکت گوگل را برانگیخت، چراکه این افراد دلشان نمیخواست فناوری تولیدشده به دست آنها در جنگها به کار گرفته شود. در نهایت گوگل از تمدید این قرارداد خودداری کرد و اجرای این پروژه را شرکت رقیب یعنی Palantir بر عهده گرفت. وقتی شرکت رقیب...