چگونه میتوان با هوش مصنوعی مولد سازمانها را متحول کرد
تحولات جدید در دنیای کسبوکار با ورود هوش مصنوعی مولد (Gen AI) در حال شکلگیری…
۱۹ مهر ۱۴۰۳
۳ آبان ۱۳۹۹
زمان مطالعه : ۶ دقیقه
یادگیری ماشینی میتواند چیزهای زیادی را درمورد شما ثابت کند؛ از جمله برخی از حساسترین اطلاعات شما. برای مثال این تکنولوژی میتواند مشخص کند که آیا باردار هستید یا خیر، آیا از شغل خود استعفا خواهید داد و آیا احتمال دارد در آیندهای نزدیک بمیرید. محققان میتوانند نژاد را براساس لایکهای فیسبوکی پیشبینی کنند و محققان چینی از شناسایی چهره برای شناسایی و ردیابی ایغورهای اقلیت مسلمان این کشور استفاده میکنند. آیا ماشینها از این موضوعات درمورد شما «مطمئن» هستند و یا حدسهایی بسیار محتمل ارائه میکنند؟ و اگر همانند دیگر انسانها یک برداشت از شما دارند چطور به این سطح از زیرکی دست پیدا میکنند؟ و از همه مهمتر آیا استفاده از تکنولوژی پیشگویانه غیراخلاقی است؟
شاید بهتر باشد برای پاسخ به این سوالات به مواردی که به تکنولوژی پیشگویانه باعث رخ دادن اتفاقی شده است نگاهی بیاندازیم:
در آمریکا ماجرای پیش بینی فرد باردار احتمالا معروف ترین مثال استنباط الگوریتمی درمورد مردم محسوب میشود. در سال ۲۰۱۲ روزنامه نیویورک تایمز داستانی را منتشر کرد که نشان میداد چطور شرکتها از دادههای خود استفاده میکنند و در این داستان به پدری اشاره شده بود که از تبلیغاتی که درمورد کوپنهای مربوط به محصولات کودک برای دخترش ارسال میشد از بارداری دختر نوجوانش مطلع شده بود. البته شاید داستان مربوط به این نوجووان را بسیاری ساختگی قلمداد کنند، حتی اگر هم چنین چیزی رخ داده باشد ممکن است یک تصادف ساده باشد و ارتباطی با تحلیل پیشگویانه نداشته باشد؛ اما با این حال وجود پروژه پیشگویانه خطری برای حریم خصوصی محسوب میشود. اگر یک شرکت بازاریابی بتواند بارداری افراد را تشخیص دهد به اطلاعات حساسی بدون رضایت فرد دست پیدا کرده است، اطلاعاتی که در حالت عادی تنها خدمه درمانی مجاز به اطلاع از آن هستند.
مدیریت اشتباه در دسترسی به این نوع اطلاعات ممکن است بر زندگی افراد تاثیر جدی بگذارد. برای مثال خانمی که تازه یک جایگاه شغلی را به دست آورده و هنوز جای پای خود را سفت نکرده است شاید پیش از دوران ناتوانی ناشی از بارداری نخواهد اطلاعات مربوط به بارداری خود را با شرکت در میان بگذارد. در این صورت درز این اطلاعات به شرکت میتواند به از دست رفتن شغل و خراب شدن آینده شغل او منتهی شود.
این دادهها را نمیتوان اطلاعات نادرست، دزدی اطلاعاتی یا نشت اطلاعات دانست. درواقع ما شاهد نسل نو دادهها هستیم؛ دستیابی غیرمستقیم به واقعیتهایی که فرد رضایتی از افشای آن ندارد. سازمانها میتوانند براساس دادههایی که در اختیار دارند این پیشگوییها را انجام دهند.
تشخیص کاربردهای اخلاقی و غیراخلاقی تکنولوژی پیشگویی کار دشواری است؛ اما حداقل میتوان گفت که استفاده از یادگیری ماشینی برای تقویت یک اقدام غیراخلاقی مشخصا درست نخواهد بود
پس آیا میتوان گفت که عملکرد بسیار خوب این مدلها باعث دردسر آنها شده است؟ میدانیم که پیشگویی نادرست پیامدهایی را به دنبال خواهد داشت اما آیا پیشگویی درست نیز مشکل ساز است؟
حتی اگر دقت مدل آنچنان بالا نباشد بازهم برای دسته مشخصی از افراد باردار میتوان روی آن حساب کرد. بیایید فرض کنیم که ۲ درصد از خانمهای ۱۸ تا ۴۰ سال باردار هستند. اگر مدل احتمال بارداری برای یک دسته را سه برابر حد معمول مشخص کند بازهم تنها ۶ درصد احتمال بارداری وجود دارد. اما اگر گروهی محدودتر با تمرکز بیشتر را در نظر بگیریم و احتمال بارداری در این گروه ۴۶ برابر شود، درنتیجه هر خانمی که دراین گروه حضور داشته باشد ۹۶ درصد احتمال بارداری خواهد داشت. در این حالت سیستم نتیجه میگیرد که احتمال بارداری بسیار بالا است و میتواند این موضوع را اطلاع دهد.
در دیگر موضوعات از جمله احتمال استعفا نیز مدلهای پیشگو میتوانند احتمال استعفای شما را مشخص کنند. مطمئنا فردی که برای استعفا برنامه ریزی میکند نمیخواهد که رئیس از این موضوع مطلع شود. همچنین شناسایی چهره به خودی خود مشکل ساز نیست؛ اما زمان غیراخلاقی خواهد بود که مسئولان و دولتها از آن برای کنترل افراد در محیطهای عمومی و یا زیر نظر داشتن منتقدان و گروهها استفاده میکنند.
یک شرکت مشاوره زمانی که احتمال ترک شغل را برای منابع انسانی شرکتی بررسی میکرد در واقع احتمال مرگ افراد را نیز به عنوان یکی از روشهای ترک شغل مدل سازی کرده بود. منابع انسانی در پاسخ به این پیشبینی گفت این اطلاعات را «به ما نشان ندهید!». آنها نمیخواستند بدانند که کدام یک از کارکنان بیشتر در معرض خطر مرگ قرار دارد.
تحقیقات نشان داده است که مدلهای پیشگویی میتوانند براساس حرکاتی، همچون لایکهای فیسبوک، گرایشات فردی افراد را مشخص کنند. اما این موضوع زمانی مشکلساز است که شرکتهای بازاریابی از این اطلاعات برای پیشنهاد و تبلیغات استفاده میکنند. میتوان گفت که تبلیغات برپایه تفکیک است و شما نمیخواهید که به مادران تبلیغات قلاب ماهیگیری نشان دهید یا برای ماهیگیران پوشک تبلیغ کنید. اما سوال اینجاست که چه زمانی این مسئله مشکل ساز خواهد شد و تفکیک به تبعیض تبدیل بدل شده و یک گروه کوچک به صورت منفی مورد هدف قرار گیرد؟
کلیر گریوی، مشاور ارشد در مرکز حریم خصوصی و تکنولوژی در موسسه حقوقی جورج تاون در این مورد میگوید:«اگر یک تکنولوژی بتواند افراد را براساس قومیت دستهبندی کند مطمئنا فردی از آن برای سرکوب آن قومیت استفاده خواهد کرد.»
همین مسئله را در چین شاهد هستیم. دولت چین با استفاده از تشخیص چهره و ردیابی ایغورها، این گروه را به صورت سیستماتیک سرکوب میکند. این اولین مورد استفاده از یادگیری ماشین از سوی دولت برای ردیابی یک قومیت است. در این سیستم قومیت افراد به عنوان فاکتوری برای تبعیض در تصمیمگیری استفاده میشود. در این حالت پس از شناسایی و ردیابی افراد این گروه، دولت به شکلی متفاوت با آنها رفتار خواهد کرد. یکی از استارتاپهای چینی که ۱ میلیارد دلار ارزشگذاری شده است میگوید نرمافزاری دارد که میتواند «گروههای حساس مردم» را شناسایی کند. وبسایت این استارتآپ ادعا میکند که «اگر ابتدا یک ایغور در محلهای زندگی کنند و بین ۲۰ روز شش ایغور در آنجا پدیدار شود، هشداری را برای نیروهای امنیتی ارسال خواهد کرد.»
تبعیض و رفتار متفاوت برای یک گروه براساس تکنولوژی پیشگویانه، خطر این تکنولوژی را بسیار بالا میبرد. جانتان فرنکل، یک محقق یادیگری عمیق در دانشگاه MIT عقیده دارد که خطر استفاده از این تکنولوژی از چین هم فراتر خواهد رفت. وی میگوید: «به نظر من اغراق نیست که این تکنولوژی را تهدیدی برای دموکراسی تلقی کنیم. هرگاه کشوری یک مدل اینچنینی را برای نظارت راهاندازی کند، از دادههای به دست آمده برای القای قوانین و افکاری عمیق استفاده میشود، تا حدی که میتوان گفت به آرامی در حال ورود به یک بحران خطرناک هستیم.»
اما به طور کلی تشخیص کاربردهای اخلاقی و غیراخلاقی پیشگویی کار دشواری است و نمیتوان گفت که کدام بخش به قوانین پیشگیرانه نیاز دارد؛ اما حداقل میتوان گفت که استفاده از یادگیری ماشینی برای تقویت یک اقدام غیراخلاقی مشخصا درست نخواهد بود و همچنین زمانی که یادگیری ماشینی دادههای حساس ارائه میدهد باید مراقب استفاده از این دادهها بود.
منبع: hbr