skip to Main Content
گلکسی نوت ۲۰ اولترا

محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

آیا استفاد از تکنولوژی پیشگویانه غیر اخلاقی است؟

۳ آبان ۱۳۹۹

زمان مطالعه : 6 دقیقه

برای بوکمارک این نوشته

یادگیری ماشینی می‌تواند چیز‌های زیادی را درمورد شما ثابت کند؛ از جمله برخی از حساس‌ترین اطلاعات شما. برای مثال این تکنولوژی می‌تواند مشخص کند که آیا باردار هستید یا خیر، آیا از شغل خود استعفا خواهید داد و آیا احتمال دارد در آینده‌ای نزدیک بمیرید. محققان می‌توانند نژاد را براساس لایک‌های فیسبوکی پیش‌بینی کنند و محققان چینی از شناسایی چهره برای شناسایی و ردیابی ایغور‌های اقلیت مسلمان این کشور استفاده می‌کنند. آیا ماشین‌ها از این موضوعات درمورد شما «مطمئن» هستند و یا حدس‌هایی بسیار محتمل ارائه می‌کنند؟ و اگر همانند دیگر انسان‌ها یک برداشت از شما دارند چطور به این سطح از زیرکی دست پیدا می‌کنند؟ و از همه مهم‌تر آیا استفاده از تکنولوژی پیشگویانه غیراخلاقی است؟

شاید بهتر باشد برای پاسخ به این سوالات به مواردی که به تکنولوژی پیشگویانه باعث رخ دادن اتفاقی شده است نگاهی بی‌اندازیم:

در آمریکا ماجرای پیش بینی فرد باردار احتمالا معروف ترین مثال استنباط الگوریتمی درمورد مردم محسوب می‌شود. در سال ۲۰۱۲ روزنامه نیویورک تایمز داستانی را منتشر کرد که نشان می‌داد چطور شرکت‌ها از داده‌های خود استفاده می‌کنند و در این داستان به پدری اشاره شده بود که از تبلیغاتی که درمورد کوپن‌های مربوط به محصولات کودک برای دخترش ارسال می‌شد از بارداری دختر نوجوانش مطلع شده بود. البته شاید داستان مربوط به این نوجووان را بسیاری ساختگی قلمداد کنند، حتی اگر هم چنین چیزی رخ داده باشد ممکن است یک تصادف ساده باشد و ارتباطی با تحلیل پیشگویانه نداشته باشد؛ اما با این حال وجود پروژه پیشگویانه خطری برای حریم خصوصی محسوب می‌شود. اگر یک شرکت بازاریابی بتواند بارداری افراد را تشخیص دهد به اطلاعات حساسی بدون رضایت فرد دست پیدا کرده است، اطلاعاتی که در حالت عادی تنها خدمه درمانی مجاز به اطلاع از آن هستند.

مدیریت اشتباه در دسترسی به این نوع اطلاعات ممکن است بر زندگی افراد تاثیر جدی بگذارد. برای مثال خانمی که تازه یک جایگاه شغلی را به دست آورده و هنوز جای پای خود را سفت نکرده است شاید پیش از دوران ناتوانی ناشی از بارداری نخواهد اطلاعات مربوط به بارداری خود را با شرکت در میان بگذارد. در این صورت درز این اطلاعات به شرکت می‌تواند به از دست رفتن شغل و خراب شدن آینده شغل او منتهی شود.

این داده‌ها را نمی‌توان اطلاعات نادرست، دزدی اطلاعاتی یا نشت اطلاعات دانست. درواقع ما شاهد نسل نو داده‌ها هستیم؛ دستیابی غیرمستقیم به واقعیت‌هایی که فرد رضایتی از افشای آن ندارد. سازمان‌ها می‌توانند براساس داده‌هایی که در اختیار دارند این پیشگویی‌ها را انجام دهند.

تشخیص کاربرد‌های اخلاقی و غیراخلاقی تکنولوژی پیشگویی کار دشواری است؛ اما حداقل می‌توان گفت که استفاده از یادگیری ماشینی برای تقویت یک اقدام غیراخلاقی مشخصا درست نخواهد بود

پس آیا می‌توان گفت که عملکرد بسیار خوب این مدل‌ها باعث دردسر آنها شده است؟ می‌دانیم که پیشگویی نادرست پیامد‌هایی را به دنبال خواهد داشت اما آیا پیشگویی درست نیز مشکل ساز است؟

حتی اگر دقت مدل آنچنان بالا نباشد بازهم برای دسته مشخصی از افراد باردار می‌توان روی آن حساب کرد. بیایید فرض کنیم که ۲ درصد از خانم‌های ۱۸ تا ۴۰ سال باردار هستند. اگر مدل احتمال بارداری برای یک دسته را سه برابر حد معمول مشخص کند بازهم تنها ۶ درصد احتمال بارداری وجود دارد. اما اگر گروهی محدودتر با تمرکز بیشتر را در نظر بگیریم و احتمال بارداری در این گروه ۴۶ برابر شود، درنتیجه هر خانمی که دراین گروه حضور داشته باشد ۹۶ درصد احتمال بارداری خواهد داشت. در این حالت سیستم نتیجه می‌گیرد که احتمال بارداری بسیار بالا است و می‌تواند این موضوع را اطلاع دهد.

در دیگر موضوعات از جمله احتمال استعفا نیز مدل‌های پیشگو می‌توانند احتمال استعفای شما را مشخص کنند. مطمئنا فردی که برای استعفا برنامه ریزی می‌کند نمی‌خواهد که رئیس از این موضوع مطلع شود. همچنین شناسایی چهره به خودی خود مشکل ساز نیست؛ اما زمان غیراخلاقی خواهد بود که مسئولان و دولت‌ها از آن برای کنترل افراد در محیط‌های عمومی و یا زیر نظر داشتن منتقدان و گروه‌ها استفاده می‌کنند.

یک شرکت مشاوره زمانی که احتمال ترک شغل را برای منابع انسانی شرکتی بررسی می‌کرد در واقع احتمال مرگ افراد را نیز به عنوان یکی از روش‌های ترک شغل مدل سازی کرده بود. منابع انسانی در پاسخ به این پیش‌بینی گفت این اطلاعات را «به ما نشان ندهید!». آنها نمی‌خواستند بدانند که کدام یک از کارکنان بیشتر در معرض خطر مرگ قرار دارد.

چه زمانی مدل‌های پیشگویانه مشکل‌ساز می‌شوند؟

تحقیقات نشان داده است که مدل‌های پیشگویی می‌توانند براساس حرکاتی، همچون لایک‌های فیسبوک، گرایشات فردی افراد را مشخص کنند. اما این موضوع زمانی مشکل‌ساز است که شرکت‌های بازاریابی از این اطلاعات برای پیشنهاد و تبلیغات استفاده می‌کنند. می‌توان گفت که تبلیغات برپایه تفکیک است و شما نمی‌خواهید که به مادران تبلیغات قلاب ماهیگیری نشان دهید  یا برای ماهیگیران پوشک تبلیغ کنید. اما سوال اینجاست که چه زمانی این مسئله مشکل ساز خواهد شد و تفکیک به تبعیض تبدیل بدل شده و یک گروه کوچک به صورت منفی مورد هدف قرار گیرد؟

کلیر گریوی، مشاور ارشد در مرکز حریم خصوصی و تکنولوژی در موسسه حقوقی جورج تاون در این مورد می‌گوید:«اگر یک تکنولوژی بتواند افراد را براساس قومیت دسته‌بندی کند مطمئنا فردی از آن برای سرکوب آن قومیت استفاده خواهد کرد.»

همین مسئله را در چین شاهد هستیم. دولت چین با استفاده از تشخیص چهره و ردیابی ایغورها، این گروه را به صورت سیستماتیک سرکوب می‌کند. این اولین مورد استفاده از یادگیری ماشین از سوی دولت برای ردیابی یک قومیت است. در این سیستم قومیت افراد به عنوان فاکتوری برای تبعیض در تصمیم‌گیری استفاده می‌شود. در این حالت پس از شناسایی و ردیابی افراد این گروه، دولت به شکلی متفاوت با آنها رفتار خواهد کرد. یکی از استارتاپ‌های چینی که ۱ میلیارد دلار ارزشگذاری شده است می‌گوید نرم‌افزاری دارد که می‌تواند «گروه‌های حساس مردم» را شناسایی کند. وب‌سایت این استارت‌آپ ادعا می‌کند که «اگر ابتدا یک ایغور در محله‌ای زندگی کنند و بین ۲۰ روز شش ایغور در آنجا پدیدار شود، هشداری را برای نیرو‌های امنیتی ارسال خواهد کرد.»

تبعیض و رفتار متفاوت برای یک گروه براساس تکنولوژی پیشگویانه، خطر این تکنولوژی را بسیار بالا می‌برد. جانتان فرنکل، یک محقق یادیگری عمیق در دانشگاه MIT عقیده دارد که خطر استفاده از این تکنولوژی از چین هم فراتر خواهد رفت. وی می‌گوید: «به نظر من اغراق نیست که این تکنولوژی را تهدیدی برای دموکراسی تلقی کنیم. هرگاه کشوری یک مدل این‌چنینی را برای نظارت راه‌اندازی کند، از داده‌های به دست آمده برای القای قوانین و افکاری عمیق استفاده می‌شود، تا حدی که می‌توان گفت به آرامی در حال ورود به یک بحران خطرناک هستیم.»

اما به طور کلی تشخیص کاربرد‌های اخلاقی و غیراخلاقی پیشگویی کار دشواری است و نمی‌توان گفت که کدام بخش به قوانین پیشگیرانه نیاز دارد؛ اما حداقل می‌توان گفت که استفاده از یادگیری ماشینی برای تقویت یک اقدام غیراخلاقی مشخصا درست نخواهد بود و همچنین زمانی که یادگیری ماشینی داده‌های حساس ارائه می‌دهد باید مراقب استفاده از این داده‌ها بود.

منبع: hbr

برای بوکمارک این نوشته

http://pvst.ir/8tq

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

Back To Top
×Close search
جستجو