skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

هوش مصنوعی مفاهیم اخلاقی را تغییر می‌دهد

۱۴ تیر ۱۳۹۸

زمان مطالعه : ۵ دقیقه

تاریخ به‌روزرسانی: ۳۰ آذر ۱۳۹۸

رشد بی‌امان داده در مکان‌ها و زمان‌های مختلف باعث می‌شود قدرت هوش مصنوعی و تحلیل پیشگویانه آن‌قدر افزایش یابد که قوانین و مقررات نتوانند پابه‌پای آن پیش بیایند.

به گزارش پیوست هوش مصنوعی با مسائل اخلاقی گسترده‌ای در زمینه‌های جمع‌آوری داده، ذخیره‌سازی، توزیع و استفاده آماری از داده و محصول هوش مصنوعی مواجه است. سیستم‌های هوش مصنوعی با مشکلاتی مثل تعصب و تبعیض دست و پنجه نرم می‌کنند. به عبارت دیگر، فناوری‌هایی که بی‌طرف نیستند می‌توانند تبعیض‌های موجود در جامعه را تقویت کنند و به افرادی که در حاشیه‌اند، آسیب برساند. برای مثال، تحلیل سال ۲۰۱۶ ProPublica،سازمانی غیرانتفاعی که اخبار را بررسی و تحلیل می‌کند، نشان می‌دهد که COMPAS (سیستم ارزیابی و تصمیم‌گیری در مورد جرائم) نسبت به آمریکایی‌های سیاه‌پوست تبعیض قائل می‌شود و متهمان سیاه‌پوست را «دوبرابر بیشتر از متهمان سفیدپوست» به قانون‌شکنی شناسایی می‌کند.

طبق گزارش آر‌تی‌آی، چین نیز از طریق سیستم اعتبار اجتماعی چین (China Social Credit System) در حال توسعه یکپارچه‌سازی فناوری‌های هوش مصنوعی با ساختار اجتماعی‌دولتی خود است. دولت چین با استفاده از این سیستم و جمع‌آوری و تحلیل داده بر زندگی شهروندان،  نظارت می‌کند. شهروندان بر اساس تصمیم‌های روزمره‌شان از جمله خریدها و فعالیت‌های اوقات فراغت، رتبه‌بندی می‌شوند. این امتیازها تحت تاثیر امتیازهای خانواده و دوستان فرد نیز قرار دارد. امتیاز فرد رتبه اجتماعی او را مشخص می‌کند و بر جنبه‌های مختلفی از زندگی‌اش از جمله سفر داخلی، اخذ وام و دریافت بورس تحصیلی تاثیر می‌گذارد.

سیستم اعتبار اجتماعی چینی در مقابل رویکرد دیگر کشورها در زمینه حفاظت از داده شخصی مثل GDRP قرار دارد. اتحادیه اروپا در سال ۲۰۱۶ مقررات عمومی حفاظت از داده (GDPR) را تصویب کرد که در واقع، اصلاحیه‌ای جدید و جایگزین «دستورالعمل‌های حفاظت از داده» سال ۱۹۹۵ است. GDPR محافظت از داده‌های شخصی شهروندان اتحادیه اروپا را از سال ۲۰۱۸ افزایش می‌دهد. ایالات متحده نیز در زمینه مقررات هوش مصنوعی گام‌هایی را برداشته است. مثلا در سال ۲۰۱۶ شورای ملی علوم و فناوری، کمیته‌ای فرعی در زمینه یادگیری ماشین و هوش مصنوعی تشکیل داد تا برنامه راهبردی تحقیق و توسعه هوش مصنوعی ملی را ایجاد کند.

این در شرایطی است که دولت‌های مختلف در حال تنظیم مقررات در حوزه هوش مصنوعی‌اند. با این حال، مقررات مربوط به هوش مصنوعی متکی به افرادی است که فناوری‌های هوش مصنوعی را می‌سازند. این امر می‌تواند مشکل‌ساز باشد؛ زیرا ممکن است مقاصد این افراد در تعارض با حریم خصوصی باشد یا به نفع کاربران نباشد.

مسائل اخلاقی در زمینه هوش مصنوعی

با توجه به ماهیت انسانی اکثر فناوری‌های هوش مصنوعی، می‌توان چهارچوب‌های اخلاقی‌ استخراج‌شده از تحقیقات پزشکی و بیولوژیکی را مرجع مناسبی برای ارزیابی اخلاقی هوش مصنوعی دانست. مفاهیم کلیدی معدود و در عین حال حیاتی‌ای وجود دارند که می‌توانند در حوزه اخلاق هوش مصنوعی، توسعه یابند و مفید واقع شوند. این مفاهیم را می‌توان به چهار دسته حق تصمیم‌گیری، رضایت آگاهانه، اعمال زور و اعمال نفوذ ناروا تقسیم کرد.  

عموم مردم در تعامل با فناوری‌های هوش مصنوعی‌ایی هستند که شرکت‌ها تولید کرده‌اند. شرکت‌ها قوانین این فناوری‌ها را از طریق توافق‌نامه‌های شرایط و مقررات سرویس‌دهی تعریف می‌کنند. هنگامی که این توافق‌نامه‌ها را بر اساس چهار مفهوم اخلاقی که مطرح شدند، ارزیابی کنیم، مشکلات بسیاری نمایان می‌شوند. مثلا اغلب شرکت‌ها حق تغییر شرایط سرویس‌دهی خود را حفظ می‌کنند و کاربر ممکن است با شرایط خاصی برای نگهداری داده‌هایش توافق کرده باشد، اما متوجه شود شرایط مورد توافقش، دیگر وجود ندارد. شرکت‌ها ممکن است با توجه به موقعیتشان توضیح و اطلاعات واضحی در مورد تغییر ارائه ندهند و کاربر انتظارات غلط داشته باشد. به این ترتیب این امر از نقطه‌نظر رضایت آگاهانه مشکل‌ساز است؛ زیرا شرکت‌ها از داده‌های شخص در تحقیق یا پیش‌بینی در مورد آنها استفاده می‌کنند.

فهم اینکه فناوری‌های هوش مصنوعی چگونه کار می‌کنند، نیاز به سطح زیادی از آموزش و تجربه در آمار و تخصص در زمینه هوش مصنوعی دارد. با توجه به پیچیدگی هوش مصنوعی و الزامات رضایت آگاهانه، مساله رضایت یا عدم رضایت شهروند معمولی نسبت به جمع‌آوری داده به روشی که تحقیقات هوش مصنوعی آینده را در بر می‌گیرد، اهمیت زیادی دارد؛ به‌ویژه هنگامی که این تحقیقات به‌روشنی تعریف نشده‌اند.

برخی رهبران هوش مصنوعی قوانینی را وضع کرده‌اند. مثلا گوگل اصولی را در زمینه مسئولیت توسعه هوش مصنوعی مشخص کرده است. این اصول هفت‌گانه به این ترتیبند: الف) از نظر اجتماعی مفید باشد. ب) از ایجاد یا تقویت تعصب ناعادلانه اجتناب شود. پ) امن باشد و از نظر امنیت آزمایش شود. ت) نسبت به مردم پاسخگو باشد. ث) اصول حریم شخصی را رعایت کند. ج) استانداردهای علمی را حفظ کند و د) برای مقاصد و کاربردهایی در دسترس باشد که مطابق با اصول گوگل است.

اما مساله این است که شرکت‌هایی مثل گوگل با محدودیت‌هایی در زمینه نظارت بر مسائل اخلاقی مواجهند. اینکه گوگل تیم اخلاق هوش مصنوعی خود را در کمتر از دو هفته بعد از تاسیس، به دلیل انتقادهای داخلی و خارجی از تناقض‌های اعضای آن، منحل کرد، نشان می‌دهد که پرداختن به مسائل اخلاقی تا چه میزان دشوار و مناقشه‌برانگیز است.

از سوی دیگر، با افزایش دسترسی به وسائل نقلیه خودران و نیمه‌خودران، دغدغه‌های بنیادینی در مورد چگونگی واکنش ماشین‌ها در موقعیت‌هایی وجود دارد که نیاز به تصمیم‌گیری است و می‌تواند بر زندگی مسافر یا فرد پیاده، تاثیر بگذارد. علاوه بر این، هنگامی که تصادف‌هایی رخ می‌دهند که شامل وسائل نقلیه خودران می‌شوند، پرسش‌هایی در مورد اینکه چه کسی مجرم است، ایجاد می‌شود: پیاده‌ها، مسافران، شرکت‌های وسائل نقلیه و رهبرانشان، نرم‌افزارهای هوش مصنوعی و رهبرانشان  یا مهندسان هوش مصنوعی.

 

 

http://pvst.ir/612

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو