skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

پلاس

معصومه صیادی نویسنده میهمان

آیا رفتارهای انسانی در هوش مصنوعی قابل اجراست؟ هم‌سویی ارزش‌های فناوری AI با ارزش‌های انسانی

معصومه صیادی
نویسنده میهمان

۹ شهریور ۱۴۰۲

زمان مطالعه : ۵ دقیقه

تاریخ به‌روزرسانی: ۵ آبان ۱۴۰۲

هوش مصنوعی

ابزارهای هوش مصنوعی می‌توانند اشتباه کنند، می‌توانند تصمیمات مغرضانه بگیرند یا در فعالیت‌های خود سوگیری داشته باشند. یکی از پرسش‌هایی که به طور حتمی برای بسیاری از افراد مطرح می‌شود این است که چگونه می‌توان رفتارهای انسان را در سیستم هوش مصنوعی پیاده‌سازی کرد و سوال دیگر در رابطه با هم‌سویی ارزش‌های هوش مصنوعی با ارزش‌های انسانی است.

با قدرتمندتر شدن هوش مصنوعی، نفوذ و تاثیر آن در زندگی روزمره نیز افزایش می‌یابد. به دنبال این اثرگذاری، سوالات مربوط به نحوه استفاده و به‌کارگیری این فناوری مهم‌تر می‌شود. پاسخ به این پرسش‌ها می‌تواند قابلیت‌های اساسی که موجب اتخاذ تصمیم‌های بزرگ و کوچک در هوش مصنوعی می‌شود را بهتر مشخص ‌کند.

هم‌سویی ارزش‌های هوش مصنوعی با ارزش‌های انسانی

هم‌سویی ارزش‌های هوش مصنوعی با ارزش‌های انسانی

در رابطه با این موضوع، ابتدا باید با مفهوم هم‌سویی ارزش در هوش مصنوعی آشنا شویم. هم‌سویی ارزش به معنای این است که سیستم‌های هوش مصنوعی مستقل باید طوری طراحی شوند که بتوان اهداف و رفتارهای آنها را با ارزش‌های انسانی در طول عملیاتشان هماهنگ کرد. طبق تعریفی که آنکا دراگان، استادیار دانشگاه کالیفرنیا توضیح می‌دهد که ربات‌ها قصد ندارند علیه بشریت شورش کنند، آنها فقط سعی می‌کنند هر کاری را که ما به آنها می‌گوییم انجام دهند را بهینه کنند. بنابراین، باید آنها طوری برنامه‌ریزی شوند که مطابق با دنیای ما باشند.

تیم OpenAI در مقاله تحقیقی‌شان، مفهوم هم‌سویی ارزش هوش مصنوعی با ارزش‌های انسانی را این‌گونه تعریف کردند که این فناوری هر چه که انسان می‌خواهد را انجام می‌دهد. هم‌سویی ارزش هوش مصنوعی با ارزش‌های انسانی مستلزم سطحی از درک ارزش‌های انسانی در یک زمینه خاص است. در این مورد، تیم OpenAI معتقد است که بهترین راه برای درک ارزش‌های انسانی، پرسیدن سوالات ساده است.

پرسیدن سوال درست روشی موثر برای دستیابی به هم‌سویی ارزش هوش مصنوعی با ارزش‌های انسانی است. متاسفانه، این روش یادگیری در برابر سه محدودیت قرار داد که عبارتند از:

۱- تعادل بازتابی: در بسیاری از موارد، انسان‌ها نمی‌توانند به یک سوال با محوریت قضاوت کردن، پاسخ درستی بدهند. عواملی مانند سوگیری شناختی یا اخلاقی، فقدان دانش در حوزه مربوطه یا تعریف مبهم از سوال ممکن است باعث ابهام در پاسخ‌ها شود. در فلسفه، این مورد به نام تعادل بازتابی شناخته می‌شود، چرا که یکی از مکانیزم‌هایی است که هر الگوریتم هوش مصنوعی که سعی در یادگیری رفتارهای انسانی دارد باید از آن تبعیت کند.

۲- عدم اطمینان: حتی اگر بتوانیم به یک تعادل بازتابنده برای یک سوال معین دست پیدا کنیم، ممکن است شرایط متفاوتی فراهم باشد که در آن عدم اطمینان یا عدم توافق مانع از رسیدن به پاسخ صحیح می‌شود. به‌طور کلی هر گونه فعالیتی که مرتبط با برنامه‌ریزی برای آینده است اغلب حس عدم اطمینان را بر می‌انگیزد.

۳- فریب: انسان‌ها توانایی منحصر به‌فردی در ارائه پاسخ‌های قابل قبول به یک سوال دارند اما ممکن است این پاسخ به طور ضمنی اشتباه باشد. این اشتباهات که ممکن است عمدا یا به طور اتفاقی باشد منجر به رفتارهای فریبنده یا گمراه کننده برای نتیجه‌گیری از یک رویداد معین می‌شود. تشخیص رفتار فریبنده یکی از مهمترین چالش‌های هوش مصنوعی است که برای دستیابی به ارزش هم‌سویی هوش مصنوعی با ارزش‌های انسانی باید حل شود.

یادگیری رفتارهای انسانی از طریق بحث کردن

تا اینجا ما می‌توان دو استدلال برای موضوع هم‌سویی ارزش ارائه کرد:

  • سیستم‌های هوش مصنوعی می‌توانند ارزش‌های انسانی را از طریق طرح سوال یاد بگیرند.
  • این سوالات اغلب در برابر چالش‌هایی مانند عدم قطعیت، فریب یا عدم تعادل بازتابی، آسیب‌پذیر هستند.

تیم OpenAI با کنار هم قرار دادن این دو ایده، تصمیم گرفت تا با تکیه بر روش پویایی در پاسخگویی به پرسش‌ها یعنی مناظره، سیستم را وادار کند تا ارزش‌های انسانی را بیاموزد. از نظر مفهومی، مناظره به معنای بحث کردن است و باعث می‌شود که یک استدلال پیچیده را به مجموعه‌ای تکراری از سوالات ساده‌تر تجزیه ‌کرده تا مسیر استدلالی به سوی یک پاسخ خاص را ساده‌سازی کند.

خطر تعصب

هوش مصنوعی یک سیستم مبتنی بر یادگیری است. از طریق داده‌هایی که ما به آن می‌دهیم رشد می‌کند و بینش‌ها و قابلیت‌های جدیدی را به دست می‌آورد. به منظور هدایت درست سیستم هوش مصنوعی، دانشمندان باید دقت بسیاری روی مجموعه داده‌ها داشته باشند. اما این داده‌ها به صورت ناخواسته ممکن است مورد تعصب قرار بگیرند.

به طور مثال، طبق تحقیقی که دانشمندان انجام داده‌اند الگوریتم‌های تبلیغاتی مشاغل پردرآمد گوگل برای زنان ۶ برابر بیشتر از مردان است. مطمئنا مواردی از این دست نشان‌دهنده چالشی اساسی در هوش مصنوعی است. به همین منظور، ما باید یک چارچوب اخلاقی قوی برای هوش مصنوعی ایجاد کنیم و بر انتخاب‌هایی که انجام می‌دهیم کنترل داشته باشیم.

افزایش هوش مصنوعی مسئول

برای بهره‌مندی از فرصت‌های رشدی که هوش مصنوعی می‌تواند در اختیار ما قرار دهد، باید به ملاحظات اخلاقی اصلی پرداخت و مجموعه‌ای از الزامات مبتنی بر ارزش را برای هدایت و استقرار هوش مصنوعی ایجاد کرد.

در ادامه ما چند رویکرد را ارائه می‌کنیم که می‌تواند به هوش مصنوعی مسئول کمک کند.

۱- حکمرانی قوی: هوش مصنوعی باید مبتنی بر ارزش‌های اصلی شما باشد. ایجاد یک حکمرانی قوی با حفاظ‌های اخلاقی روشن و چارچوب‌های پاسخگویی به سیستم شما امکان شکوفایی بیشتر را فراهم می‌آورد.

۲- طراحی قابل اعتماد: مصرف کنندگان تا جایی که بتوانند اقدامات و تصمیمات را توضیح دهند می‌توانند به هوش مصنوعی کمک کنند. بیان جزئیات و ارائه توضیحات باعث کارآمدتر شدن این فناوری می‌شود البته که دستیابی به این اعتماد و برقراری چنین ارتباطی مستلزم حفظ حریم خصوصی، شفافیت و امنیت است.

۳- نظارت موثر: هنگامی‌که سیستم هوش مصنوعی شما راه‌اندازی شد، نظارت مستمر بر عملکرد آن برای موفقیت بسیار مهم و ضروری است.

۴- مهارت مجدد نیروی کار: معرفی ساز و کار هوش مصنوعی و آشنایی با جزئیات آن، نقش موثری بر افراد درون سازمان خواهد گذاشت. این افراد با کسب آگاهی بیشتر، سوالات جدیدتری برایشان مطرح می‌‌شود و همین مساله، عامل اصلی تحقیق و جست‌وجو است.

 

https://pvst.ir/ftt

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو