skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

پلاس

معصومه صیادی نویسنده میهمان

آیا می‌توان رفتارهای انسان را در سیستم هوش مصنوعی پیاده‌سازی کرد؟

معصومه صیادی
نویسنده میهمان

۷ آذر ۱۴۰۲

زمان مطالعه : ۵ دقیقه

نفوذ هوش مصنوعی در زندگی روزمره افراد بیشتر می‌شود و سؤالاتی که مربوط به نحوه استفاده و به کارگیری آنها هستند نیز اهمیت بیشتری پیدا می‌کنند. یکی از پرسش‌ها این است که چگونه می‌توان رفتارهای انسان را در سیستم هوش مصنوعی پیاده‌سازی کرد؟ پاسخ به این پرسش‌ها می‌تواند قابلیت‌های اساسی که تصمیم‌های بزرگ و کوچک در هوش مصنوعی را ایجاد می‌کند بهتر مشخص ‌کند.

ترازبندی ارزش‌ها

همسویی هوش مصنوعی به معنای این است که سیستم‌های هوش مصنوعی مستقل باید طوری طراحی شوند که بتوان اهداف و رفتارهای آنها را با ارزش‌های انسانی هماهنگ کرد. طبق تعریفی که آنکا دراگان، استادیار دانشگاه کالیفرنیا توضیح می‌دهد روبات‌ها قصد ندارند علیه بشریت شورش کنند، آنها فقط سعی می‌کنند هر کاری را که ما به آنها می‌گوییم انجام دهند را بهینه کنند. بنابراین، باید آنها را طوری برنامه‌ریزی کنیم که مطابق با دنیای ما باشند.

تیم OpenAI در مقاله تحقیقی‌شان، مفهوم همسویی ارزش هوش مصنوعی را به عنوان اطمینان از اینکه سیستم‌های هوش مصنوعی به طور قابل اعتماد آنچه را که انسان می‌خواهد را انجام می‌دهد معرفی کردند. همسویی هوش مصنوعی مستلزم سطحی از درک ارزش‌های انسانی در یک زمینه خاص است. در این مورد، تیم OpenAI معتقد است که بهترین راه برای درک ارزش‌های انسانی، پرسیدن سؤالات ساده است.

پرسیدن سؤال درست، روشی مؤثر برای دستیابی به همسویی ارزش هوش مصنوعی است. متأسفانه، این روش یادگیری در برابر سه محدودیت قرار داد که عبارتند از:

۱) تعادل بازتابی: در بسیاری از موارد، انسان‌ها نمی‌توانند به یک سؤال که در حیطه قضاوت کردن است پاسخ درستی بدهند. عواملی مانند سوگیری شناختی یا اخلاقی، فقدان دانش در حوزه مربوطه یا تعریف مبهم از درستی ممکن است باعث ابهام در پاسخ‌ها شوند. در فلسفه، این مورد به نام تعادل بازتابی شناخته می‌شود، چرا که یکی از مکانیزم‌هایی است که هر الگوریتم هوش مصنوعی که سعی در یادگیری رفتارهای انسانی دارد باید از آن تبعیت کند.

۲) عدم اطمینان: حتی اگر بتوانیم به یک تعادل بازتابنده برای یک سؤال معین دست پیدا کنیم، ممکن است شرایط بسیاری وجود داشته باشد که در آن عدم اطمینان یا عدم توافق مانع از رسیدن انسان به پاسخ صحیح می‌شود. هر گونه فعالیتی که مرتبط با برنامه‌ریزی برای آینده است اغلب دچار عدم اطمینان است.

۳) فریب: انسان‌ها توانایی منحصر بفردی در ارائه پاسخ‌های قابل قبول به یک سؤال دارند اما ممکن است این پاسخ به طور ضمنی اشتباه باشد. این اشتباهات که ممکن است عمداً یا به طور اتفاقی باشد منجر به رفتارهای فریبنده یا گمراه کننده برای نتیجه‌گیری از یک رویداد معین شود. تشخیص رفتار فریبنده یکی از مهمترین چالش‌های هوش مصنوعی است که برای دستیابی به ارزش همسویی هوش مصنوعی باید حل شود.

یادگیری رفتارهای انسانی از طریق بحث کردن

تا اینجا ما می‌توانیم دو استدلال برای موضوع هم ترازی ارزش ارائه دهیم:

  • سیستم‌های هوش مصنوعی می‌توانند ارزش‌های انسانی را با پرسیدن سؤال یاد بگیرند.
  • این سؤالات اغلب در برابر چالش‌هایی مانند عدم قطعیت، فریب یا عدم تعادل بازتابی آسیب‌پذیر هستند.

تیم OpenAI با کنار هم قرار دادن این دو ایده، تصمیم گرفت تا با تکیه بر روش پویایی در پاسخگویی به پرسش‌ها یعنی مناظره، سیستم را وادار کند تا ارزش‌های انسانی را بیاموزد. از نظر مفهومی، مناظره به معنای بحث کردن است و باعث می‌شود که یک استدلال پیچیده را به مجموعه‌ای تکراری از سؤالات ساده‌تر تجزیه ‌کند تا مسیر استدلالی به سوی یک پاسخ خاص را ساده‌سازی کند.

خطر تعصب

هوش مصنوعی یک سیستم مبتنی بر یادگیری است. از طریق داده‌هایی که ما به آن می‌دهیم رشد می‌کند و بینش‌ها و قابلیت‌های جدیدی را به دست می‌آورد. به منظور هدایت درست سیستم هوش مصنوعی، دانشمندان باید دقت بسیاری بر روی مجموعه داده‌ها داشته باشند. اما این داده‌ها به صورت ناخواسته ممکن است مورد تعصب قرار بگیرند.

به طور مثال، بر طبق تحقیقی که دانشمندان انجام داده‌اند متوجه شدند که الگوریتم تبلیغاتی گوگل برای زنان ۶ برابر بیشتر از مردان آگهی‌های مشاغل پردرآمد را نمایش می‌دهند. مطمئناً این موارد چالشی اساسی در هوش مصنوعی است. به همین منظور، ما باید یک چارچوب اخلاقی قوی برای هوش مصنوعی ایجاد کنیم و بر انتخاب‌هایی که انجام می‌دهیم کنترل داشته باشیم.

افزایش هوش مصنوعی مسئول

برای استفاده از فرصت‌های رشدی که هوش مصنوعی می‌تواند در اختیار ما قرار دهید، شما باید به ملاحظات اخلاقی اصلی بپردازید و مجموعه‌ای از الزامات مبتنی بر ارزش را برای هدایت استقرار هوش مصنوعی ایجاد کنید. در ادامه ما چند رویکرد را ارائه می‌کنیم که می‌تواند به هوش مصنوعی مسئول کمک کند.

1- حکمرانی قوی: هوش مصنوعی باید مبتنی بر ارزش‌های اصلی شما باشد. ایجاد یک حکمرانی قوی با حفاظ‌های اخلاقی روشن و چارچوب‌های پاسخگویی به سیستم شما امکان شکوفایی بیشتر را می‌دهد.

2- طراحی قابل اعتماد: مصرف کنندگان تا جایی که بتوانند اقدامات و تصمیمات آن را توضیح دهند می‌توانند به هوش مصنوعی کمک کنند. دستیابی به این اعتماد مستلزم حفظ حریم خصوصی، شفافیت و امنیت است.

3- نظارت مؤثر: هنگامی‌که سیستم هوش مصنوعی شما منتشر شد نظارت به نحوه عملکرد آن برای موفقیت بسیار مهم است.

4- مهارت مجدد نیروی کار: معرفی هوش مصنوعی بر افراد درون سازمان نیز تأثیرگذار خواهد بود.

 

https://pvst.ir/gjf

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو