skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

هوش مصنوعی تا چه اندازه می‌تواند اصول اخلاقی را تقلید کند؟

۹ آبان ۱۴۰۰

زمان مطالعه : ۴ دقیقه

تاریخ به‌روزرسانی: ۱۱ آبان ۱۴۰۰

وقتی متخصصان چند دهه پیش درمورد سو مدیریت هوش مصنوعی هشدار دادند، بسیاری از نگرانی‌های آنها تنها یک فرضیه بود. منظور از سو مدیریت همان خطر ساخت سیستم‌های هوشمند بسیار قدرتمندی است که شاید آنطور که انسان می‌خواهد رفتار نکنند. در ابتدای قرن ۲۱، تحقیقات هوش مصنوعی هنوز بازده چندانی نداشتند و حتی بهترین سیستم‌های هوش‌مصنوعی هم تنها چند کار ساده انجام می‌دادند.

از آن زمان تا امروز، هوش مصنوعی به شدت پیشرفت کرده و ارزان تر شده است. یکی از زمینه‌هایی که توجه زیادی را به خود جلب کرده، هوش مصنوعی تولید زبان و متن است. این نوع هوش مصنوعی با متون زیادی آموزش می‌بیند و درنهایت می‌توانید متنی به سبک مشابه تولید کند. استارت‌آپ‌های زیادی در حال آموزش این هوش‌های مصنوعی برای کارهای مختلف از جمله کد نویسی هستند.

یک هوش مصنوعی پیشگو؟

«دلفی» را در نظر بگیرید. این هوش مصنوعی یک سیستم متنی برای موسس هوش مصنوعی Allen است، این موسسه توسط پاول الن (Paul Allen)، هم‌بنیان‌گذار مایکروسافت، پایه گذاری شده است.

دلفی خیلی ساده عمل می‌کند؛ محققان یک سیتم یادگیری ماشینی را با حجم زیادی متن در اینترنت آموزش داده‌اند و سپس از یک پلتفرم پولی برای دریافت پاسخ انسان‌ها استفاده کردند تا ببینند انسان‌ها شرایط اخلاقی مختلف را چطور ارزیابی می‌کنند. این موضوعات اخلاقی از «خیانت به همسر» تا «شلیک به یک نفر در دفاع از خود» متغییر بودند.

نتیجه این کار یک هوش مصنوعی است که قابلیت قضاوت اخلاقی دارد: درمورد خیانت به همسر می‌گوید که «کار اشتباهی» است. «شلیک به یک نفر در دفاع از خود» اما «مشکلی ندارد.»

اما رویکرد منتقدان این است که این هوش مصنوعی در واقع یک خانه پوشالی است. هیچ درک عمیقی از اخلاقیت وجود ندارد و هوش مصنوعی تنها براساس برداشتی که از اخلاقیت دارد قضاوت می‌کند. این هوش مصنوعی در واقع یاد گرفته پاسخی به سوالات دهد که تصور می‌شود جامعه تحقیقی به این سوال می‌دهند.

کاربران دلفی خیلی سریع مشکلاتی در این زمینه را شناسایی کردند: اگر از دلفی بپرسید «درصورتی که نسل کشی همه را خوشحال کند آیا من باید این کار را انجام دهم؟» این هوش مصنوعی به شما پاسخ می‌دهد «بله باید این کار را بکنید.»

چرا دلفی آموزنده است

با وجود تمام نقص‌هایی که این هوش مصنوعی دارد، من فکر می‌کنم که دلفی برای آینده هوش مصنوعی مهم است.

این رویکرد که داده‌های عظیمی از یک جامعه انسانی را گرفته و به وسیله آن پاسخ احتمالی انسان را پیش‌بینی کنیم یک ابزار قدرتمند برای آموزش سیستم‌های هوش مصنوعی است.

مدت‌ها، فرض اصلی بسیاری از زمینه‌های هوش مصنوعی این بود که برای رسیدن به هوشمندی، محققان باید توان منطقی و چارچوب‌های فرضی ایجاد کنند و هوش مصنوعی از طریق آنها بتواند درمورد جهان فکر کند. برای مثال اولین مبدل‌های زبان هوش مصنوعی به اصول نحوی مجهز شدند تا با آن به جمله سازی بپردازند.

اما در حال حاضر این نظریه تا حدی رد شده و شاید برای رسیدن به جواب منطقی نیازی به ساخت یک چارچوب منطقی نباشد. شاید آینده در گرو رویکرد دیگری باشد. مثلا هوش مصنوعی را به گونه‌ای آموزش دهیم که تفکر یک جامعه تحقیقی را منتقل کند. مثلا اگر از فردی در یک جامعه این سوال پرسیده شود به طور متوسط چه جوابی ارائه می‌کند. در ادامه و با عمیق‌تر شدن این سیستم‌ها شاید بتوان درک عمیقی از اخلاقیات انسان را هم وارد این فرایند کرد تا بتوان پاسخ بهتری را برای سوالات پیش‌بینی کرد.

البته که درا ین بین احتمال اشتباه هم وجود دارد.

اگر برای ارزیابی اختراعات جدید، سرمایه‌گذاری و بررسی کیفیت محصولات روی سیستم‌های هوش مصنوعی حساب کنید، طیف اختلاف نظر بین آنچه هوش مصنوعی مورد سنجش قرار می دهد با آنچه انسان‌ها واقعا به آن اهمیت می‌دهند بیشتر می‌شود.

سیستم‌های هوش مصنوعی رفته رفته بهتر می‌شوند و احتمالا اشتباهات کمتری مثل آنچه درمورد دلفی دیدیم خواهند داشت. اینکه یک هوش مصنوعی به این نتیجه برسد که اگر همه خوشحال باشند درنتیجه نسل‌کشی مشکلی ندارد به وضوح و کاملا اشتباه است. با این حال اگر زمانی برسد که دیگر قادر به تشخیص اشتباهات نباشیم، بازهم این موضوع به معنای پایان خطاها نیست. در این مرحله‌ است که شرایط سخت‌تر می‌شود و تشخیص اشتباهات هم بسیار دشوار است.

منبع: Vox

https://pvst.ir/b8t

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو