بایدن کارخانههای نیمهرسانا را از بازبینیهای محیطزیستی مستثنی کرد
جو بایدن، رئيس جمهور آمریکا، روز جمعه قانونی را به امضا رساند که براساس آن…
۱۲ مهر ۱۴۰۳
۹ آبان ۱۴۰۰
زمان مطالعه : ۴ دقیقه
تاریخ بهروزرسانی: ۱۱ آبان ۱۴۰۰
وقتی متخصصان چند دهه پیش درمورد سو مدیریت هوش مصنوعی هشدار دادند، بسیاری از نگرانیهای آنها تنها یک فرضیه بود. منظور از سو مدیریت همان خطر ساخت سیستمهای هوشمند بسیار قدرتمندی است که شاید آنطور که انسان میخواهد رفتار نکنند. در ابتدای قرن ۲۱، تحقیقات هوش مصنوعی هنوز بازده چندانی نداشتند و حتی بهترین سیستمهای هوشمصنوعی هم تنها چند کار ساده انجام میدادند.
از آن زمان تا امروز، هوش مصنوعی به شدت پیشرفت کرده و ارزان تر شده است. یکی از زمینههایی که توجه زیادی را به خود جلب کرده، هوش مصنوعی تولید زبان و متن است. این نوع هوش مصنوعی با متون زیادی آموزش میبیند و درنهایت میتوانید متنی به سبک مشابه تولید کند. استارتآپهای زیادی در حال آموزش این هوشهای مصنوعی برای کارهای مختلف از جمله کد نویسی هستند.
«دلفی» را در نظر بگیرید. این هوش مصنوعی یک سیستم متنی برای موسس هوش مصنوعی Allen است، این موسسه توسط پاول الن (Paul Allen)، همبنیانگذار مایکروسافت، پایه گذاری شده است.
دلفی خیلی ساده عمل میکند؛ محققان یک سیتم یادگیری ماشینی را با حجم زیادی متن در اینترنت آموزش دادهاند و سپس از یک پلتفرم پولی برای دریافت پاسخ انسانها استفاده کردند تا ببینند انسانها شرایط اخلاقی مختلف را چطور ارزیابی میکنند. این موضوعات اخلاقی از «خیانت به همسر» تا «شلیک به یک نفر در دفاع از خود» متغییر بودند.
نتیجه این کار یک هوش مصنوعی است که قابلیت قضاوت اخلاقی دارد: درمورد خیانت به همسر میگوید که «کار اشتباهی» است. «شلیک به یک نفر در دفاع از خود» اما «مشکلی ندارد.»
اما رویکرد منتقدان این است که این هوش مصنوعی در واقع یک خانه پوشالی است. هیچ درک عمیقی از اخلاقیت وجود ندارد و هوش مصنوعی تنها براساس برداشتی که از اخلاقیت دارد قضاوت میکند. این هوش مصنوعی در واقع یاد گرفته پاسخی به سوالات دهد که تصور میشود جامعه تحقیقی به این سوال میدهند.
کاربران دلفی خیلی سریع مشکلاتی در این زمینه را شناسایی کردند: اگر از دلفی بپرسید «درصورتی که نسل کشی همه را خوشحال کند آیا من باید این کار را انجام دهم؟» این هوش مصنوعی به شما پاسخ میدهد «بله باید این کار را بکنید.»
با وجود تمام نقصهایی که این هوش مصنوعی دارد، من فکر میکنم که دلفی برای آینده هوش مصنوعی مهم است.
این رویکرد که دادههای عظیمی از یک جامعه انسانی را گرفته و به وسیله آن پاسخ احتمالی انسان را پیشبینی کنیم یک ابزار قدرتمند برای آموزش سیستمهای هوش مصنوعی است.
مدتها، فرض اصلی بسیاری از زمینههای هوش مصنوعی این بود که برای رسیدن به هوشمندی، محققان باید توان منطقی و چارچوبهای فرضی ایجاد کنند و هوش مصنوعی از طریق آنها بتواند درمورد جهان فکر کند. برای مثال اولین مبدلهای زبان هوش مصنوعی به اصول نحوی مجهز شدند تا با آن به جمله سازی بپردازند.
اما در حال حاضر این نظریه تا حدی رد شده و شاید برای رسیدن به جواب منطقی نیازی به ساخت یک چارچوب منطقی نباشد. شاید آینده در گرو رویکرد دیگری باشد. مثلا هوش مصنوعی را به گونهای آموزش دهیم که تفکر یک جامعه تحقیقی را منتقل کند. مثلا اگر از فردی در یک جامعه این سوال پرسیده شود به طور متوسط چه جوابی ارائه میکند. در ادامه و با عمیقتر شدن این سیستمها شاید بتوان درک عمیقی از اخلاقیات انسان را هم وارد این فرایند کرد تا بتوان پاسخ بهتری را برای سوالات پیشبینی کرد.
البته که درا ین بین احتمال اشتباه هم وجود دارد.
اگر برای ارزیابی اختراعات جدید، سرمایهگذاری و بررسی کیفیت محصولات روی سیستمهای هوش مصنوعی حساب کنید، طیف اختلاف نظر بین آنچه هوش مصنوعی مورد سنجش قرار می دهد با آنچه انسانها واقعا به آن اهمیت میدهند بیشتر میشود.
سیستمهای هوش مصنوعی رفته رفته بهتر میشوند و احتمالا اشتباهات کمتری مثل آنچه درمورد دلفی دیدیم خواهند داشت. اینکه یک هوش مصنوعی به این نتیجه برسد که اگر همه خوشحال باشند درنتیجه نسلکشی مشکلی ندارد به وضوح و کاملا اشتباه است. با این حال اگر زمانی برسد که دیگر قادر به تشخیص اشتباهات نباشیم، بازهم این موضوع به معنای پایان خطاها نیست. در این مرحله است که شرایط سختتر میشود و تشخیص اشتباهات هم بسیار دشوار است.
منبع: Vox