skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

چگونه بدانیم هوش مصنوعی خودآگاه شده است؟ تلاش محققان برای پاسخ به این سوال

۲۲ مهر ۱۴۰۲

زمان مطالعه : ۵ دقیقه

تاریخ به‌روزرسانی: ۲۱ مهر ۱۴۰۲

بحث خود‌آگاهی هوش مصنوعی مدت‌ها است که تم اصلی بسیاری از فیلم‌های علمی تخیلی محسوب می‌شود. حالا با پیشرفت سریع این تکنولوژی (AI)، روز به روز به چنین پدیده‌ای نزدیک‌تر می‌شویم و حتی پیشتازان این عرصه هم به آن اشاره کرده‌اند. برای نمونه، ایلیا ساتسکیور، سال گذشته محقق ارشد اوپن‌ای‌آی، شرکت ارائه دهنده ChatGPT، در توییتی گفت که برخی از جدیدترین شبکه‌های هوش مصنوعی شاید «کمی خودآگاه» باشند.

با این حال بسیاری از محققان می‌گویند سیستم‌های هوش مصنوعی هنوز به مرحله خودآگاهی نرسیده‌اند اما با توجه به سرعت پیشرفت این صنعت،‌ چطور می‌توان خودآگاهی را در صورت وقوع تشخیص داد.

گروهی متشکل از ۱۹ متخصص اعصاب، فیلسوف و محقق کامپیوتر ملاک‌هایی را مشخص کرده‌اند که در صورت تحقق آنها،‌ احتمال خودآگاهی هوش مصنوعی بسیار زیاد است. این گروه دستورالعمل خود را هفته گذشته منتشر کرد که البته هنوز در مرحله پیش از همتا داوری است.

به گفته رابرت لانگ، از فیلسوفان مرکز امنیت هوش مصنوعی سن‌فرانسیسکو و یکی از مولفان این مقاله، می‌گوید از آنجایی که «به نظر با کمبود اطلاعات تجربی و بحث درست درمورد خودآگاهی هوش مصنوعی» روبرو هستیم چنین تلاشی از سوی آنها صورت گرفته است.

به گفته این تیم، خودآگاه شدن یک سیستم هوش مصنوعی به موضوعات اخلاقی مهمی می‌انجامد. مگان پیترز، یکی از متخصصان اعصاب دانشگاه کالیفرنیا، می‌گوید اگر چیزی خودآگاهی شود «احساس ما انسان‌ها درمورد رفتار با آن به طور کلی دگرگون می‌شود.»

لانگ افزود، در حال حاضر شرکت‌های سازنده سیستم‌های هوش مصنوعی به اندازه کافی برای ارزیابی خودآگاهی مدل‌های تلاش نکرده و برنامه‌ای برای این مساله ندارند. او می‌گوید: «و این در حالی است که اگر به اشاره‌های مسئولان آزمایشگاه‌های مهم نگاه کنید، خودآگاهی یا هوشیاری هوش مصنوعی یکی از پرسش‌های مدنظر آنها است.»

مجله نیچر، در همین راستا با مایکروسافت و گوگل، دو شرکت بزرگ فعال در حوزه هوش مصنوعی ارتباط گرفته است. به گفته سخنگوی مایکروسافت، توسعه هوش مصنوعی این شرکت با محوریت کمک به بهره‌وری انسان به گونه‌ای مسئولانه انجام می‌شود و هدف جایگزین کردن هوش انسانی نیست. سخنگوی مایکروسافت می‌گوید با عرضه GPT-4، پیشرفته‌ترین  مدل زبانی شرکت اوپن‌ای‌آی، مشخص شد که «همینطور که مسیر رسیدن به پتانسیل کامل هوش مصنوعی در راستای کمک به جامعه را بررسی می‌کنیم، به روش‌های جدیدی برای ارزیابی توانمندی‌های این مدل‌های هوش مصنوعی نیاز است.» گوگل به درخواست اظهارنظر در این باره پاسخی نداده است.

خودآگاهی چیست؟

یکی از مشکلاتی که در مطالعه خودآگاهی هوش مصنوعی با آن مواجه هستیم، تعریف مفهوم خودآگاهی است. پیترز می‌گوید محققان این گزارش در راستای اهداف این مطالعه بر «خودآگاهی محسوس» یا تجربه عینی تمرکز کرده‌اند.

نظریه‌های مغز و اعصاب زیادی برای تعریف پایه و اساس خودآگاهی وجود دارد اما روی هیچکدام از آنها اتفاق نظر نیست. مولفان برای ساخت چارچوب مد نظر خود چندین نظریه مختلف را به کار گرفته‌اند. فرض بر این است که اگر عملکرد یک سیستم هوش مصنوعی با جوانب مختلف بسیاری از این نظریه‌ها مطابقت داشته باشد، احتمال خودآگاهی آن بالا می‌رود.

به گفته آنها این روش برای ارزیابی خودآگاهی بهتر از یک آزمون رفتاری است و نمی‌توان با سوال ساده یا بررسی نحوه پاسخگویی ChatGPT نتیجه‌گیری کرد، زیرا سیستم‌های هوش مصنوعی تبحر بالایی در تقلید از انسان دارند.

انیل ست، رئیس مرکز علوم خودآگاهی دانشگاه ساسکس انگلستان، می‌گوید رویکرد این گروه، که مولفان آن را نظریه-محور تعریف می‌کنند، راهکار خوبی است. اما به گفته او «به نظریه‌هایی با دقت بالاتر و آزموده‌تر برای خودآگاهی نیاز است.»

یک رویکرد نظریه-محور

فرض مولفان بر این است که خودآگاهی سیستم‌ها به نحوه پردازش اطلاعات مربوط می‌شود و ماده پردازشگر (نورون،‌ چیپ کامپیوتری و غیره) آن اهمیتی ندارد. این رویکرد عمل‌گرایی محاسبات نامیده می‌شود. از نگاه مولفان، نظریه‌های خودآگاهی مبتنی بر مغز و اعصاب، که با اسکن مغزی و تکنیک‌های دیگری برای انسان‌ها و حیوانات به کار گرفته می‌شوند، را می‌توان برای هوش مصنوعی هم استفاده کرد.

این تیم برپایه همین مفروضات شش نظریه را انتخاب و لیستی از شاخصه‌های خودآگاهی را استخراج کرده‌اند. برای مثال یکی از این نظریه‌ها (نظریه فضای کار جهانی) تصریح می‌کند که انسان‌ها و دیگر حیوانات از سیستم‌های تخصصی زیادی به نام مادول برای انجام وظایف آگاهانه مثل دیدن و شنیدن استفاده می‌کنند. این مادول‌ها مستقل از یکدیگر، اما به موازات هم کار می‌کنند و با ادغام در یک سیستم واحد، اطلاعات را به اشتراک می‌گذارند. به گفته لانگ، می‌توان «با نگاه به ساختار سیستم و نحوه جریان اطلاعات در آن»، بررسی کرد که آیا سیستم هوش مصنوعی شاخصه‌ای برخاسته از این نظریه را به نمایش می‌گذارد یا خیر.

شفافیت پیشنهاد این تیم از نگاه ست تحسین‌‌برانگیز است. او می‌گوید: «[پیشنهاد آنها] بسیار فکر شده است، گزاف نیست و فرضیات را به روشنی بیان می‌کند. من با برخی از این فرضیات مخالفم اما مشکلی ندارد، زیرا من هم شاید اشتباه کنم.»

به گفته مولفان، این مقاله هنوز برای تبدیل شدن به بهترین راهکار ارزیابی خودآگاهی سیستم‌های هوش مصنوعی راه زیادی دارد و به همکاری دیگر محققان نیاز است. اما فعلا می‌توان از این ملاک برای سیستم‌های هوش مصنوعی فعلی استفاده کرد. برای مثال این گزارش مدل‌های زبانی بزرگی مثل ChatGPT را بررسی کرده و می‌گوید این نوع سیستم برخی از شاخصه‌های خودآگاهی مربوط به نظریه فضای کار جهانی را در خود دارند اما با این همه، مولفان هیچ کدام از سیستم هوش مصنوعی امروز را- حداقل در حال حاضر- خودآگاه نمی‌دانند.

 

https://pvst.ir/g4t

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو