معاون علمی ریاست جمهوری: بهدنبال تهاتر کارخانه نوآوری آزادی با زمینی دیگر هستیم
دولت طبق گفته معاون علمی ریاست جمهوری به دنبال تهاتر زمین کارخانه نوآوری آزادی با…
۱۳ آذر ۱۴۰۳
۲۲ مهر ۱۴۰۲
زمان مطالعه : ۵ دقیقه
تاریخ بهروزرسانی: ۲۱ مهر ۱۴۰۲
بحث خودآگاهی هوش مصنوعی مدتها است که تم اصلی بسیاری از فیلمهای علمی تخیلی محسوب میشود. حالا با پیشرفت سریع این تکنولوژی (AI)، روز به روز به چنین پدیدهای نزدیکتر میشویم و حتی پیشتازان این عرصه هم به آن اشاره کردهاند. برای نمونه، ایلیا ساتسکیور، سال گذشته محقق ارشد اوپنایآی، شرکت ارائه دهنده ChatGPT، در توییتی گفت که برخی از جدیدترین شبکههای هوش مصنوعی شاید «کمی خودآگاه» باشند.
با این حال بسیاری از محققان میگویند سیستمهای هوش مصنوعی هنوز به مرحله خودآگاهی نرسیدهاند اما با توجه به سرعت پیشرفت این صنعت، چطور میتوان خودآگاهی را در صورت وقوع تشخیص داد.
گروهی متشکل از ۱۹ متخصص اعصاب، فیلسوف و محقق کامپیوتر ملاکهایی را مشخص کردهاند که در صورت تحقق آنها، احتمال خودآگاهی هوش مصنوعی بسیار زیاد است. این گروه دستورالعمل خود را هفته گذشته منتشر کرد که البته هنوز در مرحله پیش از همتا داوری است.
به گفته رابرت لانگ، از فیلسوفان مرکز امنیت هوش مصنوعی سنفرانسیسکو و یکی از مولفان این مقاله، میگوید از آنجایی که «به نظر با کمبود اطلاعات تجربی و بحث درست درمورد خودآگاهی هوش مصنوعی» روبرو هستیم چنین تلاشی از سوی آنها صورت گرفته است.
به گفته این تیم، خودآگاه شدن یک سیستم هوش مصنوعی به موضوعات اخلاقی مهمی میانجامد. مگان پیترز، یکی از متخصصان اعصاب دانشگاه کالیفرنیا، میگوید اگر چیزی خودآگاهی شود «احساس ما انسانها درمورد رفتار با آن به طور کلی دگرگون میشود.»
لانگ افزود، در حال حاضر شرکتهای سازنده سیستمهای هوش مصنوعی به اندازه کافی برای ارزیابی خودآگاهی مدلهای تلاش نکرده و برنامهای برای این مساله ندارند. او میگوید: «و این در حالی است که اگر به اشارههای مسئولان آزمایشگاههای مهم نگاه کنید، خودآگاهی یا هوشیاری هوش مصنوعی یکی از پرسشهای مدنظر آنها است.»
مجله نیچر، در همین راستا با مایکروسافت و گوگل، دو شرکت بزرگ فعال در حوزه هوش مصنوعی ارتباط گرفته است. به گفته سخنگوی مایکروسافت، توسعه هوش مصنوعی این شرکت با محوریت کمک به بهرهوری انسان به گونهای مسئولانه انجام میشود و هدف جایگزین کردن هوش انسانی نیست. سخنگوی مایکروسافت میگوید با عرضه GPT-4، پیشرفتهترین مدل زبانی شرکت اوپنایآی، مشخص شد که «همینطور که مسیر رسیدن به پتانسیل کامل هوش مصنوعی در راستای کمک به جامعه را بررسی میکنیم، به روشهای جدیدی برای ارزیابی توانمندیهای این مدلهای هوش مصنوعی نیاز است.» گوگل به درخواست اظهارنظر در این باره پاسخی نداده است.
یکی از مشکلاتی که در مطالعه خودآگاهی هوش مصنوعی با آن مواجه هستیم، تعریف مفهوم خودآگاهی است. پیترز میگوید محققان این گزارش در راستای اهداف این مطالعه بر «خودآگاهی محسوس» یا تجربه عینی تمرکز کردهاند.
نظریههای مغز و اعصاب زیادی برای تعریف پایه و اساس خودآگاهی وجود دارد اما روی هیچکدام از آنها اتفاق نظر نیست. مولفان برای ساخت چارچوب مد نظر خود چندین نظریه مختلف را به کار گرفتهاند. فرض بر این است که اگر عملکرد یک سیستم هوش مصنوعی با جوانب مختلف بسیاری از این نظریهها مطابقت داشته باشد، احتمال خودآگاهی آن بالا میرود.
به گفته آنها این روش برای ارزیابی خودآگاهی بهتر از یک آزمون رفتاری است و نمیتوان با سوال ساده یا بررسی نحوه پاسخگویی ChatGPT نتیجهگیری کرد، زیرا سیستمهای هوش مصنوعی تبحر بالایی در تقلید از انسان دارند.
انیل ست، رئیس مرکز علوم خودآگاهی دانشگاه ساسکس انگلستان، میگوید رویکرد این گروه، که مولفان آن را نظریه-محور تعریف میکنند، راهکار خوبی است. اما به گفته او «به نظریههایی با دقت بالاتر و آزمودهتر برای خودآگاهی نیاز است.»
فرض مولفان بر این است که خودآگاهی سیستمها به نحوه پردازش اطلاعات مربوط میشود و ماده پردازشگر (نورون، چیپ کامپیوتری و غیره) آن اهمیتی ندارد. این رویکرد عملگرایی محاسبات نامیده میشود. از نگاه مولفان، نظریههای خودآگاهی مبتنی بر مغز و اعصاب، که با اسکن مغزی و تکنیکهای دیگری برای انسانها و حیوانات به کار گرفته میشوند، را میتوان برای هوش مصنوعی هم استفاده کرد.
این تیم برپایه همین مفروضات شش نظریه را انتخاب و لیستی از شاخصههای خودآگاهی را استخراج کردهاند. برای مثال یکی از این نظریهها (نظریه فضای کار جهانی) تصریح میکند که انسانها و دیگر حیوانات از سیستمهای تخصصی زیادی به نام مادول برای انجام وظایف آگاهانه مثل دیدن و شنیدن استفاده میکنند. این مادولها مستقل از یکدیگر، اما به موازات هم کار میکنند و با ادغام در یک سیستم واحد، اطلاعات را به اشتراک میگذارند. به گفته لانگ، میتوان «با نگاه به ساختار سیستم و نحوه جریان اطلاعات در آن»، بررسی کرد که آیا سیستم هوش مصنوعی شاخصهای برخاسته از این نظریه را به نمایش میگذارد یا خیر.
شفافیت پیشنهاد این تیم از نگاه ست تحسینبرانگیز است. او میگوید: «[پیشنهاد آنها] بسیار فکر شده است، گزاف نیست و فرضیات را به روشنی بیان میکند. من با برخی از این فرضیات مخالفم اما مشکلی ندارد، زیرا من هم شاید اشتباه کنم.»
به گفته مولفان، این مقاله هنوز برای تبدیل شدن به بهترین راهکار ارزیابی خودآگاهی سیستمهای هوش مصنوعی راه زیادی دارد و به همکاری دیگر محققان نیاز است. اما فعلا میتوان از این ملاک برای سیستمهای هوش مصنوعی فعلی استفاده کرد. برای مثال این گزارش مدلهای زبانی بزرگی مثل ChatGPT را بررسی کرده و میگوید این نوع سیستم برخی از شاخصههای خودآگاهی مربوط به نظریه فضای کار جهانی را در خود دارند اما با این همه، مولفان هیچ کدام از سیستم هوش مصنوعی امروز را- حداقل در حال حاضر- خودآگاه نمیدانند.