هوش مصنوعی Omi؛ دستیار شخصی که ذهن شما را میخواند
دستگاه جدید هوشمند پوشیدنی به نام Omi به میدان ابزارهای فناوری هوش مصنوعی آمده است.…
۳۰ دی ۱۴۰۳
۳۰ دی ۱۴۰۳
زمان مطالعه : ۱۰ دقیقه
ما در مسیر درک و ارتباط خود با هوش مصنوعی متاسفانه در دام بزرگی گرفتار شدهایم: فرض یک سری ویژگیهای انسانی برای این سیستمهای اساسا غیرانسانی. این سبک از انسانانگاری هوش مصنوعی از یک تغییر فکر بیضرر درمورد ماهیت انسان فراتر رفته است و در حال تبدیل شدن به گرایش خطرناکی است که شاید به طرق اساسی بر قضاوت ما تاثیر بگذارد. رهبران انسانی یادگیری هوش مصنوعی را با آموزش انسانی قیاس میکنند تا فعالیتهای آموزشی را برای قانونگذاری توجیه کنند که در حال سیاستگذاری براساس قیاسهای ناقص انسان-AI هستند. تمایل به انساننمایی هوش مصنوعی شاید شکل نادرستی به تصمیمات اساسی در صنایع و چارچوبهای رگولاتوری بدهد.
به گزارش پیوست، نگاهی از لنز تجاری به هوش مصنوعی باعث شده است تا شرکتها توانمندیهای هوش مصنوعی را بیش از حد تصور کنند یا نیاز نظارت انسانی را حتی با وجود برخی از پیامدهای پرهزینه، دست کم بگیرند. این موضوع به ویژه در بحث قوانین حق نشر یا کپیرایت اهمیت زیادی دارد، جایی که تفکر انسانانگاری به قیاسهای مشکلسازی بین یادگیری انسان و آموزش هوش مصنوعی منتهی میشود.
آنچه مطالعه میکنید ترجمهای از مقاله ونچربیت در بحث انسانانگاری هوش مصنوعی است که به تفاوتهای اصلی کارکرد هوش مصنوعی با ذهن انسان و برداشتهای اشتباه در این حوزه میپردازد.
به نحوه صحبت کردنمان دقت کنید: ما میگویم هوش مصنوعی «یاد میگیرد»، «فکر میکند»، «میفهمد» و حتی «خلق میکند.» این عبارتهای انسانی شاید طبیعی به نظر برسند اما گمراهکننده هستند. وقتی میگوییم که یک مدل هوش مصنوعی «یاد میگیرد»، قرار نیست شبیه به یک دانشآموز انسانی درک بیشتری پیدا کند. در عوض این سیستم تجزیهتحلیل آماری پیچیدهای روی حجم عظیمی از دادهها انجام میدهد، وزن و پارامترهای آنها را در شبکه عصبی خود براساس اصول ریاضی تعیین میکند. هیچ خبری از درک، لحظه یورکا، جرقه خلاقیت یا فهمیدن به معنای واقعی آن نیست، تنها شاهد الگوهای پیچیدهتر هستیم.
این سادهانگاری زبانی را نمیتوان تنها در معنا خلاصه کرد. همانطور که در مقاله استدلال گمراهکننده هوش مصنوعی مولد برای استفاده منصفانه گفته میشود: «استفاده از زبان انسانانگارانه برای توصیف توسعه و عملکرد مدلهای هوش مصنوعی گمراهکننده است زیرا القا میشود که این مدل پس از آموزش مستقل از محتوای کارهایی که براساس آن آموزش دیده است، عمل میکند.» این اشتباه پیامدهای واقعی را به دنبال دارد که عموما بر تصمیمات قانونی و سیاستگذاری تاثیر میگذارد.
شاید خطرناکترین جنبه انسانانگاری هوش مصنوعی، پوشاندن تفاوتهای بنیادین هوش انسانی و ماشینی است. با اینکه برخی از سیستمهای هوش مصنوعی در یک سری از انواع استدلال و وظایف تجزیهتحلیلی عملکرد بهتری دارند، اما مدل های بزرگ زبانی (LLMها) که بخش اصلی گفتمان امروز پیرامون هوش مصنوعی هستند و ما نیز در اینجا روی آنها تمرکز داریم، براساس الگوهای تشخیص پیچیدهای فعالیت میکنند.
این سیستمها با پردازش حجم عظیمی از داده، روابط آماری بین کلمات، جملات، تصاویر و دیگر ورودیها را شناسایی کرده و یاد میگیرند تا در هر زنجیرهای عضو بعدی (مثل کلمه بعدی در جمله) را پیشبینی کنند. وقتی میگوییم آنها «یاد میگیرند»، ما در واقع فرایند بهینهسازی ریاضیاتی را توصیف میکنیم که دقت این سیستمها را با اتکا به دادههای آموزشی افزایش میدهد.
این مثال از تحقیقات برگلوند و همکارانش را در نظر بگیرد: مدلی که براساس محتوای آموزشی مبنی بر «مساوی بودن A با B» آموزش دیده است، معمولا نمیتواند همانند یک انسان استدلال کرده و نتیجه بگیرد و که «B هم مساوی با A است.» اگر یک هوش مصنوعی بیاموزد والنتینا ترشکوا اولین زنی بود که به فضا رفت، شاید پاسخ سوال « والنتینا ترشکوا که بود؟» را به درستی ارائه کند اما در پاسخ به سوال «اولین زن در فضا چه کسی بود؟» به مشکل میخورد. این محدودیت یک تفاوت بنیادین را بین تشخیص الگو و استدلال واقعی به نامیش میگذارد؛ تفاوتی بین پیشبینی زنجیره کلمات و درک معنای آنها.
سوگیری به سمت انسانانگاری هوش مصنوعی تبعات مهمی برای بحث درمورد هوش مصنوعی و حق نشر دارد. ساتیا نادلا، مدیرعامل مایکروسافت، به تازگی آموزش هوش مصنوعی را با یادگیری انسانی مقایسه کرده و پیشنهاد می:ند که هوش مصنوعی باید بتواند همانند انسانها از کتابهایی که حق نشر دارند یاد بگیرد. این قیسا به خوبی خطر تفکر انسانانگارانه هوش مصنوعی را در بحث اخلاق و مسئولیت هوش مصنوعی به نمایش میگذارد.
برخی معتقدند که برای درک یادگیری انسان و آموزش هوش مصنوعی باید این مقایسه را تغییر داد. وقتی انسانها کتاب میخوانند، ما نسخهای از آنها را کپی نمیکنیم، ما آن کتاب را درک کرده و مفاهیم آن را درونی میکنیم. سیستمهای هوش مصنوعی اما باید واقعا نسخهای از آن اثر را کپی کنند (اثری که معمولا هم بدون اجازه یا پرداخت هزینه بهدست آمده است) و آن را به معماری خود اضافه کرده و این نسخه را برای فعالیت درست نگهداری کنند. اثر مربوطه پس از «یادگیری» برخلاف ادعای شرکتهای هوش مصنوعی، از بین نمیرود بلکه در شبکههای عصبی سیستم باقی میماند.
انسانانگاری هوش مصنوعی نقاط کور خطرناکی را در تصمیمگیری تجاری ایجاد میکند که فراتر از نقایص ساده عملیاتی است. وقتی مدیران و تصمیمگیرندگان هوش مصنوعی را «خلاق» یا «هوشمند» به لحاظ انسانی در نظر بگیرند، این مساله ممکن است به زنجیرهای از پیشفرضها و مسئولیتهای حقوقی احتمالی منجر شود.
یکی حوزههایی که انسانانگاری باعث خطر میشود، تولید محتوا و پیروی از حق نشر است. وقتی کسبوکارها هوش مصنوعی را قادر به «یادگیری» مشابه انسان قلمداد کنند، شاید به نادرست فرض را بر این بگذارند که محتوای ساخته هوش مصنوعی با نگرانیهای حق نشر همراه نیست. چنین اشتباهی باعث میشود تا شرکتها:
سوگیری انسانانگارانه در مواردی که پیروی از قانون برونمرزی را در نظر میگیریم خطراتی را به دنبال دارد. همانطور که دانیل جرویس، هارالامبوس مارمانیس، نوام شمتوف و کاترین زالر رولند در «اصل موضوع: حق نشر، آموزش هوش مصنوعی و LLMها» توضیح میدهند، قانون حق نشر براساس اصول مشخص خاص هر قلمرو عمل می کند و هر حوزه قضایی قوانین خود را درمورد نقض حق نشر و استثناها دارد.
ماهیت قلمرو محور قوانین کپیرایت، یک شبکه پیچیده از مسئولیتپذیریهای احتمالی را پدیدار میکند. شرکتها شاید به اشتباه فرض را بر این بگذارند که سیستمهای هوش مصنوعی میتوانند آزادانه از محتوای دارای حق نشر در حوزههای مختلف به «یادگیری» بپردازند، و در نتیجه متوجه نشوند که یادگیری مجاز در یکی از کشورها مممکن است در دیگری نقض قانون باشد. اتحادیه اروپا در قانون هوش مصنوعی و به ویژه در Recital 106 که براساس آن هر مدل هوش مصنوعی همهکاره در اتحادیه اروپا باید از قوانین حق نشر اتحادیه اروپا در دادههای آموزشی پیروی کند، بدون توجه به اینکه آموزش در چه مکانی انجام گرفته است، به این خطر میپردازد.
این مساله از آنجایی اهمیت دارد که انسانانگاری هوش مصنوعی باعث میشود تا شرکتها تعهدات قانونی برونمرزی را نادیده یا دست کم بگیرند. این برداشت اشتباه و مطلوب که هوش مصنوع همانند انسانها «یاد میگیرد» با این واقعیت در تضاد است که هوش مصنوعی شامل عملیاتهای پیچیده نسخهبرداری و ذخیرهسازی است که با تعهدات قانونی در دیگر قلمروها همراه هستند. این برداشت نادرست از نحوه عملکرد هوش مصنوعی در کنار ماهیت قلمرو محور قوانین حق نشر با خطرات قابل توجهی برای کسبوکارهای بینالمللی همراه میشود.
یکی از مهمترین هزینههای انسانانگاری هوش مصنوعی، بار احساسی آن است. امروز موارد متعددی را از وابستگی انسان به چتباتهای هوش مصنوعی به عنوان یک دوست یا معتمد مشاهده میکنیم. این مساله به ویژه برای افراد آسیبپذیری که ممکن است اطلاعات شخصی را با این ابزارها به اشتراکبگذارند یا به دنبال حمایت احساسی از آن باشند، خطرناک است. با اینکه پاسخهای هوش مصنوعی به نظر دلگرمکننده میرسند، اما در واقع برآمده از الگوهای پیچیدهای براساس دادههای آموزشی هستند و هیچ درک یا ارتباط احساسی واقعی در آن وجود ندارد.
این ضعف احساسی را ممکن است در تنظیمات حرفهای نیز مشاهده کنیم. هرچه ابزارهای هوش مصنوعی بیشتر در کار روزمره ما ادغام میشوند، ممکن است سطح اعتماد نامناسبی بین کارکنان با این سیستمها شکل گیرد و آنها را به جای ابزار، همانند همکار خود ببینند. درنتیجه کارکنان ممکن است اطلاعات محرمانه را خیلی راحت با این ابزارها به اشتراک بگذارند یا به خوبی اعتماد نابهجا را به خوبی گزارش ندهند. با اینکه در حال حاضر چنین شرایطی را به ندرت مشاهده میکنیم، اما همین موارد نادر اهمیت انسانانگاری هوش مصنوعی و تاثیر احتمالی آن بر قضاوت و وابستگی ناسالام به سیستمها را نشان میدهند. این سیستمها با وجود پاسخهای پیچیده قادر به درک واقعی یا اهمیت دادن نیستند.
با این تفاسیر راه پیش رو کدام است؟ ما اول از همه باید بیان درستتری را در مورد هوش مصنوعی استفاده کنیم. به جای اینکه بگوییم هوش مصنوعی «یاد میگیرد» یا «درک میکند»، بهتر است بگوییم «دادهها را پردازش میکند» یا «خروجیهایی را براساس الگوهای موجود در دادههای آموزشی تولید میکند.» مساله در اینجا تنها موشکافی و دقت نیست، بلکه چنین بیانی به درک بهتر نحوه کار این سیستمها نیز کمک میکند.
در مرحله دوم باید سیستمهای هوش مصنوعی را براساس آنچه هستند ارزیابی کنیم، نه تصوری که از آنها داریم. بنابراین باید در کنار تاکید بر توانمندیهای خارقالعاده آنها، به محدودیتهای بنیادین آنها نیز اشاره کنیم. هوش مصنوعی میتواند حجم عظیمی از داده را پردازش و الگوهایی که از چشم انسان پنهان هستند را شناسایی کند، اما توان دکر، استدلال یا خلق به طریقه انسانی را ندارد.
در آخر هم باید چارچوب و سیاستهایی را در نظر بگیریم که به جای تصورات ما از قابلیتهای انسانمانند، مشخصههای واقعی هوش مصنوعی را هدف بگیرند. این مساله به ویژه در مورد قوانین حق نشر اهمیت دارد، جایی که تفکر انسانانگارانه ممکن است به تصورات نادرست و نتیجهگیریهای قانونی نامناسب منجر شود.
همینطور که سیستمهای هوش مصنوعی در تقلید از خروجیهای انسانی پیشرفتهتر می شود، میل به انسانانگاری نیز افزایش مییابد. این سوگیری انسانانگارانه بر همه چیز از ارزیابی ما از توانمندیهای هوش مصنوعی تا ارزیابی خطرات آن، تاثیر میگذارد. همانطور که دیدیم، این مساله چالشهای متعددی را پیرامون قانون حق نشر و پیروی از قانون تجاری به دنبال دارد. وقتی ما قابلیتهای یادیگری انسان را به سیستمهای هوش مصنوعی نسبت میدهیم، باید بدانیم که ماهیت بنیادین آنها و واقعیت فنی آنها در نحوه پردازش و ذخیره اطلاعات را درک کنیم.
درک هوش مصنوعی و واقعیت آن (سیستمهای پیچیده پردازش اطلاعات و نه سیستمهای یادگیرنده انسانمانند) در تمام حوزههای حاکمیت و اجرای هوش مصنوعی اهمیت حیاتی دارد. با عبور از تفکر انسانانگارانه میتوانیم چالشهای سیستمهای هوش مصنوعی را از بررسی اخلاقی و خطرات امنیتی گرفته تا پیروی از قوانین حق نشر برونمرزی و حاکمیت دادههای آموزشی بهتر درک کنیم. چنین درک دقیقی به کسبکارها در تصمیمگیری صحیح کمک میکند و همچنین حامی سیاستگذاری بهتر و تنظیم گفتمان عمومی است.
هرچه زودتر از ماهیت واقعی هوش مصنوعی استقبال کنیم، با دست باز تری میتوانیم به پیامدهای جدی اجتماعی و چالشهای عملی آن را در جهان اقتصادیمان بپردازیم.