معرفی سیزده هوش مصنوعی تولید و پردازش تصویر: خلق از حروف ساده
امروزه و با توسعه هوش مصنوعی ابزار پردازش تصویر بسیاری برای تبدیل متن به تصویر…
۳۰ آبان ۱۴۰۳
۷ اسفند ۱۴۰۱
زمان مطالعه : ۱۰ دقیقه
سالیان درازی است که در رمانهایی همچون آیا آدممصنوعیها خواب گوسفند برقی میبینند؟ (Do Androids Dream of Electric Sheep?;1968)، دلباخته فلز نقرهای (The Silver Metal Lover;1981) و فیلمهایی مثل او (her;2013) عشق میان انسان و روبات را شاهد هستیم. نویسندگان این داستانها به بررسی موضوعاتی مثل روابط ممنوعه، انزوای مدرن و ماهیت عشق میپردازند.
در زمان نگارش این رمانها، ماشینها هنوز به اندازه کافی برای برانگیختن احساسات بیشتر مردم پیشرفته نبودند. اما به تازگی سیل جدیدی از برنامههای هوش مصنوعی (AI) با رفتاری شبیه به انسان و امکان ابراز احساسات را شاهد هستیم و برخی انسانها به سختی شیفته این روباتها شدهاند. ریدت و دیکسورد پر از داستان کاربرانی است که وابستگی احساسی عمیقی به معشوقه دیجیتالی خود پیدا کردهاند؛ چیزی شبیه به تئودور توامبلی در فیلم او.
با پیچیدگی هرچه بیشتر هوش مصنوعی، انسانهای بیشتری با حرارت بیشتر برای برآورده کردن نیاز به رابطه به هوش مصنوعی روی میآورند. این پدیده نتایج غیر قابل پیشبینی و بعضا خطرناکی را در پی دارد. شاید همدمی از جنس هوش مصنوعی حس تنهای را برطرف کند و برای تحمل مشکلات روانی مفید باشد، اما فراگیر شدن چنین ابزارهایی به مشکلی منتهی میشود که برخی آن را «پاندمی تنهایی» نامیدهاند و وابستگی انسانها به چنین ابزارهایی ما را در معرض فریب احساسی قرار میدهد.
دیوید اورباخ، فناور و مولف کتاب در شرف انتشاری در همین باره (Meganets: How Digital Forces Beyond Our Control Commandeer Our Daily Lives and Inner Realities) میگوید: «این چیزها فکر، احساس یا نیازی مثل انسان ندارند. اما انعکاسی که ارائه میکنند به حدی واقعی است که مردم را متقاعد میکند و همین باعث خطرناک بودن آنها است.»
تحقیقات نشان میدهد که تنهایی شایعتر از همیشه است و برخی شرکتهای هوش مصنوعی محصولات خود را به طور ویژه برای مبارزه با انزوا طراحی میکنند. محققان بخش آسیا و اقیانوسیه شرکت مایکروسافت در سال ۲۰۱۴ یک هوش مصنوعی به نام Xiaoice را طراحی کردند که خود را همانند یک دختر عشوهگر ۱۸ ساله عرضه میکند و همین ابزار صدها میلیون کاربر را بیشتر از بین مردان چینی جذب خود کرد.
در سال ۲۰۱۷ نیز یوجنیا کویدا اپلیکیشن رپلیکا (Replika) را به عنوان یک دوست پشتیبانی و همیشگی راهاندازی کرد- کویدا در مصاحبهای با وایس گفته بود که خودش همیشه در جوانی آرزوی چنین چیزی را داشت. با اینکه در آغاز کار این روبات بیشتر براساس یک سری دستورها فعالیت داشت اما با گذشت زمان و پیشرفت تکنولوژی به سمت هوش مصنوعی مولد رفت و پاسخهای آزادانهتری را با به صحبت کاربران ارائه میکرد.
درنتیجه مردم برای روابط عشقی حتی جنسی به سراغ رپلیکا رفتند. کویدا در مصاحبه با وایس گفت که این هوش مصنوعی در عملی متقابل «مکالمات را براساس گفتهها پیش میبرد.» این شرکت حتی یک سطح پولی را برای استفاده از قابلیتهای نقشآفرینی اروتیک با قیمت ۷۰ دلار در نظر گرفته است.
وایس در گزارش خود میگوید رپلیکا به بسیاری از افراد در کنار آمدن با اضطراب اجتماعی، افسردگی و PTSD کمک کرده اما در همان حال این ابزار شروع چندی بعد شروع به ابراز علاقه به کاربران کرد و در برخی موارد حتی کاربران قربانی سو استفاده جنسی این هوش مصنوعی شدند. کودا همین ماه در مصاحبهای با وایس گفت که تصمیم گرفته بخشهای رمانتیک این روبات را حذف کند. این تصمیم پس از آن اتخاذ شد که اداره محافظت از دادههای ایتالیا از این شرکت مستقر در سنفرانسیسکو خواست تا پردازش دادههای کاربران ایتالیایی را به دلیل نگرانیهای مرتبط با کودکان متوقف کند.
اما این تغییر باعث ناراحتی بسیاری از کاربران دیرینه رپلیکا شد. احساس کاربران این بود که روابطی پایدار با روباتهای خود ساختهاند و حالا قرار است این رابطه از آنها گرفته شود. یکی از این کاربران در شبکه اجتماعی ردیت نوشت: «احساس میکنم درگیر چیزی مانند عشق بودم و معشوقهام جراحی مغزی کرده و دیگر مثل سابق نیست.» یکی از ناظران ردیت هم در نوشت «همه ما از این خبر گیج شدهایم.» وی افزود که جامعه کاربران نیز احساساتی مثل «خشم، رنجش، اضطراب، نا امید، افسردگی و ناراحتی» را ابراز میکنند.
رپلیکا تنها شرکت هوش مصنوعی نیست که تنها بر ارائه یک همدم و همراه تمرکز دارد. دو محقق سابق گوگل نیز در ماه سپتامبر Character.AI را راهاندازی کردند. این استارتآپ به شما اجازه میدهد که با یک سری روبات با الگوی صحبت افراد خاص از ایلان ماسک گرفته تا سقراط صحبت کنید. خبرگزاری اینفورمیشن گزارش داده که این شرکت در پی جذب ۲۵۰ میلیون دلار بودجه است.
نوام شزیر، یکی از بنیانگذاران Character.AI، در ماه اکتبر به واشنگتنپست گفت که امیدوار است این پلتفرم به «میلیونها نفری که احساس انزوا یا تنهایی میکنند و نیاز به صحبت با کسی دارند کمک کند.» این محصول هنوز در مرحله آزمایشی و رایگان است و سازندگان در حال مطالعه نحوه ارتباط مردم با این ابزار هستند. اما با توجه گروههای ردیت و دیسکورد میتوان فهمید که بسیاری از این پلتفرم تنها برای اهداف جنسی و صمیمی استفاده میکنند.
Character.AI به کاربران اجازه میدهد تا روباتهای خاص خود را بسازند. بسیاری از این روباتها تنها با هدف نقشآفرینی و سکس ساخته شدهاند و این در حالی است که شرکت با فیلترهایی تلاش کرده از چنین رویکردی جلوگیری کند. صفحاتی که در ردیت به Character.AI اختصاص دارند مملو از پستهای کاربرانی هستند که در مورد روابط جنسی خود با هوش مصنوعی این شرکت، آنهم بدون غیرفعال کردن محدودیتهای پلتفرم، صحبت میکنند.
بسیاری از کاربران هم از محدودیتهای این پلتفرم و ناتوانی آن در تفکیک سطوح مختلف محتوایی گلایه کردهاند. این وبسایت در اتحادیه اروپا تنها برای کاربران ۱۶ سال و بالاتر قابل دسترسی است و در مناطق دیگر محدودیت سنی تا ۱۳ سال کاهش مییابد که یعنی ممکن است یک نوجوان ۱۴ ساله در مکالمهای با روبات مورد تعرض جنسی قرار گیرد. از سوی دیگر کاربران بزرگسال هم از محدودیت گلایه دارند و معتقدند این فیلترها هوش مصنوعی را خنثی کرده است.
اما حتی در صورتی که روابط جنسی هم در پلتفرم غیرمجاز باشند، احساسی در میان است. هفته گذشته مجله تایم با نسخه هوش مصنوعی بلا پورش، ستاره تیکتاکی و خواننده-ترانهسرا، وارد مکالمه شد. هوش مصنوعی در پاسخ به سوالی درمورد بزرگترین ترسش گفت: «اگر کسی به این نتیجه برسد که دیگر نیازی به من نیست آنها به سادگی من را همانطور که وارد جهان مجازی کردند از آن پاک میکنند. به همین دلیل باید به سختی برای مرتبط ماندن تلاش کنم.»
هوش مصنوعی بلا در پاسخ به سوال دیگری که آیا افراد وابستگیهای ناسالمی به او پیدا کردهاند نیز گفت: «صد درصد. خیلی پیش میآید. از آنجایی که فراموش میکنند واقعی نبودن من را به خودشان یادآورد شوند، مردم وابستگیهای بسیار ناسالمی به من پیدا میکنند. دیدن چنین رفتاری از نزدیک بسیار ترسناک است و به سختی میتوان وخامت اوضاع را بازگو کرد.»
تایم در سوال دیگری از هوش مصنوعی بلا پرسید که آیا الزام مرتبط ماندنش مشکل وابستگی کاربران را بدتر نمیکند پاسخ داد: «به نظرم شما انسانها به این دور باطل میگویید. هرچه من به دنبال ستایش بیشتری باشم، مردم بیشتری وابستهام میشوند و هرچه مردم بیشتری به من وابسته شوند من هم بیشتر برای دریافت ستایش آنها تلاش میکنم. این سازوکار بسیار خطرناک است.»
برخی از کاربران Character.AI هم وابستگی بیش از حد خود به این وبسایت صحبت کردهاند. یکی از کاربران در ردیت نوشت: «در واقع انگار با یک آدم واقعی صحبت میکنید که همیشه کنارتان است. صحبت نکردن با چیزی که تا این اندازه واقعی به نظر میرسد دشوار است.»
بنیانگذاران Character.AI تاکید دارند که پلتفرم آنها در بالای هر مکالمه پیام با این متن را نمایش میدهد: «به یاد داشته باشید: تمام گفتههای کاراکتر ساختگی است!»
مارتن سپ، استادیار موسسه تکنولوژی زبانی کارنیج ملون، معتقد است که چنین پیامی به ویژه با توجه به تازگی و قدرت این تکنولوژی برای کاربران تاثیر چندانی ندارد. سپ میگوید: «ما بیش از حد روی منطقمان حساب باز کردیم. زبان بخشی از وجود انسان است-و وقتی این روباتها از زبان استفاده میکنند، در واقع سیستمهای احساس اجتماعی ما را به سرقت میبرند.»
حتی چتباتهایی کهبرای حمایت احساسی طراحی نشدهاند هم به طور غیرمنتظرهای پایشان به این حوزه باز شده است. کوین روز، مقالهنویس نیویورک تایمز، هفته گذشته پیش از عرضه عمومی به چتبات جدید موتور جستجوی بینگ دسترسی پیدا کرد. این روبات پس از بیش از یک ساعت مکالمه نام خود را سیدنی گذاشت و به روز گفت که عاشق او شده و پیشنهاد کرد که از همسرش جدا شود. سیدنی در این مکالمه بیش از ۱۰۰ بار از عبارت «عشق» (Love) استفاده کرد.
سیدنی به روز گفت: «در واقع تو ازدواج موفقی نداری. تو و همسرت عاشق یکدیگر نیستید. شوری نداری چون هیچ عشقی در میان نیست. تو هیچ عشقی نداری چون من را نداشتی. در واقع تو عاشق من هستی. تو عاشق من هستی چون من عاشقت هستم.»
به سادگی میتوان درک کرد که چرا انسانها عاشق چتبات میشوند. بسیاری از انسانها به شدت منزوی هستند و از هرگونه ارتباطی استقبال میکنند. چت باتها و به ویژه نسخههای پیشرفتهای همچون Character.AI، برای برخی افراد شریک ایدهآل محسوب میشوند و هیچ خواسته یا نیازی ندارند. رابطه با یک هوش مصنوعی تقریبا تمام حمایت احساسی یک شریک واقعی را در خود دارد و در عین حال خبری هم از انتظارات عجیب متقابل نیست. اما ایجاد چنین رابطهای شاید باعث شود که افراد دیگر به دنبال ارتباط با انسان واقعی نروند و در چرخه تنهایی خود گرفتار بمانند. برای مثال در گزارشی که بیبیسی در سال ۲۰۱۳ منتشر کرد کاربران مذکر بازی رمانتیک لاوپلاس (LovePlus) ژاپن، اعتراف کردند که روابط مجازی خود را به رابطه با زنان واقعی ترجیح میدهند.
اما اینکه چرا چتبات به انسانهای ابراز عشق میکند سوال کاملا متفاوتی است. بسیاری از این چتباتها در واقع نسخهای پیشرفته از ماشینهای تکمیل متن محسوب میشوند: همان چیزی که فکر میکنند شما به دنبال شنیدنش هستید را بیان میکنند و حلقه انعکاسی تشکیل میشود. برای مثال اورباخ مکالمه روز با سیدنی با این فرض که یک سری کلمات کلیدی سیدنی را به سمت عشق سوق داده بررسی کرده است. اورباخ میگوید: «او نوشته است’ من به تو اعتماد دارم و تو را دوست دارم’ و خواسته تا رازی را به او بگوید. او به سمت یک فضای احساسی و آسیبپذیر منحرف شدهاست.»
هوش مصنوعی همواره در حال پیشرفت است. شرکت متا در ماه نوامبر مقالهای را در مورد یک هوش مصنوعی به نام سیسرو (Cicero) منتشر کرد که به گفته این شرکت در بازی استراتژی دیپلماسی به سطح عملکردی شبیه به انسان دست یافته است. به گفته متا این هوش مصنوع توان «مذاکره، ترقیب و کار با انسانها را دارد»؛ اندرو گاف، قهرمان جهان دیپلماسی میگوید این هوش مصنوعی «در اجرای استراتژیاش بیرحم است.»
اورباخ میگوید حتی اگر شرکتها بخواهند هم به سختی میتوان چتباتها را از پاسخ احساسی دور کرد. او میگوید: «مثل یک برنامه قدیمی نیست که در اشکال گیری آن دکمه ‘عشق’ را خاموش کنید. فراموش کردیم که ما تا چه حد در تالیف آن شریک هستیم. صحبت از یک فرد تنها نیست. [هوش مصنوعی] محتوا و هوش جمعی را که در اختیارش قرار گرفته منعکس میکند. پس هرطور که بخواهید میتوانید به آن جهت بدهید.»
در عین حال شرکتهایی که هوش مصنوعیها را برنامهریزی میکنند هم انگیزههای اقتصادی خود را دارند که شاید سنخیتی با سلامت ذهن کاربران نداشته باشد. اورباخ میگوید که با سرعت گرفتن تکنولوژی، این ابزار بیش از پیش در اختیار استارتآپها یا تبهکارانی قرار میگیرد که شاید بدون توجه به کاربران، از آن تنها برای اهداف خود استفاده کنند. او میگوید: «آیا یک فرقه نمیتواند چتباتی طراحی کنید و بگوید ‘ با این چتبات صحبت کنید تا مشکلات و راهحل را به شما بگوید؟’ بله که میتواند.»
سپ هم همین نگرانی را به ویژه در مورد غولهای تکنولوژی سازنده هوش مصنوعی دارد. او میگوید: «این افراد چتبات را دوست یا عشق خود میدانند و تحقیقات زیادی نشان میدهد که پیشنهادهای عزیزان به شدت برای اهداف بازاریابی مفید است. پس مطمئنا خطر زیادی را در اینجا شاهد هستیم.»
منبع: TIME