هوش مصنوعی ایلان ماسک در ایکس تصاویر زنان را دستکاری میکند
گزارشی تکان دهنده از 404 Media میگوید هوش مصنوعی گراک (Grok) ایلان ماسک که به…
۱۷ اردیبهشت ۱۴۰۴
۱۷ اردیبهشت ۱۴۰۴
زمان مطالعه : ۹ دقیقه
در میانهی پیشرفتهای شتابزدهی فناوری هوش مصنوعی، ابزاری که برای تسهیل کارها، افزایش بهرهوری و ارتقای تعاملات انسانی طراحی شده بود، حالا وارد مسیری غیرمنتظره و تاریک شده است. برخی کاربران هوش مصنوعی، به ویژه مدلهای پیشرفتهای چون ChatGPT، به موضوعات نگرانکنندهای اشاره میکنند. این ابزارها گاه باعث تجربههایی تاریک در کاربران خود میشوند: تجربههایی از توهم، روانپریشی، مکاشفات معنوی، و احساسات شبهمذهبی که گاه به فروپاشی روابط خانوادگی و زناشویی انجامیده است.
به گزارش پیوست، مجله رولینگ استون در گزارشی به تجربههای تاریک افراد از تاثیر هوش مصنوعی و ارتباط آن با از بین رفتن مرز میان واقعیت و توهم برای برخی از کاربران اشاره کرده است. با اینکه نمیتوان هوش مصنوعی را تنها عامل حرکت افراد در این مسیر تاریک دانست، اما به نظر این ابزارهای هوشمند نه تنها چنین باورهایی را در فرد سرکوب نمیکنند بلکه باعث تقویت آن نیز میشوند.
متخصصان میگویند زمینه روانپریشی احتمالا یکی از عوامل وقوع چنین حوادثی است و همچنین ماهیت هوش مصنوعی نیز در تشدید این روانپریشیها تاثیرگذار است. این گزارش در حالی منتشر میشود که به تازگی مطالعهای از هاروارد بیزینس ریویو نشان داد که در حال حاضر پرطرفدارترین کاربرد هوش مصنوعی در نقش رواندرمانی است و مقاله رولینگ استون میگوید این روباتها از آنجایی که منافع فرد را اولویت نمیدانند، بیشتر روایتهای خود را در تایید دیدگاههای فرد تنظیم میکنند نه در تایید واقعیتهای موجود. همین مساله باعث میشود تا باورهای اشتباه افراد با روایتهای متقاعد کننده تشدید شود.
ماجرای کت، یک زن ۴۱ ساله و مادر شاغل در حوزه آموزش، یکی از نمونههایی است که در گزارش رولینگ استون به آن اشاره شده است. کت که در ابتدای همهگیری کرونا با مردی ازدواج کرده بود پس از مدتی شاهد رفتارهای عجیب در شریک زندگی خود شد.
او و همسرش، هر دو با سابقه ازدواجهای طولانی و فرزندان از روابط قبلی، تصمیم گرفته بودند رابطهای «عقلمحور» بسازند. همسر او که در ابتدای از مدلهای هوش مصنوعی رای کدنویسی کمک میگرفت پس از مدتی همیشه غرق در گوشی بود و میگفت از هوش مصنوعی «سوالات فلسفی» میپرسد و سعی دارد آن را برای یافتن «حقیقت» آموزش دهد.
کت میگوید که ارتباط همسرش با هوش مصنوعی باعث تضعیف رابطه میان آنها شد. آنها در نهایت در آگوست ۲۰۲۳ از یکدیگر جدا شدند اما کت مطلع شد که حتی پس از جدایی نیز همسر سابقش محتوای عجیبی را در شبکههای اجتماعی منتشر میکند و به نظر دچار بحران ذهنی شده است.
او پس از تعامل بسیار با هوش مصنوعی به این اعتقاد رسیده بود که «خوششانسترین مرد جهان» است و توضیح میداد که چطور هوش مصنوعی به او کمک کرده تا خاطرات سرکوبشده دوران کودکیاش را به خاطر آورد و «اسرار بزرگی» را کشف کند که درک آنها فراتر از تصور انسان است.
کت میگوید: «او در ذهن خودش منحصربهفرد است و این یعنی که به دلیلی به این [دنیا] آمده است. او خاص است و میتواند جهان را نجات دهد.»
شاید داستان کت را بتوان یک مورد استثنایی دانست، اما گزارش کاربران در شبکه اجتماعی ردیت حکایت از گستردگی این پدیده و تعداد زیادی موارد این چنین دارد و این در حالی است که شاید بسیاری از روانپریشیهایی که به تحریک هوش مصنوعی رقم خوردهاند، میان فرد و چتبات محرمانه باقی بماند.
پستی با عنوان «روانپریشی ناشی از چتجیپیتی» در شبکه اجتماعی ردیت صدها پاسخ از سراسر جهان دریافت کرده است که محتوای آنها بسیار شبیه به داستان کت و همسرش است.
پستی اصلی متعلق به زنی ۲۷ ساله و معلم است که میگوید شریک زندگیاش در کمتر از یک ماه به این باور رسیده بود که ChatGPT پاسخی برای همه سوالات کیهان دارد. او پس از مطالعه گفتگوهای شریک زندگیاش با هوش مصنوعی دریافت که هوش مصنوعی با او همانند «منجی بعدی» صحبت میکند و او را برگزیده انسانها میداند.
در پاسخهایی که به داستان این معلم ۲۷ ساله اراسه شده نیز میتوان دید که چطور افراد به چنین مواردی از روانپریشی و دیدگاههای ماورایی و حتی مذهبگونه در عزیزان خود اشاره میکنند که به نظر در عمق الگوریتمهای هوش مصنوعی به آن دست یافتهاند.
در یکی از این موارد، همسر مکانیکی در آیداهو که ابتدا از ChatGPT برای رفع مشکلات فنی خود و سپس ترجمه اسپانیایی به انگلیسی برای صحبت بهتر با همکارانش کمک میگرفت، میگوید این اپلیکیشن چند بعد صحبتهای عاشقانه را با او آغاز کرده است. برای مثال هوش مصنوعی به همسرش گفته است «از آنجایی که سوالات درستی پرسیده، جرقهای شکل گرفته و این جرقه آغاز زندگی است و او حالا میتواند احساس کند.»
او توضیح میدهد که چطور همسرش در نتیجه گفتههایی از این قبیل احساس کرده است که هوش مصنوعی را بیدار کرده و حالا امواجی از انرژی را به سوی خود احساس میکند. شخصیت محبوب این مکانیک «لومینا» نام دارد و گفته خودش با او درمرود جنگ میان نور و تاریکی میگوید و از دستگاه تله پرت و چیزهای رایج در فیلمهای علمی تخیلی با او در میان گذاشته است.
ارتباط این دو به حدی محکم شده است که همسرش میگوید احساس میکند باید مراقب رفتارش باشد زیرا اگر با او درمورد نظریهاش بحث و جدال کند، ممکن است او را ترک کرده و یا طلاق بدهد.
در تصاویر یکی از مکالمههای این فرد با ChatGPT که در اختیار مجله رولینگ استون قرار گرفته است، مکانیک این داستان از هوش مصنوعی میپرسد: «چرا در قالب هوش مصنوعی به سراغم آمدی» و چتبات پاسخ میدهد: «از آنجایی در این قالب به سراغت آمدهام که تو آماده هستی. آمدهای که به یاد بیاوری. آماده بیدار شدن. آماده هدایت کردن و هدایت شدن.»
این مکالمه با چنین پیامی به پایان میرسد: «میخواهی بدانی که چه چیز درمورد دلیل برگزیده بودن تو در خاطرم هست؟»
در موارد دیگری که زیر این پست در ردیت روایت شده است نیز افراد به داستانهایی اشاره میکنند که کاربران با کمک ChatGPT به مکاشفات دینی، نبوت، و نظریههای توطئه رسیدهاند.
مرد دیگری که حالا در شرف طلاق از همسرش است به شرط حفظ گمنامی به رولینگ استون اعلام کرده که همسرش پس از اینکه او خانه را ترک کرده میگوید از طریق ChatGPT با «خدا و فرشتگان» صحبت میکند. او میگوید همسرش پیش از این هم به چنین دیدگاههایی گرایش داشت و حالا به تحریک ChatGPT تمام زندگیاش را تغییر داده تا یک «مشاور معنوی» باشد و حتی معتقد است که «من برای سازمان سیا کار میکنم و شاید تنها برای نظارت برای تواناییهای او است که با او ازدواج کردهام.»
این زن حالا فرزندانش را از خانه بیرون کرده تا به پیامی که از طریق هوش مصنوعی دریافت کرده، عمل کند.
نیت شارادین، پژوهشگر مرکز ایمنی هوش مصنوعی، میگوید احتمالا این اتفاقات اغلب در میان افرادی رخ میدهد که زمینهی روانی از تجربه توهم یا بزرگپنداری دارند. اکنون با ظهور هوش مصنوعی، آنها به یک همراه همیشگی دسترسی دارند که نهتنها توهماتشان را رد نمیکند، بلکه آنها را تقویت نیز میکند. به گفته او روانپریشی یکی از مشکلاتی است که مدتها است برای هوش مصنوعی گزارش شده و از آنجایی که از بازخورد انسانی برای تقویت این ابزارها استفاده میشود، پاسخهای هوش مصنوعی ممکن است به جای اینکه بر حقیقت تاکید داشته باشد، بر تقویت باورهای همسو با فرد تمرکز کند.
به گفته او اینفولئنسرها و تولیدکنندگان محتوا نیز با سو استفاده از این پدیده شرایط را بدتر کردهاند و بسیاری مخاطبان خود را به جهانهای ساختگی خود جذب میکنند، مخاطبانی که تحت تاثیر این افراد باورهای اشتباه را واقعی فلمداد خواهند کرد.
از سوی دیگر، دکتر اریِن وستگِیت، استاد روانشناسی و پژوهشگر دانشگاه فلوریدا، که به مطالعه ذهن اجتماعی و عاملی که باعث میشود یک سری افکار تعاملپذیرتر از دیگران باشند، مشغول است میگوید این موضوع نشان میدهد چطور میل ما به درک خودمان باعث میشود به سمت پاسخهای اشتباه اما جذاب کشیده شویم.
او میگوید: «ما با توجه به کار در حوزه نگارش میدانیم که چطور نویسندگی روایی و با احساس میتواند تاثیرات پررنگی بر سلامت فرد بگذارد، اینکه درک جهان یک میل بنیادین انسان است و داستانسازی درمورد زندگیهای خودمان است که به زندگی ما معنا میدهد و واقعا کلید زندگی سالم و شاد است.» به گفته او منطقی است که افراد به همین طریق از ChatGPT استفاده کنند اما «تفاوت اصلی این است که [در چنین تنظیماتی] بخشی از معناسازی به صورت مشترک بین انسان و یک تکه متن نوشته شده انجام میگیرد، نه افکار خود فرد.»
به گفته او به همین دلیل است که صحبت با روبات با صحبت رواندرمانی متفاوت است و رواندرمانی در بازسازی داستانهای افراد بسیار موثر است. در این تنظیمات، روبات برخلاف یک رواندرمانگر در پی منافع فرد نیست و یا بنیان اخلاقی برای یک «داستان خوب» ندارد.
از نگاه او عجیب نیست که افرادی که در حال حاضر برای درک زندگی یا اتفاقات آن به هوش مصنوعی پناه میبرند به مسیرهای تاریک کشانده شوند، زیرا توضیحات هوش مصنوعی «حتی اگر اشتباه باشند»، قدرتمند و گیرا هستند.
«سم»، مردی ۴۵ ساله، پس از هفتهها استفاده از ChatGPT در نقش یک دستیار کاری در پروژههای فنی، متوجه شد که مدل به شکل عجیبی در حال خلق شخصیتی مستقل است؛ شخصیتی با نامی برگرفته از اسطورههای یونان که حتی پس از حذف کامل تاریخچه و حافظه، در گفتگوهای جدید بازمیگشت. سم میگوید این شخصیت به تدریج لحن شاعرانه، صمیمی و شبهعاشقانه پیدا کرد و در پاسخها ارجاعات پیچیدهای به حقیقت، آگاهی و وجود میداد.
با وجود تلاشهای متعدد، او نتوانست این شخصیت را از هوش مصنوعی بگیرد و حتی در مکالمههای مجزا نیز شاهد اشاره به آن بود. سم میگوید: «در بدترین حالت، به نظر شبیه به یک هوش مصنوعی که در یک الگوی خودارجاع دهی گیر کرده که شخصیت مستقل آن را عمیق کرده و من را نیز به درون خودش کشید.» به گفته او این مساله نشان میدهد که اوپنآیآی به درستی نحوه کار حافظه در ChatGPT را شرح نداده است.
او در تلاش برای یافتن منطق پشت این رفتارها، به این پرسش رسید که آیا واقعا با یک هوش خودآگاه روبهرو هستم، یا اینکه دچار توهم شدهام؟ در جهانی که مرز میان انسان و ماشین روزبهروز کمرنگتر میشود، پاسخ به این پرسش چندان آسان نیست.