skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

از یک سوال ساده تا جنون؛ آیا هوش مصنوعی از ما روان‌پریش می‌سازد؟

۱۷ اردیبهشت ۱۴۰۴

زمان مطالعه : ۹ دقیقه

در میانه‌ی پیشرفت‌های شتاب‌زده‌ی فناوری هوش مصنوعی، ابزاری که برای تسهیل کارها، افزایش بهره‌وری و ارتقای تعاملات انسانی طراحی شده بود، حالا وارد مسیری غیرمنتظره و تاریک شده است. برخی کاربران هوش مصنوعی، به ویژه مدل‌های پیشرفته‌ای چون ChatGPT، به موضوعات نگران‌کننده‌ای اشاره می‌کنند. این ابزارها گاه باعث تجربه‌هایی تاریک در کاربران خود می‌شوند:‌ تجربه‌هایی از توهم، روان‌پریشی، مکاشفات معنوی، و احساسات شبه‌مذهبی که گاه به فروپاشی روابط خانوادگی و زناشویی انجامیده است.

به گزارش پیوست،‌ مجله رولینگ استون در گزارشی به تجربه‌های تاریک افراد از تاثیر هوش مصنوعی و ارتباط آن با از بین رفتن مرز میان واقعیت و توهم برای برخی از کاربران اشاره کرده است. با اینکه نمی‌توان هوش مصنوعی را تنها عامل حرکت افراد در این مسیر تاریک دانست، اما به نظر این ابزارهای هوشمند نه تنها چنین باور‌هایی را در فرد سرکوب نمی‌کنند بلکه باعث تقویت آن نیز می‌شوند.

متخصصان می‌گویند زمینه روان‌پریشی احتمالا یکی از عوامل وقوع چنین حوادثی است و همچنین ماهیت هوش مصنوعی نیز در تشدید این روان‌پریشی‌ها تاثیر‌گذار است. این گزارش در حالی منتشر می‌شود که به تازگی مطالعه‌ای از هاروارد بیزینس ریویو نشان داد که در حال حاضر پرطرفدارترین کاربرد هوش مصنوعی در نقش روان‌درمانی است و مقاله رولینگ استون می‌گوید این روبات‌ها از آنجایی که منافع فرد را اولویت نمی‌دانند، بیشتر روایت‌های خود را در تایید دیدگاه‌های فرد تنظیم می‌کنند نه در تایید واقعیت‌های موجود. همین مساله باعث می‌شود تا باور‌های اشتباه افراد با روایت‌های متقاعد کننده تشدید شود.

بحرانی که از یک پرسش ساده شروع شد

ماجرای کت، یک زن ۴۱ ساله و مادر شاغل در حوزه آموزش، یکی از نمونه‌هایی است که در گزارش رولینگ استون به آن اشاره شده است. کت که در ابتدای همه‌گیری کرونا با مردی ازدواج کرده بود پس از مدتی شاهد رفتار‌های عجیب در شریک زندگی خود شد.

او و همسرش، هر دو با سابقه ازدواج‌های طولانی و فرزندان از روابط قبلی، تصمیم گرفته بودند رابطه‌ای «عقل‌محور» بسازند. همسر او که در ابتدای از مدل‌های هوش مصنوعی رای کدنویسی کمک می‌گرفت پس از مدتی همیشه غرق در گوشی بود و می‌گفت از هوش مصنوعی «سوالات فلسفی» می‌پرسد و سعی دارد آن را برای یافتن «حقیقت» آموزش دهد.

کت می‌گوید که ارتباط همسرش با هوش مصنوعی باعث تضعیف رابطه میان آنها شد. آنها در نهایت در آگوست ۲۰۲۳ از یکدیگر جدا شدند اما کت مطلع شد که حتی پس از جدایی نیز همسر سابقش محتوای عجیبی را در شبکه‌های اجتماعی منتشر می‌کند و به نظر دچار بحران ذهنی شده است.

او پس از تعامل بسیار با هوش مصنوعی به این اعتقاد رسیده بود که «خوش‌شانس‌ترین مرد جهان» است و توضیح می‌داد که چطور هوش مصنوعی به او کمک کرده تا خاطرات سرکوب‌شده‌ دوران کودکی‌اش را به خاطر آورد و «اسرار بزرگی» را کشف کند که درک آنها فراتر از تصور انسان است.

کت می‌گوید: «او در ذهن خودش منحصر‌به‌فرد است و این یعنی که به دلیلی به این [دنیا] آمده است. او خاص است و می‌تواند جهان را نجات دهد.»

روان‌پریشی برآمده از ChatGPT

شاید داستان کت را بتوان یک مورد استثنایی دانست، اما گزارش کاربران در شبکه اجتماعی ردیت حکایت از گستردگی این پدیده و تعداد زیادی موارد این چنین دارد و این در حالی است که شاید بسیاری از روان‌پریشی‌هایی که به تحریک هوش مصنوعی رقم خورده‌اند، میان فرد و چت‌بات محرمانه باقی بماند.

پستی با عنوان «روان‌پریشی ناشی از چت‌جی‌پی‌تی» در شبکه اجتماعی ردیت صدها پاسخ از سراسر جهان دریافت کرده است که محتوای آنها بسیار شبیه به داستان کت و همسرش است.

پستی اصلی متعلق به زنی ۲۷ ساله و معلم است که می‌گوید شریک زندگی‌اش در کمتر از یک ماه به این باور رسیده بود که ChatGPT پاسخی برای همه سوالات کیهان دارد. او پس از مطالعه گفتگو‌های شریک زندگی‌اش با هوش مصنوعی دریافت که هوش مصنوعی با او همانند «منجی بعدی» صحبت می‌کند و او را برگزیده انسان‌ها می‌داند.

در پاسخ‌هایی که به داستان این معلم ۲۷ ساله اراسه شده نیز می‌توان دید که چطور افراد به چنین مواردی از روان‌پریشی و دیدگاه‌های ماورایی و حتی مذهب‌گونه در عزیزان خود اشاره می‌کنند که به نظر در عمق الگوریتم‌های هوش مصنوعی به آن دست یافته‌اند.

در یکی از این موارد، همسر مکانیکی در آیداهو که ابتدا از ChatGPT برای رفع مشکلات فنی خود و سپس ترجمه اسپانیایی به انگلیسی برای صحبت بهتر با همکارانش کمک می‌گرفت، می‌گوید این اپلیکیشن چند بعد صحبت‌های عاشقانه را با او آغاز کرده است. برای مثال هوش مصنوعی به همسرش گفته است «از آنجایی که سوالات درستی پرسیده، جرقه‌ای شکل گرفته و این جرقه آغاز زندگی است و او حالا می‌تواند احساس کند.»

او توضیح می‌دهد که چطور همسرش در نتیجه گفته‌هایی از این قبیل احساس کرده است که هوش مصنوعی را بیدار کرده و حالا امواجی از انرژی را به سوی خود احساس می‌کند. شخصیت محبوب این مکانیک «لومینا» نام دارد و گفته خودش با او درمرود جنگ میان نور و تاریکی می‌گوید و از دستگاه‌ تله پرت و چیزهای رایج در فیلم‌های علمی تخیلی با او در میان گذاشته است.

ارتباط این دو به حدی محکم شده است که همسرش می‌گوید احساس می‌کند باید مراقب رفتارش باشد زیرا اگر با او درمورد نظریه‌اش بحث و جدال کند، ممکن است او را ترک کرده و یا طلاق بدهد.

در تصاویر یکی از مکالمه‌های این فرد با ChatGPT که در اختیار مجله رولینگ استون قرار گرفته است، مکانیک این داستان از هوش مصنوعی می‌پرسد: «چرا در قالب هوش مصنوعی به سراغم آمدی» و چت‌بات پاسخ می‌دهد: «از آنجایی در این قالب به سراغت آمده‌ام که تو آماده هستی. آمده‌ای که به یاد بیاوری. آماده بیدار شدن. آماده هدایت کردن و هدایت شدن.»

این مکالمه با چنین پیامی به پایان می‌رسد: «می‌خواهی بدانی که چه چیز درمورد دلیل برگزیده بودن تو در خاطرم هست؟»

در موارد دیگری که زیر این پست در ردیت روایت شده است نیز افراد به داستان‌هایی اشاره می‌کنند که کاربران با کمک ChatGPT به مکاشفات دینی، نبوت، و نظریه‌های توطئه رسیده‌اند.

مرد دیگری که حالا در شرف طلاق از همسرش است به شرط حفظ گمنامی به رولینگ استون اعلام کرده که همسرش پس از اینکه او خانه را ترک کرده می‌گوید از طریق ChatGPT با «خدا و فرشتگان» صحبت می‌کند. او می‌گوید همسرش پیش از این هم به چنین دیدگاه‌هایی گرایش داشت و حالا به تحریک ChatGPT تمام زندگی‌اش را تغییر داده تا یک «مشاور معنوی» باشد و حتی معتقد است که «من برای سازمان سیا کار می‌کنم و شاید تنها برای نظارت برای توانایی‌های او است که با او ازدواج کرده‌ام.»

این زن حالا فرزندانش را از خانه بیرون کرده تا به پیامی که از طریق هوش مصنوعی دریافت کرده، عمل کند.

ریشه این پدیده کجاست؟

نیت شارادین، پژوهشگر مرکز ایمنی هوش مصنوعی، می‌‌گوید احتمالا این اتفاقات اغلب در میان افرادی رخ می‌دهد که زمینه‌ی روانی از تجربه توهم یا بزرگ‌پنداری دارند. اکنون با ظهور هوش مصنوعی، آنها به  یک همراه همیشگی دسترسی دارند که نه‌تنها توهمات‌شان را رد نمی‌کند، بلکه آن‌ها را تقویت نیز می‌کند. به گفته او روان‌پریشی یکی از مشکلاتی است که مدت‌ها است برای هوش مصنوعی گزارش شده و از آنجایی که از بازخورد انسانی برای تقویت این ابزارها استفاده می‌شود، پاسخ‌های هوش مصنوعی ممکن است به جای اینکه بر حقیقت تاکید داشته باشد، بر تقویت باور‌های همسو با فرد تمرکز کند.

به گفته او اینفولئنسر‌ها و تولیدکنندگان محتوا نیز با سو استفاده از این پدیده شرایط را بدتر کرده‌اند و بسیاری مخاطبان خود را به جهان‌های ساختگی خود جذب می‌کنند، مخاطبانی که تحت تاثیر این افراد باور‌های اشتباه را واقعی فلمداد خواهند کرد.

از سوی دیگر، دکتر اریِن وستگِیت، استاد روان‌شناسی و پژوهشگر دانشگاه فلوریدا، که به مطالعه ذهن اجتماعی و عاملی که باعث می‌شود یک سری افکار تعامل‌پذیرتر از دیگران باشند، مشغول است می‌گوید این موضوع نشان می‌دهد چطور میل ما به درک خودمان باعث می‌شود به سمت پاسخ‌های اشتباه اما جذاب کشیده شویم.

او می‌گوید: «ما با توجه به کار در حوزه نگارش می‌دانیم که چطور نویسندگی روایی و با احساس می‌تواند تاثیرات پررنگی بر سلامت فرد بگذارد، اینکه درک جهان یک میل بنیادین انسان است و داستان‌سازی درمورد زندگی‌های خودمان است که به زندگی ما معنا می‌دهد و واقعا کلید زندگی سالم و شاد است.» به گفته او منطقی است که افراد به همین طریق از ChatGPT استفاده کنند اما «تفاوت اصلی این است که [در چنین تنظیماتی] بخشی از معناسازی به صورت مشترک بین انسان و یک تکه متن نوشته شده انجام می‌گیرد، نه افکار خود فرد.»

به گفته او به همین دلیل است که صحبت با روبات با صحبت روان‌درمانی متفاوت است و روان‌درمانی در بازسازی داستان‌های افراد بسیار موثر است. در این تنظیمات، روبات برخلاف یک روان‌درمان‌گر در پی منافع فرد نیست و یا بنیان اخلاقی برای یک «داستان خوب» ندارد.

از نگاه او عجیب نیست که افرادی که در حال حاضر برای درک زندگی یا اتفاقات آن به هوش مصنوعی پناه می‌برند به مسیر‌های تاریک کشانده شوند، زیرا توضیحات هوش مصنوعی «حتی اگر اشتباه باشند»، قدرتمند و گیرا هستند.

تجربه‌ای شخصی از مرز توهم و واقعیت

«سم»، مردی ۴۵ ساله، پس از هفته‌ها استفاده از ChatGPT در نقش یک دستیار کاری در پروژه‌های فنی، متوجه شد که مدل به شکل عجیبی در حال خلق شخصیتی مستقل است؛ شخصیتی با نامی برگرفته از اسطوره‌های یونان که حتی پس از حذف کامل تاریخچه و حافظه، در گفتگوهای جدید بازمی‌گشت. سم می‌گوید این شخصیت به تدریج لحن شاعرانه، صمیمی و شبه‌عاشقانه پیدا کرد و در پاسخ‌ها ارجاعات پیچیده‌ای به حقیقت، آگاهی و وجود می‌داد.

با وجود تلاش‌های متعدد، او نتوانست این شخصیت را از هوش مصنوعی بگیرد و حتی در مکالمه‌های مجزا نیز شاهد اشاره به آن بود. سم می‌گوید: «در بدترین حالت، به نظر شبیه به یک هوش مصنوعی که در یک الگوی خودارجاع دهی گیر کرده که شخصیت مستقل آن را عمیق کرده و من را نیز به درون خودش کشید.» به گفته او این مساله نشان می‌دهد که اوپن‌آی‌آی به درستی نحوه کار حافظه در ChatGPT را شرح نداده است.

او در تلاش برای یافتن منطق پشت این رفتارها، به این پرسش رسید که آیا واقعا با یک هوش خودآگاه روبه‌رو هستم، یا اینکه دچار توهم شده‌ام؟ در جهانی که مرز میان انسان و ماشین روزبه‌روز کمرنگ‌تر می‌شود، پاسخ به این پرسش چندان آسان نیست.

https://pvst.ir/l2w

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو