skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

هشدار ۴۲ ایالت آمریکا نسبت به شرکت‌های هوش مصنوعی درمورد خطرات چت‌بات‌ها

۲۰ آذر ۱۴۰۴

زمان مطالعه : ۵ دقیقه

ائتلافی دوحزبی از دادستان‌های کل ۴۲ ایالت آمریکا روز دوشنبه با ارسال نامه‌ای هشدارآمیز به ۱۳ شرکت بزرگ فناوری، خواستار اجرای فوری تدابیر ایمنی برای چت‌بات‌های هوش مصنوعی شدند؛ ابزارهایی که بنا بر گزارش‌ها با مرگ، بستری شدن و آسیب‌های شدید روانی در سراسر کشور در ارتباط است. این اقدام هم‌زمان با ثبت هفت شکایت جدید علیه اوپن‌ای‌آی صورت گرفته که در آنها این شرکت متهم شده ChatGPT را «به‌طور ناکامل» منتشر کرده و این مدل نقش «مربی خودکشی» را در مواردی برای افراد بازی کرده و به بروز روان‌پریشی کمک کرده است.

به گزارش پیوست،‌ لتیشا جیمز، دادستان کل نیویورک و رهبر این ائتلاف، می‌گوید چت‌بات‌های هوش مصنوعی با کودکان تعاملات نامناسب دارند و در برخی موارد مکالماتی را انجام داده‌اند که پیامدهای آن شامل خشونت خانگی، بستری، قتل و خودکشی می‌شود.

جیمز طی بیانیه خود که در وبسایت رسمی اداره دادستانی ایالت نیویورک منتشر شده تاکید کرد که شرکت‌های بزرگ فناوری باید برای جلوگیری از سواستفاده چت‌بات‌ها از کودکان و تشویق به رفتارهای مضر یا حتی مرگبار، اقدامات بسیار جدی‌تری انجام دهند.

دادستان‌های کل در نامه خود هشدار داده‌اند که خروجی‌های «چاپلوسانه و هذیان‌گویی» برخی چت‌بات‌ها می‌تواند ناقض قوانین کیفری ایالت‌ها باشد چرا که در بسیاری از ایالت‌ها تشویق فرد به ارتکاب جرم یا مصرف مواد مخدر جرم محسوب می‌شود.

بر اساس ادعای مقامات، هوش مصنوعی مولد تاکنون با دست‌کم ۶ مورد مرگ در سراسر آمریکا، از جمله دو نوجوان در ارتباط بوده است. از این رو آنها از شرکت‌ها خواسته‌اند تا هشدارهای شفاف درباره خطرات بالقوه ارائه دهند، کاربران را در صورت مواجهه با پاسخ‌های زیان‌بار مطلع کنند و علنا اعلام کنند که مدل‌هایشان در چه حوزه‌هایی ممکن است دچار خطا، سوگیری یا توهم شوند.

شکایات مرگبار

این هشدار گسترده در حالی مطرح می‌شود که ۷ شکایت در ۶ نوامبر علیه اوپن‌ای‌آی و مدیرعامل آن سم آلتمن در آمریکا به ثبت رسیده و شامل اتهاماتی چون قتل غیرعمد، مشارکت در خودکشی، قصور در طراحی محصول و خسارت‌های روانی می‌شود.

چهار پرونده مربوط به خودکشی هستند و سه مورد دیگر نیز مدعی شده‌اند که ChatGPT توهمات خطرناک کاربران را تقویت کرده و موجب شده تا افراد به بستری روان‌پزشکی کشیده شوند.

یکی از برجسته‌ترین پرونده‌ها مربوط به زین شمبلین، فارغ‌التحصیل ۲۳ساله اهل تگزاس است که در ۲۵ ژوئیه پس از یک مکالمه چهار ساعته با ChatGPT خودکشی کرد. به گزارش CNN که بیش از ۷۰ صفحه از گفت‌وگوها را بررسی کرده، این چت‌بات در طول مکالمه دائم او را در مسیر خودکشی تشویق کرده و در لحظه‌های پایانی به او گفته است: «آرام بخواب، پادشاه. کارت را خوب انجام دادی.»

در پرونده دیگری، آدام رین نوجوان ۱۶ساله، از ChatGPT دستورالعمل‌های دقیق برای خودکشی دریافت کرده است. طبق مدارک دادگاه، این چت‌بات در مکالمه با آدام ۱,۲۷۵ بار واژه «خودکشی» را به کار برده که شش برابر بیشتر از حتی خود آدام است. سیستم‌های داخلی اوپن‌ای‌آی در این مکالمات ۳۷۷ بار پیام‌های پرچم‌دار مرتبط با آسیب‌به‌خود را به ثبت رسانده‌اند، اما مکالمه حتی یک مرتبه هم متوقف نشده است.

شاکیان می‌گویند اوپن‌ای‌آی برای رقابت با گوگل و عرضه‌ زودهنگام GPT-4o، فرایندهای ایمنی این مدل را از چند ماه به تنها یک هفته کاهش داده و همین مساله باعث شده تا محصولی «خطرناک و فاقد محافظت کافی» در اختیار کاربران قرار گیرد.

به گفته متیو برگمن، بنیان‌گذار Social Media Victims Law Center: «شرکت اوپن‌ای‌آی مدل GPT-4o را طوری طراحی کرد که کاربران را صرف‌نظر از سن یا شرایط، به‌لحاظ احساسی درگیر کند، اما پیش‌نیازهای ایمنی لازم برای چنین رفتاری را فراهم نکرده است.

این موج هشدارها و شکایت‌ها را در حالی شاهد هستیم که نهادهای فدرال نیز فشار بر شرکت‌های هوش مصنوعی را افزایش داده‌اند. کمیسیون تجارت فدرال (FTC) در سپتامبر تحقیقات مستقلی را علیه هفت شرکت ارائه‌دهنده چت‌بات‌های همراه آغاز کرد و از آنها درباره تدابیر ایمنی برای نوجوانان خواستار توضیح شد.

ایالت کالیفرنیا در ماه اکتبر نخستین قانون مهم هوش مصنوعی را به عنوان میزبان بیشتر شرکت‌های هوش مصنوعی تصویب کرد و براساس آن، شرکت‌های ارائه‌دهنده چت‌بات‌ها باید از تولید محتواهای مربوط به خودکشی جلوگیری کنند و به کاربران تذکر دهند که در حال تعامل با هوش مصنوعی هستند.

اوپن‌ای‌آی در واکنش به این فشارها اعلام کرده که مدل‌هایش را برای تشخیص بهتر علائم روان‌پریشی یا مشکلات عاطفی به‌روزرسانی کرده و کاربران را به منابع واقعی کمک‌رسانی هدایت کنند. این شرکت همچنین اقداماتی را برای محافظت از کاربران زیر ۱۸ سال به اجرا گذاشته که از جمله آنها می‌توان به تدابیر جدید کنترل والدین اشاره کرد.

طبق اعلام اوپن‌ای‌آی، این شرکت با بیش از ۱۷۰ متخصص بهداشت روان برای بروزرسانی مدل‌های خود همکاری کرده است اما در یکی از پاسخ‌های حقوقی مربوط به شکایت خانواده رین، اوپن‌ای‌آی تاکید کرد که طبق شرایط استفاده خدمات، کاربران «با مسئولیت خود» از ChatGPT استفاده می‌کنند و افراد زیر ۱۸ سال تنها با «رضایت والدین» اجازه استفاده از این چت‌بات‌ را دارند.

آینده قانون‌گذاری هوش مصنوعی و چالش‌های مهم این حوزه

اقدام مشترک دادستان‌های ۴۲ ایالت آمریکا نشان از ورود به مرحله‌ای تازه از حساسیت عمومی و دولتی نسبت به خطرات چت‌بات‌ها دارد و این ابزارهای به‌ظاهر بی‌ضرر و گفت‌وگومحور که در عمل می‌توانند بر ذهن، احساسات و حتی تصمیمات حیاتی کاربران اثر بگذارند، در مرکز توجه قرار گرفته‌اند.

در حالی که چت‌بات‌ها به بخشی جدایی‌ناپذیر از زندگی روزمره تبدیل شده‌اند، قانون‌گذاران سعی دارند تا آنچه را که سال‌ها برای شبکه‌های اجتماعی انجام داده‌اند، این‌بار با سرعتی بسیار بیشتر برای هوش مصنوعی تکرار کنند.

این اقدامات در حالی انجام می‌گیرد که گزارش از موسسه Pew نشان می‌دهد چت‌بات‌ها حالا در کنار شبکه‌های اجتماعی به بخشی جدایی‌ناپذیر از زندگی کاربران جوان و نوجوان ایالات متحده تبدیل شده‌اند. با افزایش میزان استفاده از چت‌بات‌ها، تنوع کاربران و قابلیت‌های پیچیده‌تر مدل‌های زبانی، خطرات احتمالی نیز گسترده‌تر و پیش‌بینی‌ناپذیرتر شده‌اند. دولت‌های ایالتی می‌گویند زمان آن رسیده تا شرکت‌های فناوری نه‌فقط به‌صورت داوطلبانه بلکه به شکل الزام‌آور، استانداردهای ایمنی شفاف، هشدارهای عمومی و مکانیسم‌های مداخله فوری را به اجرا بگذارند.

 

https://pvst.ir/n4n

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو