skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

اولین پرونده افترا علیه اوپن‌ای‌آی ثبت شد، ChatGPT به دردسر افتاد

۱۹ خرداد ۱۴۰۲

زمان مطالعه : ۴ دقیقه

اولین پرونده افترا علیه اوپن‌ای‌آی باز شد. یک مجری رادیو به نام مارک والترز از شرکت اوپن‌ای‌آی به دلیل ادعاهای غلطی که ChatGPT علیه او ارائه کرده بود شکایت کرد. با وجود حجم بالای اطلاعات نادرستی که چت‌بات‌ها ارائه می‌کنند، این اولین پرونده افترا علیه اوپن‌ای‌آی است.

به گزارش پیوست، مارک والترز مجری رادیویی اهل ایالت جورجیای آمریکا پس از ادعاهای غلط ChatGPT از اوپن‌ای‌آی شکایت کرده است. چت‌بات هوشمند این شرکت به اشتباه می‌گوید والترز به کلاهبرداری و اختلاس از یک سازمان خیریه متهم شده است. ChatGPT این اطلاعات را در پاسخ به درخواست روزنامه‌نگاری به نام فرد ریهل تولید کرده است.

شکایت والترز روز ۵ ژوئن در دادگاهی در جورجیا مطرح شده و او به دنبال دریافت غرامت از شرکت اوپن‌ای‌آی است.

با توجه به حجم بالای اطلاعات نادرست و توهم هوش مصنوعی که به ساخت اطلاعات منتهی می‌شود این شکایت از اهمیت بالایی برخوردار است. سیستم‌های هوش مصنوعی راهکار مطمئنی برای اعتبارسنجی اطلاعات درست و ساختگی ندارند و در پاسخ به درخواست کاربران گاهی اطلاعات نادرستی را تولید می‌کنند. شرکت انویدیا برای مقابله با همین مشکل راهکاری را ارائه کرده است که البته از نتایج عملکرد آن اطلاعاتی در دست نیست.

این توهمات در بیشتر موارد تنها به گمراهی کاربرد و هدر رفتن وقت منتهی می‌شوند اما در برخی موارد این اشتباهات تبعاتی را به دنبال دارد. برای مثال استادی پس از آنکه ChatGPT به غلط مدعی شد دانشجویان از هوش مصنوعی برای نوشتن مقالات استفاده کرده‌اند کلاس را به ندادن نمره تهدید کرد و وکیل دیگری هم به دلیل استفاده از ChatGPT در تحقیقات یک پرونده با مشکلات قانونی روبرو است.

گفتنی است که شرکت اوپن‌ای‌آی با ارائه هشدار کوتاهی درمورد احتمال تولید اطلاعات نادرست از خود رفع مسئولیت کرده است اما این شرکت ChatGPT را چندین مرتبه به عنوان منبع معتبر اطلاعات توصیف کرده و در یکی از تبلیغات خود این ابزار را مکانی برای «گرفتن جواب» و «یاد گرفتن چیزهای جدید» معرفی می‌کند. سم آلتمن مدیرعامل اوپن‌ای‌آی نیز چندین اعلام کرده است که دریافت اطلاعات از ChatGPT را به کتاب ترجیح می‌دهد.

مشخص نیست که آیا مبنای قانونی مشخصی برای محکومیت یک شرکت در قبال اطلاعات تولید شده از هوش مصنوعی وجود دارد یا خیر.

بند ۲۳۰ قوانین ایالات متحده شرکت‌های اینترنتی را در مقابل مسئولیت قانون برای اطلاعات تولیدی توسط شخص ثالث محافظت می‌کند اما مشخص نیست که آیا این محافظت‌ها سیستم‌های هوش مصنوعی را هم شامل می‌شود. سیستم‌های هوش مصنوعی معمولا لینکی به مرجع ارائه نمی‌کنند و در واقع شاهد خلق اطلاعات جدیدی هستیم که در برخی موارد با اشتباهاتی همراه است.

پرونده افترای والترز در ایالت جورجیا احتمالا این مساله را محک می‌زند. در این پرونده تصریح شده است که فرد ریهل، از ChatGPT خواسته تا متن یک پرونده واقعی دادگاه فدرال را از روی یک فایل PDF خوانده و خلاصه کند. ChatGPT در پاسخ چکیده‌ای با جزئیات بالا ارائه می‌کند که از چندین جنبه اشتباه است. با اینکه چکیده ChatGPT حقایق درستی را در خود جای داده بود اما اتهامات نادرستی را علیه والترز شامل می‌شد.

در این چکیده آمده است که والترز دارایی‌های یک سازمان خیریه حمایت از حقوق اسلحه به نام Second Amendment Foundation را به «مبلغی بیش از ۵ میلیون دلار» اختلاس کرده است در حالی چنین اتهامی وجود ندارد.

ریهل هیچگاه اطلاعات نادرست ChatGPT را منتشر نکرده و تنها جزئیات را از طریق منبع دیگری بررسی کرده است. درنتیجه مشخص نیست که والترز چطور از ارائه این اطلاعات اشتباه مطلع شده است.

افزون بر این ChatGPT برای دسترسی به فایل‌های PDF به یک پلاگین خارجی نیاز دارد و به تنها قادر به دسترسی به اطلاعات آن نیست. یوجین ولوخ، استاد حقوقی که در رابطه با مسئولیت سیستم‌های هوش مصنوعی می‌نویسد، در یک پست وبلاگی در این باره می‌گوید: «چنین ادعاهای مسئولیتی [علیه شرکت‌های هوش مصنوعی] از لحاظ اصولی معتبر هستند» اما این پرونده به خصوص «را به سختی می‌توان معتبر دانست.» ولوخ می‌گوید والترز شرکت اوپن‌ای‌آی را از بیانیه‌های نادرست مطلع نکرده و برای حذف آنها فرصت نداده است و در عمل هیچ آسیبی درنتیجه ادعای نادرست ChatGPT وارد نشده است.

https://pvst.ir/f37

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو