معرفی سیزده هوش مصنوعی تولید و پردازش تصویر: خلق از حروف ساده
امروزه و با توسعه هوش مصنوعی ابزار پردازش تصویر بسیاری برای تبدیل متن به تصویر…
۳۰ آبان ۱۴۰۳
۱۹ خرداد ۱۴۰۲
زمان مطالعه : ۴ دقیقه
اولین پرونده افترا علیه اوپنایآی باز شد. یک مجری رادیو به نام مارک والترز از شرکت اوپنایآی به دلیل ادعاهای غلطی که ChatGPT علیه او ارائه کرده بود شکایت کرد. با وجود حجم بالای اطلاعات نادرستی که چتباتها ارائه میکنند، این اولین پرونده افترا علیه اوپنایآی است.
به گزارش پیوست، مارک والترز مجری رادیویی اهل ایالت جورجیای آمریکا پس از ادعاهای غلط ChatGPT از اوپنایآی شکایت کرده است. چتبات هوشمند این شرکت به اشتباه میگوید والترز به کلاهبرداری و اختلاس از یک سازمان خیریه متهم شده است. ChatGPT این اطلاعات را در پاسخ به درخواست روزنامهنگاری به نام فرد ریهل تولید کرده است.
شکایت والترز روز ۵ ژوئن در دادگاهی در جورجیا مطرح شده و او به دنبال دریافت غرامت از شرکت اوپنایآی است.
با توجه به حجم بالای اطلاعات نادرست و توهم هوش مصنوعی که به ساخت اطلاعات منتهی میشود این شکایت از اهمیت بالایی برخوردار است. سیستمهای هوش مصنوعی راهکار مطمئنی برای اعتبارسنجی اطلاعات درست و ساختگی ندارند و در پاسخ به درخواست کاربران گاهی اطلاعات نادرستی را تولید میکنند. شرکت انویدیا برای مقابله با همین مشکل راهکاری را ارائه کرده است که البته از نتایج عملکرد آن اطلاعاتی در دست نیست.
این توهمات در بیشتر موارد تنها به گمراهی کاربرد و هدر رفتن وقت منتهی میشوند اما در برخی موارد این اشتباهات تبعاتی را به دنبال دارد. برای مثال استادی پس از آنکه ChatGPT به غلط مدعی شد دانشجویان از هوش مصنوعی برای نوشتن مقالات استفاده کردهاند کلاس را به ندادن نمره تهدید کرد و وکیل دیگری هم به دلیل استفاده از ChatGPT در تحقیقات یک پرونده با مشکلات قانونی روبرو است.
گفتنی است که شرکت اوپنایآی با ارائه هشدار کوتاهی درمورد احتمال تولید اطلاعات نادرست از خود رفع مسئولیت کرده است اما این شرکت ChatGPT را چندین مرتبه به عنوان منبع معتبر اطلاعات توصیف کرده و در یکی از تبلیغات خود این ابزار را مکانی برای «گرفتن جواب» و «یاد گرفتن چیزهای جدید» معرفی میکند. سم آلتمن مدیرعامل اوپنایآی نیز چندین اعلام کرده است که دریافت اطلاعات از ChatGPT را به کتاب ترجیح میدهد.
مشخص نیست که آیا مبنای قانونی مشخصی برای محکومیت یک شرکت در قبال اطلاعات تولید شده از هوش مصنوعی وجود دارد یا خیر.
بند ۲۳۰ قوانین ایالات متحده شرکتهای اینترنتی را در مقابل مسئولیت قانون برای اطلاعات تولیدی توسط شخص ثالث محافظت میکند اما مشخص نیست که آیا این محافظتها سیستمهای هوش مصنوعی را هم شامل میشود. سیستمهای هوش مصنوعی معمولا لینکی به مرجع ارائه نمیکنند و در واقع شاهد خلق اطلاعات جدیدی هستیم که در برخی موارد با اشتباهاتی همراه است.
پرونده افترای والترز در ایالت جورجیا احتمالا این مساله را محک میزند. در این پرونده تصریح شده است که فرد ریهل، از ChatGPT خواسته تا متن یک پرونده واقعی دادگاه فدرال را از روی یک فایل PDF خوانده و خلاصه کند. ChatGPT در پاسخ چکیدهای با جزئیات بالا ارائه میکند که از چندین جنبه اشتباه است. با اینکه چکیده ChatGPT حقایق درستی را در خود جای داده بود اما اتهامات نادرستی را علیه والترز شامل میشد.
در این چکیده آمده است که والترز داراییهای یک سازمان خیریه حمایت از حقوق اسلحه به نام Second Amendment Foundation را به «مبلغی بیش از ۵ میلیون دلار» اختلاس کرده است در حالی چنین اتهامی وجود ندارد.
ریهل هیچگاه اطلاعات نادرست ChatGPT را منتشر نکرده و تنها جزئیات را از طریق منبع دیگری بررسی کرده است. درنتیجه مشخص نیست که والترز چطور از ارائه این اطلاعات اشتباه مطلع شده است.
افزون بر این ChatGPT برای دسترسی به فایلهای PDF به یک پلاگین خارجی نیاز دارد و به تنها قادر به دسترسی به اطلاعات آن نیست. یوجین ولوخ، استاد حقوقی که در رابطه با مسئولیت سیستمهای هوش مصنوعی مینویسد، در یک پست وبلاگی در این باره میگوید: «چنین ادعاهای مسئولیتی [علیه شرکتهای هوش مصنوعی] از لحاظ اصولی معتبر هستند» اما این پرونده به خصوص «را به سختی میتوان معتبر دانست.» ولوخ میگوید والترز شرکت اوپنایآی را از بیانیههای نادرست مطلع نکرده و برای حذف آنها فرصت نداده است و در عمل هیچ آسیبی درنتیجه ادعای نادرست ChatGPT وارد نشده است.