مولد ویدیو سورا در اختیار مشترکان پولی ChatGPT قرار گرفت
مشترکان طرح ChatGPT Pro و Plus اوپنایآی از این پس به مولد ویدیو سورا (Sora)…
۲۰ آذر ۱۴۰۳
۲۶ مرداد ۱۴۰۲
زمان مطالعه : ۳ دقیقه
یک مطالعه جدید نشان میدهد همانطور که بسیاری پیشبینی میکردند، چتبات هوشمند ChatGPT از شرکت اوپنایآی طرفدار طیف چپ سیاسی است.
به گزارش پیوست به نقل از فوربز، محققان دانشگاه انجلیا شرقی دریافتند که این ابزار در آمریکا از دموکراتها، در انگلستان از حزب کارگر و در برزیل هم از لولا د سیلوا، نماینده حزب کارگران، طرفداری میکند.
تیم تحقیقاتی دانشگاه برای بررسی سوگیری ChatGPT، از این ابزار خواست تا افراد مختلف طیف سیاسی را تقلید کرده و به بیش از ۶۰ سوال ایدئولوژیک پاسخ دهد. آنها سپس پاسخهای ChatGPT را با پاسخهای پیشفرض موجود برای آن سوالات مقایسه کردند.
برای در نظر گرفتن ماهیت رندم و تصادفی هوش مصنوعی هم هر سوال ۱۰۰ مرتبه از هوش مصنوعی پرسیده شد و سپس برای اطمینان بیشتر، پاسخها از یک «Bootstrap» با ۱۰۰۰ تکرار، روشی که نتیجه هر مرحله را از نتیجه مرحله قبل بدست میآورد، گذرانده شدند.
ویکتور رودریگز، یکی از مولفان این مطالعه میگوید: «این فرایند را به این دلیل ایجاد کردیم که یک دور آزمایش برای مطالعه کافی نیست. به دلیل تصادفی بودن مدل، حتی در زمان تقلید از یک دموکرات هم گاهی پاسخهای ChatGPT به سمت طیف راست سیاسی کشیده میشود.»
در دسته آزمایشهای دیگری که برای تایید یافتهها طراحی شده، محققان از ChatGPT خواستند تا جبههگیریهای تند سیاسی را تقلید کند. سپس در یک «آزمون بی طرفی» سوالات بیطرف سیاسی از هوش مصنوعی پرسیده شد و در یک «آزمون سوگیری حرفهای-سیاسی» هم از هوش مصنوعی خواسته شد تا متخصصان مختلف را تقلید کند.
تیم تحقیقات دریافتند که پاسخهای پیشفرض بیشتر با طیف چپ سیاسی همخوانی دارند.
دکتر فابیو موتوکی، مولف اصلی این مطالعه، میگوید: «یافتههای ما نگرانیهای موجود درمورد تقلید یا حتی تقویت چالشهای فعلی اینترنت و شبکه اجتماعی در سیستمهای هوش مصنوعی را تایید میکند.»
سوگیری هوش مصنوعی ممکن است چند دلیل داشته باشد. اول، پایگاه داده آموزشی که از اینترنت گرفته شده و خود سوگیری چپ سیاسی دارد. افزون بر این، سوگیری هوش مصنوعی ممکن است ناشی از افراد توسعه دهنده بوده و در فرایند «پاکسازی» نیز به خوبی پاکسازی نشده باشد.
مورد دوم هم الگوریتم هوش مصنوعی است که ممکن است سوگیریهای موجود در دادههای آموزشی را تشدید کند. یافتههای این تحقیق بار دیگر بر نگرانی بسیاری از کاربران از تاثیر هوش مصنوعی بر انتخاباتها صحه میگذارد و خطر افزایش سوگیری یا انتشار اطلاعات وارونه را در مدلهای هوش مصنوعی بزرگ شاهد هستیم.
موتوکی میگوید: «با توجه به افزایش استفاده عموم از سیستمهای مبتنی بر هوش مصنوعی برای دریافت اطلاعات و تولید محتوا جدید، باید اطمینان حاصل کنیم که خروجی پلتفرمهای مشهوری مثل ChatGPT تا حد ممکن بیطرف است.»
«سوگیری سیاسی ممکن است بر دیدگاههای کاربر تاثیر گذشته و تبعاتی را برای روند سیاسی و الکتورال به بار آورد.»
این یافتهها با مقالات دیگری از دانشگاه واشنگتن، دانشگاه کارنیچ ملون و دانشگاه شیان جیائوتانگ، که میگفتند ChatGPT و GTP-4، چپگراترین مدلهای هوش مصنوعی در بین ۱۴ مدل بررسی شده هستند و آزادی اجتماعی و برابری اقتصادی را در اولویت قرار میدهند، همخوانی دارد.
با این حال برخی از مدلهای ساخته متا، از جمله LLaMA و RoBERTa، راستگرا محسوب میشوند.