شرکت متا نیز برای جلوگیری از سودمحور شدن اوپنایآی با ایلان ماسک همصدا شد
گزارشی از والاستریت ژورنال میگوید شرکت متا از دادستانی کالیفرنیا خواسته تا جلوی تبدیل اوپنایآی…
۲۵ آذر ۱۴۰۳
۲۶ آذر ۱۴۰۳
زمان مطالعه : ۶ دقیقه
پژوهشگران گوگل دیپمایند و استنفورد در مطالعه جدیدی توانستند با عاملیتهای هوش مصنوعی شخصیت انسانها را شبیهسازی کنند. در این مطالعه پژوهشگران برای درک شخصیت شرکتکنندگان و شبیهسازی به مصاحبههای طولانی روی آوردند که جزئیات خاصی مثل خاطرات یا سوگیری و رویکردهای مختلف فرد را در بر میگیرد. پژوهشگران میگویند این شبیهسازیها با دقت ۸۵ درصدی شخصیت فرد را شبیهسازی میکنند.
به گزارش پیوست به نقل از نشریه فناوری MIT، پژوهشگران در این مطالعه هزار نفری به دنبال ساخت نسخههای شبیهسازی شده از انسانها بودند که به گفته مولفان کاربرد ویژهای در مطالعات اجتماعی خواهد داشت. در واقع اگر این شبیهسازیها نماینده خوبی از شخصیت انسانی باشند، میتوان از آنها برای مطالعات خاص که روی انسانها امکان پذیر نیست استفاده کرد.
تصور کنید یک مصاحبه دو ساعته با هوش مصنوعی دارید و سیستم در طول این مکالمه از شما درمورد موضوعات مختلفی از کودکی، خاطرات مهم و حرفه شما گرفته تا نظراتان درمورد سیاست مهاجرتی میپرسد. کمی بعد، یک نسخه مجازی از شما میتواند ارزشها علایق شما را با دقت بالایی شبیهسازی کند.
مقاله جدیدی از تیم پژوهشگرانی از دانشگاه استنفورد و گوگل دیپمایند مدعی است که چنین کاری با سیستمهای هوش مصنوعی جدید ممکن شده است.
این تیم به رهبری جون سانگ پارک، دانشجوی PhD استنفورد در رشته علوم کامپیوتر، گروهی متشکل از ۱۰۰۰ نفر با سن، جنسیت، نژاد، مذهب، تحصیلات و ایدئولوژی سیاسی متفاوت را گرد هم آوردند. به هر نفر تا سرحد ۱۰۰ دلار برای شرکت در این مطالعه پرداخت شد. این تیم براساس مصاحبه با آنها عاملیتی مجازی براساس این افراد ایجاد کرد. شرکتکنندگان برای تعیین دقت این عاملیتها از شخصی خود، چند آزمون شخصیتی، نظرسنجی اجتماعی و بازیهای استدلالی را دو بار با فاصله دو هفته انجام دادند؛ سپس عاملیتها نیز مراحل مشابهی را پشت سر گذاشتند. میزان شباهت عاملیت مجازی با انسانها ۸۵ درصد بود.
پارک میگوید: «اگر شما تعدادی ‘خود’ کوچک داشته باشید و آنها تصمیماتی بگیرند که شما میگیرید- به نظرم آینده در چنین چیزی نهفته است.»
در این مقاله از نسخههای شبیه سازی شده به عنوان عاملیتهای شبیهسازی یاد میشود و هدف از ساخت آنها تسهیل روند مطالعه برای فعالان حوزه علوم اجتماعی و دیگر رشتهها است که در غیر این صورت گرانقیمت و نشدنی هستند یا انجام آنها با انسان واقعی غیراخلاقی خواهد بود. اگر شما بتوانید مدلهایی ایجاد کنید که درست شبیه به انسان واقعی رفتار میکند، شما میتوانید از آنها برای آزمایش هرچیزی مثل مداخله اجتماعی برای مبارزه با اطلاعات وارونه تا بررسی رفتارهایی که باعث قفل ترافیکی میشوند، استفاده کنید.
این عاملیتهای شبیه سازی با عاملیتهایی که در حال حاضر در جهان فناوری شاهدش هستیم تفاوت دارند. عاملیتهای رایج ابزار محور برای انجام کار طراحی شدهاند، نه شباهت به شما. برای مثال، این عاملیتها ممکن است دادههایی را برای شما وارد کنند، اطلاعاتی استخراج کنند یا مثلا برای شما وقت ملاقات بگیرند و برنامهریزی کنند. شرکت Salesforce در ماه سپتامبر از عاملیتهای ابزارمحور خود رونمایی کرد و پس از آن هم شاهد نمونههای مشابهی از آنتروپیک در ماه اکتبر بودیم و حالا اوپنایآی نیز برای عرضه ابزارهای مشابه آماده میشود.
اما بنیان این دو نوع عاملیت با یکدیگر متفاوت است. جان هورتون، استادیار فناوری اطلاعات در MIT Sloan School of Management، که شرکتی برای انجام تحقیقات با استفاده از شرکتکنندگان شبیهسازی شده را بنیانگذاری کرده است، میگوید تحقیق مبتنی بر عاملیتهای شبیهسازی مثل آنچه در این مقاله شاهدش بودیم، در نهایت عامیلتهای هوش مصنوعی قدرتمندتری را میسازد.
او در ایمیلی در این باره گفت: «این مقاله نشان میدهد که میتوانید نوعی دورگه بسازید: از انسانهای واقعی برای تولید شخصیتهایی استفاده کنید که بعدا میتوان آنها را به شکلی که برای انسانها ممکن نیست، به صورت برنامهریزی شده/ در شبیهسازی به کار گرفت.»
البته که انتقاداتی را نسبت به این تحقیق شاهد هستیم. در حالی که فناوری تولید تصویر باعث شده تا دیپفیک به سادگی قابل تولید باشد، فناوری تولید عاملیت هم به این سوال منتهی میشود که تولید نسخههای مشابهی از انسان که میتوانند چیزهایی را به جای ما بگویند و اجازههایی را به تقلید از ما صادر کنند، تا چه اندازه امکانپذیر است.
این تیم از روشهای نسبتا سادهای برای ارزیابی شباهت عاملیتهای هوش مصنوعی با انسان استفاده کرد. یکی از این روشها نظرسنجی اجتماعی عمومی است که اطلاعات درمورد دادههای جمعیت شناختی، شادی، رفتارها و غیره، جمعآوری میکند و دیگری هم ارزیابی پنج سویه بزرگ شخصیتی است: استقبال از تجربه، پیروی از وجدان، برونگرایی، مدارا جویی و منفیگرایی. چنین آزمونهایی معمولا در تحقیقات علوم اجتماعی استفاده میشوند اما به نظر نمیرسد که تمام جوانب شخصیتی ما را در بر بگیرند. عاملیتهای هوش مصنوعی عملکرد ضعیفی در آزمونهای رفتاری مثل «بازی دیکتاتور» داشتند که قرار است برآورد شرکتکنندگان از ارزشهایی مثل انصاف را برآورد کند.
پژوهشگران برای ساخت عاملیتهایی که به خوبی انسان را شبیهسازی کند به راههای جدیدی نیاز داشتند تا مدلهای هوش مصنوعی بتوانند حالت منحصربهفرد ما را درک کنند. پارک میگوید آنها برای این کار از مصاحبههای کیفی استفاده کردند. او میگوید پس از حضور در پادکستهای متعدد پس از انتشار مقالهای درمورد عاملیتهای مولد و جلب توجه به این حوزه، متقاعد شد که مصاحبه بهترین راه درمورد درک افراد است. او میگوید: «من به یک مصاحبه پادکستی مثلا دو ساعته میرفتم و پس از مصاحبه، احساس میکردم که وای، مردم الان چیز زیادی درمورد من میدانند. دو ساعت میتواند خیلی قدرتمند باشد.»
این مصاحبهها میتوانند طرز فکر ویژه هر فرد را مشخص کنند که در یک نظرسنجی به سختی مشخص میشود. او میگوید: «فردی را تصور کنید که سرطان داشته و بالاخره سال گذشته آن را درمان کرده است. این اطلاعات خیلی خاصی درمورد شما است که چیز زیادی درمورد نحوه رفتار احتمالی شما و افکار شما میگوید.» به سختی میتوان سوالاتی طراحی کرد که این خاطرات و پاسخها بیرون بکشد.
البته که مصاحبه تنها راه این کار نیست. شرکتهایی مثل Tavus که «همزاد دیجیتالی» را در اختیار کاربران میگذارند میتوانند از دادههای ایمیل یا دیگر اطلاعات کاربر برای مدلهای هوش مصنوعی خود استفاده کنند. حسن رضا، مدیرعامل Tavus، میگوید برای شبیهسازی شخصیت فرد از این طریق به دادههای بسیار زیادی نیز است اما این مقاله جدید راهکار بهتری ارائه کرده است.
رضا با اشاره به اینکه شرکتش چنین دیدگاهی را امتحان خواهد کرد، گفت: «جالب این است که شاید نیازی به اطلاعات چندان زیادی نباشد. چطوره که امروز ۳۰ دقیقه و فردا هم ۳۰ دقیقه به یک مصاحبهگر هوش مصنوعی صحبت کنی؟ و سپس ما از این اطلاعات برای ساخت همزاد دیجیتالی تو استفاده میکنیم.»