با ابزارهای جدیدترین شهربازی هوش مصنوعی گوگل آشنا شوید
گوگل در یکی از جدیدترین اقدامهای خود در راستای توسعه هوش مصنوعی دست به خلق…
۸ بهمن ۱۴۰۳
۷ بهمن ۱۴۰۳
زمان مطالعه : ۴ دقیقه
عامل های شبیه سازی چگونه ایجاد میشوند؟ بر اساس تحقیقات جدید استنفورد (Stanford) و گوگل دیپ مایند (Google DeepMind)، یک مصاحبه دو ساعته برای ثبت دقیق ارزشها و ترجیحات شما و سپس ساخت یک ماکت از شخصیتتان کافی است.
تصور کنید که با یک مدل هوش مصنوعی برای یک مصاحبه دو ساعته جلسه دارید. یک صدای دوستانه شما را در یک مکالمه راهنمایی میکند که از دوران کودکی، خاطراتتان و شغلتان تا افکارتان در مورد سیاست و مهاجرت صحبت کنید. مدتی بعد، یک ماکت مجازی از شما میتواند ارزشها و ترجیحات شما را با دقت خیره کنندهای تجسم کند.
بر اساس مقاله جدیدی که تیمی از محققان استنفورد و گوگل دیپ مایند در arXiv منتشر کردهاند، ایده ایجاد ماکت مجازی یا عامل های شبیه سازی در حال حاضر امکانپذیر است.
این تیم به رهبری جون سونگ پارک (Joon Sung Park)، دانشجوی دکترای علوم کامپیوتر دانشگاه استنفورد، ۱۰۰۰ نفر را استخدام کرد که بر اساس سن، جنسیت، نژاد، منطقه، تحصیلات و ایدئولوژی سیاسی متفاوت بودند. این افراد برای مشارکت در تحقیق تا ۱۰۰ دلار دستمزد دریافت کردند. پس از مصاحبه با آنها، تیم توانست ماکتهای نماینده (agent replica) از آن افراد را ایجاد کند.
به عنوان آزمونی که نشان میدهد ماکتهای نماینده تا چقدر از همتایان انسانی خود تقلید میکنند، شرکتکنندگان یک سری تستهای شخصیتی، نظرسنجیهای اجتماعی و بازیهای منطقی، هر کدام دو بار، به فاصله دو هفته انجام دادند. سپس نمایندهها همان تمرینات را تکمیل کردند. نتایج ۸۵ درصد مشابه بود.
پارک میگوید: «اگر بتوانید یک دسته «خودتان» در اندازه کوچک داشته باشید و آنها تصمیمهایی را بگیرند که اگر خودتان بودید، میگرفتید. فکر میکنم در نهایت این همان تجسم آینده است.
در این مقاله، ماکتها عاملهای شبیهسازی (simulation agents) نام دارند و برای انجام مطالعات محققان علوم اجتماعی و سایر زمینهها کاربرد دارند. مطالعاتی که انجام آنها با انسانهای واقعی گران، غیرعملی یا غیراخلاقی باشد. اگر بتوانید مدلهای هوش مصنوعی بسازید که مانند افراد واقعی رفتار کنند، میتوانید از آنها برای آزمایش همه چیز استفاده کنید. از آزمایش در این مورد که چگونه مداخله در شبکههای اجتماعی با رواج اطلاعات نادرست مبارزه میکند تا تست این که چه رفتارهایی باعث ترافیک میشوند.
اگر بتوانید یک دسته «خودتان» در اندازه کوچک داشته باشید و آنها تصمیمهایی را بگیرند که اگر خودتان بودید، میگرفتید. این همان تجسم آینده است.
چنین عامل های شبیه سازی کمی متفاوت از عاملها یا agentهایی هستند که امروزه بر کار شرکتهای پیشرو هوش مصنوعی تسلط دارند. آنها عاملهای هوش مصنوعی مبتنی بر ابزار (tool-based agents) نام دارند. در واقع مدلهایی هستند که برای انجام کارها برای شما ساخته شدهاند، نه اینکه با شما صحبت کنند. به عنوان مثال، آنها ممکن است دادهها را وارد کنند. اطلاعاتی را که در جایی ذخیره کردهاید، بازیابی کنند. برای شما سفر رزرو کنند و قرار ملاقاتها را برنامهریزی کنند. به گفته بلومبرگ (Bloomberg)، Salesforce در ماه سپتامبر، و پس از آن Anthropic در ماه اکتبر عاملهای مبتنی بر ابزار خود را معرفی کردند. OpenAI در نظر دارد عاملهایش را در ژانویه ۲۰۲۵ منتشر کند.
این دو نوع عامل متفاوت هستند، اما نقاط مشترکی هم دارند. جان هورتون (John Horton)، دانشیار فناوری اطلاعات در دانشکده مدیریت اسلون (Sloan) MIT، که شرکتی را برای انجام تحقیقات با استفاده از شرکتکنندگان شبیهسازی شده با هوش مصنوعی تأسیس کرد، میگوید: تحقیقات بر روی عامل های شبیه سازی، مانند مواردی که در این مقاله ارائه شده است، احتمالاً به طور کلی به ایجاد عاملهای هوش مصنوعی قویتر منجر میشود.
او اضافه کرد: «این مقاله نشان میدهد که چگونه میتوانید نوعی ترکیب انجام دهید: از انسانهای واقعی برای تولید شخصیتهایی استفاده کنید که میتوانند به صورت برنامهنویسی/ شبیهسازی به روشهایی مورد استفاده قرار گیرند که با انسانهای واقعی قابل اجرا نیستند.
این تحقیق با اخطارهایی همراه است و به خطرات چنین فناوری هم اشاره میکند. همانطور که فناوری تولید تصویر، دیپفیکهای مضر از افراد را بدون رضایت آنها ایجاد کرد، فناوری تولید عاملی هم در مورد سهولت ایجاد ابزارهایی برای شخصیت دادن به دیگران به صورت آنلاین، مبهم و سوالبرانگیز است. بهخصوص اینکه ممکن است منجر به گفتن یا تأیید چیزهایی شود که افراد قصد گفتن آنها را نداشتند.
منبع: technologyreview