skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

فناوری

نسرین ابوئی نویسنده میهمان

عامل‌های شبیه سازی؛ هوش مصنوعی در حال حاضر می‌تواند یک ماکت از شخصیت شما ایجاد کند

نسرین ابوئی
نویسنده میهمان

۷ بهمن ۱۴۰۳

زمان مطالعه : ۴ دقیقه

ماکت‌های شخصیتی و هوش مصنوعی

عامل های شبیه سازی چگونه ایجاد می‌شوند؟ بر اساس تحقیقات جدید استنفورد (Stanford) و گوگل دیپ مایند (Google DeepMind)، یک مصاحبه دو ساعته برای ثبت دقیق ارزش‌ها و ترجیحات شما و سپس ساخت یک ماکت از شخصیتتان کافی است.

تصور کنید که با یک مدل هوش مصنوعی برای یک مصاحبه دو ساعته جلسه دارید. یک صدای دوستانه شما را در یک مکالمه راهنمایی می‌کند که از دوران کودکی، خاطراتتان و شغلتان تا افکارتان در مورد سیاست و مهاجرت صحبت کنید. مدتی بعد، یک ماکت مجازی از شما می‌تواند ارزش‌ها و ترجیحات شما را با دقت خیره کننده‌ای تجسم کند.

بر اساس مقاله جدیدی که تیمی از محققان استنفورد و گوگل دیپ مایند در arXiv منتشر کرده‌اند، ایده ایجاد ماکت مجازی یا عامل های شبیه سازی در حال حاضر امکان‌پذیر است.

عامل‌های شبیه‌سازی چگونه ایجاد می‌شوند؟

این تیم به رهبری جون سونگ پارک (Joon Sung Park)، دانشجوی دکترای علوم کامپیوتر دانشگاه استنفورد، ۱۰۰۰ نفر را استخدام کرد که بر اساس سن، جنسیت، نژاد، منطقه، تحصیلات و ایدئولوژی سیاسی متفاوت بودند. این افراد برای مشارکت در تحقیق تا ۱۰۰ دلار دستمزد دریافت کردند. پس از مصاحبه با آن‌ها، تیم توانست ماکت‌های نماینده (agent replica) از آن افراد را ایجاد کند.
به عنوان آزمونی که نشان می‌دهد ماکت‌های نماینده تا چقدر از همتایان انسانی خود تقلید می‌کنند، شرکت‌کنندگان یک سری تست‌های شخصیتی، نظرسنجی‌های اجتماعی و بازی‌های منطقی، هر کدام دو بار، به فاصله دو هفته انجام دادند. سپس نماینده‌ها همان تمرینات را تکمیل کردند. نتایج ۸۵ درصد مشابه بود.
پارک می‌گوید: «اگر بتوانید یک دسته «خودتان» در اندازه کوچک داشته باشید و آن‌ها تصمیم‌هایی را بگیرند که اگر خودتان بودید، می‌گرفتید. فکر می‌کنم در نهایت این همان تجسم آینده است.
در این مقاله، ماکت‌ها عامل‌های شبیه‌سازی (simulation agents) نام دارند و برای انجام مطالعات محققان علوم اجتماعی و سایر زمینه‌ها کاربرد دارند. مطالعاتی که انجام آن‌ها با انسان‌های واقعی گران، غیرعملی یا غیراخلاقی باشد. اگر بتوانید مدل‌های هوش مصنوعی بسازید که مانند افراد واقعی رفتار کنند، می‌توانید از آن‌ها برای آزمایش همه چیز استفاده کنید. از آزمایش در این مورد که چگونه مداخله در شبکه‌های اجتماعی با رواج اطلاعات نادرست مبارزه می‌کند تا تست این که چه رفتار‌هایی باعث ترافیک می‌شوند.تجسم آینده با هوش مصنوعی

اگر بتوانید یک دسته «خودتان» در اندازه کوچک داشته باشید و آن‌ها تصمیم‌هایی را بگیرند که اگر خودتان بودید، می‌گرفتید. این همان تجسم آینده است.

تفاوت عامل‌ های شبیه‌ سازی با عامل‌های مبتنی بر ابزار

چنین عامل‌ های شبیه‌ سازی کمی متفاوت از عامل‌ها یا agentهایی هستند که امروزه بر کار شرکت‌های پیشرو هوش مصنوعی تسلط دارند. آنها عامل‌های هوش مصنوعی مبتنی بر ابزار (tool-based agents) نام دارند. در واقع مدل‌هایی هستند که برای انجام کارها برای شما ساخته شده‌اند، نه اینکه با شما صحبت کنند. به عنوان مثال، آنها ممکن است داده‌ها را وارد کنند. اطلاعاتی را که در جایی ذخیره کرده‌اید، بازیابی کنند. برای شما سفر رزرو کنند و قرار ملاقات‌ها را برنامه‌ریزی کنند. به گفته بلومبرگ (Bloomberg)، Salesforce در ماه سپتامبر، و پس از آن Anthropic در ماه اکتبر عامل‌های مبتنی بر ابزار خود را معرفی کردند. OpenAI در نظر دارد عامل‌هایش را در ژانویه ۲۰۲۵ منتشر کند.

این دو نوع عامل متفاوت هستند، اما نقاط مشترکی هم دارند. جان هورتون (John Horton)، دانشیار فناوری اطلاعات در دانشکده مدیریت اسلون (Sloan) MIT، که شرکتی را برای انجام تحقیقات با استفاده از شرکت‌کنندگان شبیه‌سازی شده با هوش مصنوعی تأسیس کرد، می‌گوید: تحقیقات بر روی عامل‌ های شبیه‌ سازی، مانند مواردی که در این مقاله ارائه شده است، احتمالاً به طور کلی به ایجاد عامل‌های هوش مصنوعی قوی‌تر منجر می‌شود.

او اضافه کرد: «این مقاله نشان می‌دهد که چگونه می‌توانید نوعی ترکیب انجام دهید: از انسان‌های واقعی برای تولید شخصیت‌هایی استفاده کنید که می‌توانند به صورت برنامه‌نویسی/ شبیه‌سازی به روش‌هایی مورد استفاده قرار گیرند که با انسان‌های واقعی قابل اجرا نیستند.

این تحقیق با اخطارهایی همراه است و به خطرات چنین فناوری هم اشاره می‌کند. همان‌طور که فناوری تولید تصویر، دیپ‌فیک‌های مضر از افراد را بدون رضایت آنها ایجاد کرد، فناوری تولید عاملی هم در مورد سهولت ایجاد ابزارهایی برای شخصیت‌ دادن به دیگران به صورت آنلاین، مبهم و سوال‌برانگیز است. به‌خصوص این‌که ممکن است منجر به گفتن یا تأیید چیزهایی شود که افراد قصد گفتن آنها را نداشتند.

منبع: technologyreview

https://pvst.ir/k4s

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو