اوپنایآی احتمالا در آینده روی قابلیتهای توصیه پزشکی تمرکز میکند
سم آلتمن، مدیرعامل اوپنایآی، در مصاحبهای طولانی با بلومبرگ که متن آن امروز منتشر شده…
۱۷ دی ۱۴۰۳
۱۵ دی ۱۴۰۳
زمان مطالعه : ۶ دقیقه
دنیای هوش مصنوعی پر از صحبت در مورد عامل های هوش مصنوعی (AI agents) یا عاملیت هوش مصنوعی است. مایکروسافت اخیرا مجموعهای از عاملهای مستقل هوش مصنوعی را منتشر کرده است. این عاملیتها میتوانند به سادهسازی وظایف بخشهای خدمات مشتری، فروش و زنجیره تامین کمک کنند. به طور مشابه، OpenAI از Swarm، یک چارچوب آزمایشی برای بررسی هماهنگی بهتر میان سیستمهای چند عاملی (multi-agent systems)، رونمایی کرد.
در این مطلب در مورد نحوه کار عاملیت یا عامل های هوش مصنوعی صحبت میکنیم. بررسی خواهیم کرد که چرا مردم در مورد آنها هیجانزده میشوند و چه خطراتی دارند.
عدنان ایجاز (Adnan Ijaz)، مدیر محصول Amazon Q Developer، دستیار توسعه نرمافزار مبتنی بر هوش مصنوعی از خدمات وب آمازون (AWS) میگوید: « عامل های هوش مصنوعی، سیستمهای هوش مصنوعی پیشرفتهای هستند که توانایی تکمیل یک کار یا یک تصمیمگیری را دارند. انسانها هدف را تعیین میکنند و عاملها به تنهایی بهترین مسیر عمل را مشخص خواهند کرد.» این عاملها میتوانند برای انجام اقدامات در جهان با سیستمهای خارجی ارتباط برقرار کنند.
یون کیم (Yoon Kim)، استادیار آزمایشگاه علوم کامپیوتر و هوش مصنوعی MIT، میگوید: هوش مصنوعی عاملی(agentic AI) علاوه بر استقلال از انسان، این قابلیت را هم دارد که بازخورد دریافت کند و به طور مداوم در یک کار بهبود یابد.»
هوش مصنوعی عاملی را به عنوان نسخهای تواناتر از هوش مصنوعی مولد در نظر بگیرید. در حالی که هر دو فناوری به LLM به عنوان مدل اساسی خود متکی هستند، هوش مصنوعی مولد بر اساس الگوهایی که از دادههای آموزشی خود آموخته است، محتوای جدیدی ایجاد میکند. از طرف دیگر، سیستمهای عاملی نه تنها قادر به تولید محتوا هستند، بلکه میتوانند بر اساس اطلاعاتی که از محیط خود به دست میآورند، اقدام کنند. ایجاز میگوید: «بنابراین AI Agents اساساً یک گام فراتر از Generative AI است.»
عامل های هوش مصنوعی یا عاملیت هوش مصنوعی برای انجام یک وظیفه خاص، معمولاً یک گردش کار سه قسمتی را دنبال میکنند. ابتدا هدف را از طریق یک پرامپت (prompt) مشخص شده توسط کاربر تعیین میکنند. در مرحله بعد، با تقسیم کردن هدف کلی به وظایف فرعی کوچکتر و سادهتر و جمعآوری دادههای مورد نیاز، چگونگی نزدیک شدن به آن هدف را کشف میکنند. در نهایت، وظایف را با استفاده از دادههای موجود در پایگاه دانش خود به اضافه دادههایی که جمعآوری کردهاند، اجرا میکنند. آنها در این مسیر از هر کارکردی که میتوانند فراخوانی کنند یا ابزارهایی که در اختیار دارند، استفاده میکنند.
بیایید رزرو پرواز را به عنوان مثال در نظر بگیریم. یک پرامپت را به این صورت تصور کنیم که: «ارزانترین پرواز از A به B را در تاریخ Y رزرو کنید». یک عامل هوش مصنوعی ممکن است ابتدا تمام پروازهای A تا B را در تاریخ Y در اینترنت جستجو کند، نتایج جستجو را اسکن کند و ارزانترین پرواز را انتخاب کند. سپس تابعی را فراخوانی میکند که به رابط برنامهنویسی اپلیکیشن (API) پلتفرم رزرو پرواز شرکت هواپیمایی متصل میشود. عامل، یک رزرو برای پرواز انتخابی انجام میدهد و جزئیات اطلاعات کاربر را بر اساس اطلاعات ذخیره شده در پایگاه دانش خود وارد میکند.
ایجاز میگوید: «نکته کلیدی تعامل عاملی این است که سیستم بتواند هدفی را که شما میخواهید به آن برسید، درک کند و سپس به طور مستقل روی آن عمل کند. با این حال، انسانها هنوز در جریان کارها هستند، فرآیند را هدایت میکنند و حتی در صورت لزوم در آن مداخله میکنند. به عنوان مثال، ممکن است به عامل هوش مصنوعی رزرو پرواز دستور داده شود که در صورتی که ارزانترین پرواز، صندلی در دسترس نداشته باشد، به کاربر اطلاع دهد و به کاربر اجازه دهد در مورد مرحله بعدی تصمیم بگیرد. ایجاز میافزاید: «اگر در هر نقطهای از فرایند، انسانها متوجه شوند که سیستم در جهت درست پیش نمیرود، میتوانند آن را نادیده بگیرند و این کنترل را دارند.»
درست مانند هوش مصنوعی مولد، هوش مصنوعی عاملی وعدهی افزایش کارایی و بهرهوری را میدهد، البته فقط وظایف پیش پا افتادهای را انجام میدهد که برای یک انسان معمولی خستهکننده یا تکراری خواهد بود.
کیم میگوید: «اگر این سیستمها به اندازه کافی قابل اعتماد شوند، میتوانیم از عاملها بخواهیم تقویمی را برای شما ترتیب دهند یا از طرف شما رستورانهایی را رزرو کنند. یعنی کارهایی را انجام دهند که در غیر این صورت از دستیارتان میخواستید انجام دهد».
کلمه کلیدی در اینجا اعتماد است. یعنی حفظ حریم خصوصی و امنیت دادهها به عنوان چالشهای اصلی برای هوش مصنوعی عاملی مطرح هستند. ایجاز میگوید: «عاملها در حال بررسی حجم وسیعی از دادهها هستند. در مورد آن استدلال میکنند و این دادهها را جمعآوری میکنند. بنابراین مهم است که حریم خصوصی و حفاظهای امنیتی مناسبی اجرا شود.
به عنوان مثال، محققان دانشگاه سن دیگو کالیفرنیا و دانشگاه فناوری نانیانگ (Nanyang) در سنگاپور توانستند عامل های هوش مصنوعی را فریب دهند تا از ابزار نادرست استفاده کنند. آنها یک حمله پرامپت مخرب ایجاد کردند که چت کاربر را تجزیه و تحلیل میکند، اطلاعات هویتی شخصی او را استخراج میکند و آنها را به صورتی فرمت میکند که دادهها به سرور مهاجم نفوذ کند. این حمله روی دستیار مکالمه Le Chat مربوط به Mistral AI کار کرد. بنابراین محققان آسیبپذیری امنیتی این شرکت را فاش کردند که منجر به اصلاح محصول شد.
دقت واقعی مسئله دیگری برای عاملیت یا عامل های هوش مصنوعی است. زیرا آنها بر روی LLMهایی ساخته شدهاند که مشکل تشخیص نادرست دارند. کیم خاطرنشان میکند که اگرچه مطمئناً مطلوب نیست که یک عامل هوش مصنوعی اطلاعات اشتباهی در مورد پروازها به شما بدهد، ولی چنین اشتباهی احتمالاً فاجعهآمیز نخواهد بود. کیم میگوید: «حساسیت این بخش به اندازه استفاده از این نوع سیستمها در محیطهای درمانی یا مالی نیست. در این بخشها عدم دقت یا نرسیدن به خروجیها و اقدامات درست میتواند عواقب جدی داشته باشد.»
هوش مصنوعی عاملی هنوز در مراحل اولیه خود است و با تکامل عامل های هوش مصنوعی، امیدواریم زندگی مردم آسانتر و بهینهتر شود. اما همچنان لازم است برای خطرات احتمالی، احتیاط کنید. ایجاز میگوید: «این یک پیشرفت مهم است، بنابراین فکر میکنم تمام توجهی که به آن میشود، ضروری است.». « عاملهای AI برای انسانها ابزاری مانند اسلحه هستند و انسانها از این ابزارها به خوبی استفاده خواهند کرد. مشروط بر اینکه ما آن عاملها را به گونهای بسازیم که از شیوههای هوش مصنوعی مسئولانه پیروی کنند.»
منبع: spectrum.ieee