عاملهای هوش مصنوعی و آنچه باید در مورد آنها بدانید
دنیای هوش مصنوعی پر از صحبت در مورد عامل های هوش مصنوعی (AI agents) یا…
۱۵ دی ۱۴۰۳
۱۳ دی ۱۴۰۳
زمان مطالعه : ۵ دقیقه
فناوران سالها است که درمورد خطرات احتمالی و جدی هوش مصنوعی برای آینده بشر هشدار میدهند. نگرانی برخی از فعالان فناوری به اندازهای بود که حتی نظریههای آخرالزمانی درمورد هوش مصنوعی مطرح شد و طیف دیگری نیز درمورد موضوعاتی مثل از بین بردن مشاغل و تاثیر آن بر درآمد مردم جهان هشدار دادهاند. با این حال تککرانچ در گزارشی به این مساله پرداخته است که چطور در سال ۲۰۲۴ به یک باره روایت اصلی فعالان فناوری و حتی رسانهها در این باره تغییر کرد و این مساله در کنار افزایش سرعت پیشرفت هوش مصنوعی، جیب بسیاری از فعالان را پرپولتر کرد.
به گزارش پیوست، در سال ۲۰۲۳ مساله خطرات آخرالزامی هوش مصنوعی و امنیت این فناوری از یک بحث خاص فعالان فناوری به تیتر یک رسانههای بزرگی مثل CNN و نیویورک تایمز تبدیل شد.
پس از عرضه ChatGPT در نوامبر ۲۰۲۲ و توجه گسترده کاربران و صنایع به فناوری هوش مصنوعی، سال ۲۰۲۳ هشدارهای مهمی را از چهرههای تاثیرگذار در این صنعت مشاهده کردیم. ایلان ماسک و بیش از یک هزار فناور و پژوهشگر در آن سال خواستار توقف توسعه هوش مصنوعی و آمادگی جهان برای خطرات جدی این فناوری شدند.
کمی پس از آن پژوهشگران ارشد اوپنایآی، گوگل و چندین مرکز مهم دیگر نامه سرگشادهای را امضا کردند که تصریح میکرد خطرات هوش مصنوعی برای انقراض بشر را باید جدی گرفت. جو بایدن، رئیس جمهور آمریکا، چند ماه بعد با امضای یک دستور اجرایی را با هدف محافظت از آمریکاییها در برابر هوش مصنوعی امضا کرد. در نوامبر ۲۰۲۳، هیات مدیره واحد عامالمنفعه شرکت اوپنایآی به یک باره سم آلتمن، مدیرعامل بخش سود محور را به دلیل عدم صداقت اخراج کردند و با اینکه آلتمن خیلی زود به جایگاه خود بازگشت و تمام اعضای آن هیات مدیره از شرکت خارج شدند، اما موجی از نگرانیها درمورد دلیل اصلی این اقدام شکل گرفت.
این تحولات و اظهارنگرانیها باعث شد تا برای مدتی بحث امنیت هوش مصنوعی به موضوع اصلی تبدیل شود و فناوران سیلیکونولی در اولویتهای بعدی قرار گیرند.
بسیاری از کارآفرینان سیلکیونولی نگران این رویکرد آخر الزمانی به هوش مصنوعی بودند و شرایط چندی بعد با موج جدیدی از اظهارنظرهای مثبت به نفع کارآفرینان تغییر کرد و جریان اصلی از دلواپسان و آخرالزمانیها فاصله گرفت.
مارک اندرسن، بنیانگذار شرکت سرمایهگذاری a16z، در پاسخ به این نگرانیها در ژوئن سال ۲۰۲۳ مقالهای با عنوان «چرا هوش مصنوعی جهان را نجات میدهد» منتشر کرد و در این مقاله ۷۰۰۰ کلمهای به تشریح یک دیدگاه مثبت از آینده این فناوری و اثرات آن پرداخت.
اندرسن مدعی شد که برای جلوگیری از خطرات احتمالی، استارتآپها و شرکتهای بزرگ فناوری باید بتوانند بدون موانع قانونی و یا با قوانین حداقلی به توسعه هرچه سریعتر هوش مصنوعی بپردازند تا این فناوری تنها در دستان چند شرکت و دولت محدود نشود و آمریکاییها توان رقابت با چین را داشته باشند.
البته که چنین رویکردی باعث میشود تا اهداف سرمایهگذاری a16z با یک نگاه مثبت به جذب سرمایه هرچه بیشتری بپردازند و رشد کنند. دیگر چهرههای سیلیکونولی از جمله ساتیا نادلا، مدیرعامل مایکروسافت، نیز با نگاهی مشابه خواستار عدم تنظیمگری تنظیمگری صنعت هوش مصنوعی شدند.
در نتیجه با وجود هشدارهای افرادی مثل ماسک، هوش مصنوعی بیشترین سرمایه را جذب خود کرد و توسعه با سرعت ادامه پیدا کرد. اوپنایآی، بزرگترین استارتآپ هوش مصنوعی جهان، در عین نگرانیها بخش مهمی از پژوهشگران بخش ایمنی خود را از دست داد و فرهنگ ایمنسازی جای خود را به توسعه داد.
قانون اجرایی دولت بایدن نیز در پایان سال و با پیروزی دونالد ترامپ در انتخابات که وعده لغو این دستور را داده بود، اهمیت خود را از دست داد.
شاید یکی دیگر از دلایل کاهش توجه به بحث امنیت و ایمنی را نیز بتوان فراگیر شدن ابزارهای هوش مصنوعی مولد دانست. کاربران در سالی که گذشت دیدند که این ابزارها تا چه اندازه با آن چشمانداز فرا انسانی و خطرناک فاصله دارند و اشتباهات سادهای از آنها سر میزند.
با این حال بخشی از ابزارهایی که به فیلمهای علمیتخیلی شبیه بودند در این سال در اختیار کاربران قرار گرفت. از جمله آنها میتوان به مولد ویدیو سورا از اوپنایآی و محصول مشابهی از گوگل و دیگر شرکتها اشاره کرد.
تلاشها برای تنظیمگری و جلوگیری از خطرات احتمالی در نهایت به قانونگذاری در ایالت کالیفرنیا، میزبان بزرگترین شرکتهای فناوری جهان، رسید.
یکی از مهمترین بحثهای سال ۲۰۲۴ درباره خطرات و تنظیمگری هوش مصنوعی به لایحهSB 1047 در کالیفرنیا مربوط میشد. این لایحه با حمایت دانشمندانی مانند جفری هینتون و یوشوا بنژیو، سعی داشت تا جامعه را در برابر خطرات انقراض جمعی و حملات سایبری برآمده از ابزارهای هوش مصنوعی محافظت کند.
با وجود تصویب این لایحه در مجلس قانونگذاران کالیفرنیا، گوین نیوسام، فرماندار کالیفرنیا این قانون را وتو کرد.
فعالان فناوری از جمله Y Combinator خواستار اعتراض بنیانگذاران و کارآفرینان جوان علیه این قانون شدند و با ادعاهایی که از نگاه بسیاری تفسیر اشتباه از لایحه پیشنهادی بود، آن را مانع نوآوری و حتی ابزاری برای زندانی کردن فناوران دانستند.
نیوسام با رد این قانون، تاثیر آن را بسیار گسترده تعریف کرد.
با این حال سیاستگذارانی که از SB 1047 حمایت کرده بودند میگویند شاید لایحه اصلاح شده دیگری برای رفع خطرات بلندمدت هوش مصنوعی در سال ۲۰۲۵ مجدد مطرح شود. سانی گاندی، معاون موسسه خیریه Encode و از حامیان این لایحه، میگوید این لایحه توانست آگاهی عمومی را درمورد خطرات بلندمدت هوش مصنوعی افزایش دهد و قانونگذاران بیشتری آماده رویارویی با این چالشهای پیچیده هستند.