کنگره ملی خلق چین با محوریت هوش مصنوعی و حمایت از فناوریهای نوین برگذار شد
گزارشی از بلومبرگ میگوید نشست سالانه کنگره ملی خلق چین (NPC) امسال تحت تاثیر پیشرفتهای…
۲۵ اسفند ۱۴۰۳
۲۵ اسفند ۱۴۰۳
زمان مطالعه : ۶ دقیقه
موسسه ملی استانداردها و فناوری آمریکا (NIST) دستورالعملهای جدیدی را برای محققانی که با موسسه ایمنی هوش مصنوعی ایالات متحده (AISI) همکاری میکنند، صادر کرده است. گزارش مجله وایرد نشان میدهد که این دستورالعملهای جدید با تغییر رویکرد واضحی همراه هستند و دیگر عباراتی همچون «ایمنی هوش مصنوعی»، «هوش مصنوعی مسئولانه» و «عدالت هوش مصنوعی» را شامل نمیشوند. در عوض از فعالان و محققان خواسته شده تا برای «کاهش سوگیریهای ایدئولوژیک، بهمنظور کمک به شکوفایی انسان و رقابت اقتصادی» تلاش کنند.
به گزارش پیوست، این تغییرات به عنوان بخشی از یک توافقنامه جدید همکاری و تحقیق و توسعه برای اعضای کنسرسیوم AISI در اوایل ماه مارس ارسال شده است و بسیاری از پژوهشگران و فعالان را درمورد آینده این فناوری نگران کرده است.
موسسه ملی استانداردها پیش از این از محققان میخواست در جهت شناسایی و رفع رفتارهای تبعیضآمیز در مدلهای هوش مصنوعی، بهویژه در زمینههای جنسیت، نژاد، سن یا نابرابری اقتصادی به پژوهش بپردازند. چنین سوگیریهایی به دلیل تاثیرات بالقوه بر کاربران نهایی و بهطور خاص، اقلیتها و گروههای کمدرآمد، از اهمیت ویژهای برخوردار بودند.
با این حال گزارش وایرد نشان میدهد که در نسخه جدید، دیگر هیچ اشارهای به توسعه ابزارهایی برای «تایید محتوا و پیگیری منشا آن» یا «برچسبگذاری محتوای مصنوعی» را شاهد نیستیم. تغییری، که به وضوح از اهمیت پیگیری اطلاعات غلط و دیپفیکها میکاهد.
در عوض، در دستورالعملهای جدید بر اولویت جایگاه جهانی آمریکا در عرصه هوش مصنوعی تاکید شده است. در یکی از کارگروهها از محققان خواسته شده تا ابزارهایی برای «گسترش جایگاه جهانی آمریکا در زمینه هوش مصنوعی» توسعه دهند.
یکی از محققانی که با موسسه ایمنی هوش مصنوعی همکاری دارد و نخواسته نامش فاش شود، میگوید: «دولت ترامپ ایمنی، عدالت، اطلاعات وارونه و مسئولیتپذیری را از موضوعاتی که در هوش مصنوعی برای دولت اهمیت دارند حذف کرده است که به نظرم خود گویای شرایط است.»
این محقق معتقد است نادیده گرفتن این مسائل میتواند برای کاربران عادی زیانآور باشد و الگوریتمها در چنین شرایطی میتوانند بدون هیچ نظارتی تنها روی افزایش درآمد ترمکز کنند و مسائل جمعیتشناختی را نادیده بگیرند. او هشدار میدهد که با توجه به این تغییر، آینده بدتری در انتظار کاربران است. از نگاه او باید هوش مصنوعی غیرمنصفانه، تبعیضآمیز، ناامن و غیرمسئولانه را انتظار داشت.
یکی دیگر از پژوهشگرانی که در گذشته AISI همکاری کرده است نیز تغییر نگاه دولت ترامپ را وحشتناک توصیف میکند. او میگوید: «وحشتناک است. منظور از شکوفایی انسان چیست؟»
علاوه بر این گزارشها و تحقیقات نشان میدهند که چطور دولت در سایه ایلان ماسک نیز ممکن است بر جهتگیری این فناوری در آینده تاثیرگذار باشد.
ماسک، که اکنون رهبری یک تلاش جنجالی برای کاهش هزینههای دولتی و بوروکراسی را در کنار ترامپ برعهده دارد، مدلهای هوش مصنوعی تولید شده توسط اوپنایآی و گوگل را به شدت مورد انتقاد قرار داده است. او در فوریه سال گذشته، طی پستی در شبکه اجتماعی تحت مالکیتش (ایکس)، مدلهای هوش مصنوعی گوگل و اوپنایآی «نژادپرست» و «وُوک» توصیف کرد.
این در حالی است که تحقیقاتی از تاثیر سوگیری سیاسی بر هردو جناح سیاسی حکایت دارند و شبکه اجتماعی ایکس نیز به نظر از زمان روی کار آمدن ماسک در جهت طیف راست سیاسی سوگیری پیدا کرده است. بهعنوان مثال، یک مطالعه در مورد الگوریتم پیشنهاددهنده ایکس (توییتر سابق) در سال ۲۰۲۱ نشان میدهد که احتمال نمایش دیدگاههای متمایل به راست در این پلتفرم افزایش یافته است.
ماسک که مالکیت شرکت رقیب اوپنایآی و گوگل یا همان xAI را نیز در اختیار دارد، از ماه ژانویه به لطف اختیاراتی که از طریق دپارتمان بهرهوری دولت آمریکا از آنها بهرهمند شده است، فضایی خصمانه را نسبت فعالیتهای مغایر با اهداف دولت ترامپ ایجاد کرده است. برخی از بخشهای دولت آمریکا از جمله وزارت آموزش و پرورش به تازگی اسناد مربوط به تنوع، برابری و فراگیری (DEI) را بایگانی و حذف کردهاند. همچنین اداره تحت رهبری ماسک در هفتههای اخیر به NIST، سازمان مادر AISI، تاخته و دهها کارمند این اداره را اخراج کرده است.
استلا بیدرمن، مدیر اجرایی Eleuther، یک سازمان غیردولتی که با AISI همکاری دارد، میگوید: «این تغییرات تقریبا به طور مستقیما از کاخ سفید منشا میگیرند. دولت اهداف خود را بهوضوح اعلام کرده است[ و] برایم عجیب نیست که برای ادامه بقا، بازنویسی برنامه ضرورت داشت.»
علاوه بر این، دونالد ترامپ در ماه دسامبر، دیوید ساکس، یکی از همکاران قدیمی ماسک، را بهعنوان مشاور کاخ سفید در امور هوش مصنوعی و ارزهای دیجیتال منصوب کرد. هنوز مشخص نیست که آیا او یا کسی از کاخ سفید در تدوین دستورالعملهای جدید پژوهشی نقش داشتهاند و یا اینکه آیا این تغییر تاثیر بهسزایی بر عملکرد بیشتر پژوهشگران دارد یا خیر.
موسسه ایمنی هوش مصنوعی که براساس فرمان اجرایی دولت بایدن در اکتبر ۲۰۲۳ تاسیس شد، وظیفه داشت تا با مشکلات بالقوه ناشی از پیشرفتهای سریع هوش مصنوعی مقابله کند. یکی از اهداف اولیه این موسسه، بررسی احتمال استفاده از مدلهای هوش مصنوعی در حملات سایبری یا توسعه سلاحهای شیمیایی یا بیولوژیکی بود.
اما در دولت ترامپ شرایط تغییر کرد. ترامپ در ژانویه ۲۰۲۴ فرمان اجرایی جدیدی صادر کرد که فرمان پیشین بایدن را لغو اما موسسه ایمنی هوش مصنوعی را حفظ میکند. فرمان جدید ترامپ تصریح میکند که: «در راستای حفظ رهبری در این عرصه، باید سیستمهای هوش مصنوعی را به گونهای توسعه دهیم که از سوگیریهای ایدئولوژیک یا دستورهای مهندسی شده اجتماعی به دور باشند.»
تغییر رویکرد دولت ترامپ را میتوان در موارد دیگری نیز به وضوح مشاهده کرد. جی دی ونس، معاون رئیسجمهور آمریکا، در نشست هوش مصنوعی پاریس در ماه فوریه گفت دولت آمریکا در رقابت جهانی برای توسعه هوش مصنوعی، امنیت و ایمنی را اولویت خود قرار نمیدهد. او در ادامه گفت: «نمیتوان با نگرانی بیش از حد درمورد امنیت پیروز آینده هوش مصنوعی شد.» هیئت نمایندگی آمریکا در این رویداد هیچ فردی از موسسه ایمنی هوش مصنوعی را شامل نمیشد.
یکی از محققانی که تغییر در اولویتها را آسیبزا میداند، با هشدار درمورد سوگیری احتمالی تاکید کرد که بسیاری از محققان هوش مصنوعی برای حفظ جایگاه خود در مذاکرات سیاستگذاری، به سمت جمهوریخواهان و حامیان آنها متمایل شدهاند. او میگوید: «امیدوارم متوجه شوند که این افراد و حامیان شرکتی آنها ببرهای درندهای هستند که فقط به قدرت اهمیت میدهند.»