اگرچه هوش مصنوعی هوشمندتر شده، اما هزینههای آن نیز افزایش یافتهاند
با وجود وعدههای اولیه مبنی بر اینکه هوش مصنوعی به زودی «آنقدر ارزان میشود که…
۸ شهریور ۱۴۰۴
۹ شهریور ۱۴۰۴
زمان مطالعه : ۸ دقیقه
ورود هوش مصنوعی به حوزههای نظامی و امنیتی، فصل تازهای از رقابت قدرتهای جهانی را رقم زده است. اگرچه سالهاست ابزارهای دیجیتال برای عملیات روانی، جنگ نرم و پروپاگاندا مورد استفاده قرار میگیرند، اما ظهور مدلهای زبانی و سامانههای هوش مصنوعی مولد، امکاناتی کاملا متفاوت را در اختیار نهادهای نظامی و دولتی قرار داده است. گزارشی از نشریه اینترسپت میگوید ایالات متحده در تلاش است تا از یادگیری ماشینی برای ترویج پروپاگاندا در خارج از مرزهای خود و جدال با رقبای خارجی از جمله چین و روسیه استفاده کند.
به گزارش پیوست، هرسه کشور در کنار بسیاری از دیگر دولتها سعی دارند تا با استفاده از هوش مصنوعی مولد و ابزارهای یادگیری ماشینی روایت خود را در فضای دیجیتال ترویج دهند. یکی از نمونههای روشن تلاشهای اخیر ایالات متحده را گزارش اینترسپت به فرماندهی عملیات ویژه آمریکا یا SOCOM نسبت میدهد که به دنبال استفاده از سامانههای مبتنی بر یادگیری ماشینی برای عملیاتهای نفوذ و پروپاگاندا است.
با این حال این گزارش تصریح میکند که نگرانیهای بسیاری درمورد تبعات استفاده از این فناوری و حتی بازدهی این کارزارها وجود دارد و پیش از این نمونههایی از تلاش ایالات متحده با استفاده از هوش مصنوعی (البته مربوط به پیش از ظهور ابزارهای مولد و در سال ۲۰۲۰) با شکست مواجه شده و باعث سرافکندی شدهاند. همچنین گزارشی از اوپنایآی در ماه مه ۲۰۲۴ میگوید فعالانی از ایران، چین و روسیه نیز برای کارزارهای نفوذ خود از هوش مصنوعی استفاده کردهاند، اما این تلاشها موفقیت چندانی را به همراه نداشتند.
طبق اسنادی که به تازگی توسط نشریه اینترسپت مورد بررسی قرار گرفتهاند، فرماندهی عملیات ویژه آمریکا بهدنبال توسعه سامانههای مبتنی بر یادگیری ماشین برای مدیریت عملیات نفوذ و پروپاگاندا در خارج از کشور است. این پروژه که با عنوان «پشتیبانی فناوری پیشرفته از عملیات پشتیبانی اطلاعات نظامی» یا MISO شناخته میشود با هدف بهرهگیری از سیستمهای هوش مصنوعی عاملمحور و مدلهای زبانی بزرگ طراحی شده تا نفوذ ایالات متحده را برای ترویج روایت حامی این کشور و مقابله با تلاشهای مشابه از سوی رقبا افزایش دهد.
فراندهی عملیات ویژه آمریکا در این سند تصریح میکند که «محیط اطلاعاتی با سرعتی بسیار بیشتر از توانایی نیروی انسانی در حال تغییر است» و به همین دلیل، SOCOM خواستار ایجاد سامانههایی است که بتوانند بهطور خودکار دادهها را جمعآوری، تحلیل و سپس پیامهایی هماهنگ با اهداف پروپاگاندا تولید و منتشر کنند. این نهاد همچنین خواستار همکاری با پیمانکارها برای دسترسی به فناوریهایی است که بتوانند اطلاعات مرجعی را برای تایید روایت مد نظر و مقابله با نظرات مخالف ارائه دهند.
نکته قابلتوجه اینجاست که این سامانهها قرار است توانایی «سرکوب استدلالهای مخالف» و «ایجاد محتوای مرجع برای حمایت از روایتهای مطلوب آمریکا» را داشته باشند.
اگرچه قوانین ایالات متحده استفاده از ابزارها و کارزارهای پروپاگاندا برای تاثیرگذاری بر شهروندان داخلی را منع میکند، اما ماهیت مرزناپذیر اینترنت باعث میشود تا کنترل دامنه انتشار این محتواها دشوار باشد و بدون شک محتوایی که حتی با هدف اثرگذاری و نمایش به فعالان خارجی طراحی میشود هم ممکن است به رویت شهروندان آمریکا رسیده و بر تصمیمات آنها اثر بگذارد.
علاوه بر این، تردیدهایی درمورد بازده استفاده از هوش مصنوعی در کارزارهای نفوذ وجود دارد. تمایل مدلهای بزرگزبانی به توهم و ارائه محتوای اشتباه و تایید پیشفرضهای پیشین کاربران باعث میشود تا این فناوری ابزار خطرناکی برای کارزارهای جنگ اطلاعات باشند و حتی باعث شکست این تلاشها در مورد اثرگذاری بر جمعیتهای خارجی شوند.
امرسون بروکینگ، از پژوهشگران ارشد آزمایشگاه Digital Forensic در شورای آتلانتیک، میگوید کارزارهای نفوذ آنلاین ممکن است به نتایج نا امیدکنندهای منجر شوند. او میگوید: «روسیه از برنامههیا هوش مصنوعی برای خودکارسازی عملیاتهای نفوذ خود استفاده کرده است اما این برنامه خیلی خوب نبوده است.»
از نظر او اگر فعالان امنیتی بخواهند وظیفه تسخیر قلب و اذهان یک کشور پیچیده و کمتر مطالعه شده را با تکیه سنگین به هوش مصنوعی دنبال کنند، این فناوری «احتمالا آنچه که میخواهند بشنوند را به آنها میگوید» و به همین دلیل بازدهی مناسبی برای این اهداف نخواهد داشت.
استفاده از پروپاگاندا توسط نهادهای امنیتی آمریکا موضوع جدیدی نیست. در سال ۲۰۲۴ خبرگزاری رویترز فاش کرد که پنتاگون یک کمپین پنهانی ضدواکسن را علیه واکسن کرونای ساخت چین رهبری کرده تا اعتماد عمومی مردم کشورهای آسیایی را به این واکسن تضعیف کند و از نفوذ چین در این منطقه بکاهد.
پیشتر نیز گزارشهایی منتشر شده بود که فرماندهی مرکزی آمریکا (CENTCOM) شبکهای از حسابهای جعلی در توییتر و فیسبوک برای انتشار مقالات ضدروسی و ضدایرانی ایجاد کرده است. اما این شبکه به دلیل عدم جذابیت و ناتوانی در جلب توجه کاربران، خیلی زود لو رفت و به یک آبروریزی برای واشنگتن بدل شد.
چین یکی از بازیگران جدی در زمینه استفاده از هوش مصنوعی برای جنگ اطلاعاتی است. نرمافزار GoLaxy، ساخته شرکت پکن تینکر، نمونه بارز تلاشهای اینچنین در دومین اقتصاد جهان است. این نرمافزار ابتدا برای بازی تختهای گو طراحی شده بود، بعدها با پیشرفت فناوری و تجهیز بیشتر به ابزاری برای ردیابی شبکههای اجتماعی و تولید پروپاگاندا تبدیل شد.
به گزارش نیویورک تایمز، GoLaxy قادر است محتواهای شبکههای اجتماعی را جمعآوری کرده و بر اساس تحلیل آنها کمپینهای تبلیغاتی سفارشی تولید کند. این ابزار پیشتر در هنگکنگ و تایوان برای تقویت مواضع دولت چین مورد استفاده قرار گرفته و حتی اطلاعاتی از اعضای کنگره آمریکا نیز جمعآوری کرده است.
کارشناسان امنیتی هشدار میدهند که GoLaxy میتواند بهسرعت پستهایی هماهنگ با روایتهای دولت چین تولید کند و با غلبه بر گفتوگوهای طبیعی کاربران، فضای مجازی را به تسخیر پروپاگاندا درآورد.
روسیه نیز از مدتها پیش به استفاده از ابزارهای دیجیتال در جنگ روانی و پروپاگاندا مشهور بوده است. از تلاش برای مداخله در انتخابات آمریکا در سال ۲۰۱۶ گرفته تا عملیاتهای گسترده در اروپا و اوکراین، کرملین نشان داده که مهارت ویژهای در بهرهگیری از فناوری برای ایجاد تفرقه و بیاعتمادی دارد.
گزارشهای نشان میدهد که روسیه در حال حاضر به استفاده از سامانههای هوش مصنوعی برای خودکارسازی عملیات نفوذ روی آورده است. با این حال، برخی کارشناسان معتقدند که کیفیت خروجی این سیستمها هنوز به اندازه کافی بالا نیست. بروکینگ معتقد است که تلاشهای روسیه برای استفاده از این فناوری در کارزارهای نفوذ خود موفقیت چندانی به همراه نداشته است.
هرچند کشورهای مختلف بهدنبال بهرهگیری از هوش مصنوعی در جنگ اطلاعات هستند، کارشناسان نسبت به خطرات و ناکارآمدی این روشها هشدار میدهند. مسائله مختلفی همچون خطاهای ذاتی مدلهای زبانی و امکان سو استفاده در مر کز این نگرانیها قرار دارند:
هیدی خلعف، پژوهشگر موسسه AI Now و مهندس امنیتی سابق شرکت اوپنایآی، نیز درمورد استفاده از ابزارهای هوش مصنوعی به تقلید از کشورهایی همچون چین و روسیه با تاکید بر الزام مقابله با تلاشهای خارجی هشدار داده و میگوید: «اینکه استفاده از هوش مصنوعی را صرفا پاسخی به اقدامات چین و روسیه معرفی کنیم، یک فریب است و از آنجایی که استفاده تهاجمی و دفاعی از این فناوری دو روی یک سکه هستند، آنها میتوانند درست به همان روش دشمنان از این فناوری استفاده کنند.»
در حالی که ایالات متحده، چین و روسیه هر سه بهطور فعال در حال توسعه سامانههای پروپاگاندای مبتنی بر هوش مصنوعی هستند، پرسش اصلی این است که آینده این رقابت به کجا خواهد انجامید؟ گزارش اینترسپت و اشاره این نشریه به اسناد فرماندهی عملیات ویژه آمریکا نشان می دهد که در آمریکا، تمرکز بر توسعه سامانههای عاملمحور برای هدایت کمپینهای سریع و دقیقتر است.
محور تلاشهای چین در جنگ اطلاعاتی را نیز طبق گزارش نیویورک تایمز میتوان ابزارهایی مانند GoLaxy برای ایجاد روایتهای حکومتی و کنترل افکار عمومی در داخل و خارج کشور توصیف کرد که به نظر دست بازتری در پیگیری فناوریهای اینچنین دارند.
در روسیه نیز، هرچند کیفیت خروجی پایینتر است، اما سابقه طولانی در جنگ اطلاعاتی نشان میدهد که این کشور همچنان بازیگری خطرناک در این حوزه است.
در نگاه کلی اما میتوان گفت جهان در آستانه ورود به عصر جدیدی از جنگ اطلاعاتی است؛ عصری که در آن مرز میان حقیقت و دروغ بیش از پیش مبهم خواهد شد و اگر نهادهای اطلاعاتی بزرگ بتوانند این ابزارها را با موفقیت در کارزارهای پروپاگاندای خود جای دهند دولتها قدرت پیدا میکنند تا بهتر از گذشته روایتهای مطلوب خود را با سرعت، مقیاس و هزینهای کمتر تولید و ترویج کنند.
با این حال که تجربههای گذشته نشان داده، کارآمدی این روشها تضمینشده نیست و خطر نتایج معکوس نیز بسیار زیاد است.