skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

رقابت دولت‌ها برای استفاده از هوش مصنوعی در جنگ اطلاعاتی از فرماندهی عملیات ویژه در آمریکا تا ابزاری به نام GoLaxy در چین

۹ شهریور ۱۴۰۴

زمان مطالعه : ۸ دقیقه

ورود هوش مصنوعی به حوزه‌های نظامی و امنیتی، فصل تازه‌ای از رقابت قدرت‌های جهانی را رقم زده است. اگرچه سال‌هاست ابزارهای دیجیتال برای عملیات روانی، جنگ نرم و پروپاگاندا مورد استفاده قرار می‌گیرند، اما ظهور مدل‌های زبانی و سامانه‌های هوش مصنوعی مولد، امکاناتی کاملا متفاوت را در اختیار نهاد‌های نظامی و دولتی قرار داده است. گزارشی از نشریه اینترسپت می‌گوید ایالات متحده در تلاش است تا از یادگیری ماشینی برای ترویج پروپاگاندا در خارج از مرز‌های خود و جدال با رقبای خارجی از جمله چین و روسیه استفاده کند.

به گزارش پیوست، هرسه کشور در کنار بسیاری از دیگر دولت‌ها سعی دارند تا با استفاده از هوش مصنوعی مولد و ابزارهای یادگیری ماشینی روایت خود را در فضای دیجیتال ترویج دهند. یکی از نمونه‌های روشن تلاش‌های اخیر ایالات متحده را گزارش اینترسپت به فرماندهی عملیات ویژه آمریکا یا SOCOM نسبت می‌دهد که به دنبال استفاده از سامانه‌های مبتنی بر یادگیری ماشینی برای عملیات‌های نفوذ و پروپاگاندا است.

با این حال این گزارش تصریح می‌کند که نگرانی‌های بسیاری درمورد تبعات استفاده از این فناوری و حتی بازدهی این کارزارها وجود دارد و پیش از این نمونه‌هایی از تلاش ایالات متحده با استفاده از هوش مصنوعی (البته مربوط به پیش از ظهور ابزار‌های مولد و در سال ۲۰۲۰) با شکست مواجه شده و باعث سرافکندی شده‌اند. همچنین گزارشی از اوپن‌ای‌آی در ماه مه ۲۰۲۴ می‌گوید فعالانی از ایران، چین و روسیه نیز برای کارزارهای نفوذ خود از هوش مصنوعی استفاده‌ کرده‌اند، اما این تلاش‌ها موفقیت چندانی را به همراه نداشتند.

ایالات متحده و پروژه‌های جنگ اطلاعاتی

طبق اسنادی که به تازگی توسط نشریه اینترسپت مورد بررسی قرار گرفته‌اند، فرماندهی عملیات ویژه آمریکا به‌دنبال توسعه سامانه‌های مبتنی بر یادگیری ماشین برای مدیریت عملیات نفوذ و پروپاگاندا در خارج از کشور است. این پروژه که با عنوان «پشتیبانی فناوری پیشرفته از عملیات پشتیبانی اطلاعات نظامی» یا MISO  شناخته می‌شود با هدف بهره‌گیری از سیستم‌های هوش مصنوعی عامل‌محور و مدل‌های زبانی بزرگ طراحی شده تا نفوذ ایالات متحده را برای ترویج روایت حامی این کشور و مقابله با تلاش‌های مشابه از سوی رقبا افزایش دهد.

فراندهی عملیات ویژه آمریکا در این سند تصریح می‌کند که «محیط اطلاعاتی با سرعتی بسیار بیشتر از توانایی نیروی انسانی در حال تغییر است» و به همین دلیل، SOCOM خواستار ایجاد سامانه‌هایی است که بتوانند به‌طور خودکار داده‌ها را جمع‌آوری، تحلیل و سپس پیام‌هایی هماهنگ با اهداف پروپاگاندا تولید و منتشر کنند. این نهاد همچنین خواستار همکاری با پیمانکار‌ها برای دسترسی به فناوری‌هایی است که بتوانند اطلاعات مرجعی را برای تایید روایت مد نظر و مقابله با نظرات مخالف ارائه دهند.

نکته قابل‌توجه اینجاست که این سامانه‌ها قرار است توانایی «سرکوب استدلال‌های مخالف» و «ایجاد محتوای مرجع برای حمایت از روایت‌های مطلوب آمریکا» را داشته باشند.

اگرچه قوانین ایالات متحده استفاده از ابزارها و کارزارهای پروپاگاندا برای تاثیرگذاری بر شهروندان داخلی را منع می‌کند، اما ماهیت مرزناپذیر اینترنت باعث می‌شود تا کنترل دامنه انتشار این محتواها دشوار باشد و بدون شک محتوایی که حتی با هدف اثرگذاری و نمایش به فعالان خارجی طراحی می‌شود هم ممکن است به رویت شهروندان آمریکا رسیده و بر تصمیمات آنها اثر بگذارد.

علاوه بر این، تردید‌هایی درمورد بازده استفاده از هوش مصنوعی در کارزارهای نفوذ وجود دارد. تمایل مدل‌های بزرگ‌زبانی به توهم و ارائه محتوای اشتباه و تایید پیش‌فرض‌های پیشین کاربران باعث می‌شود تا این فناوری ابزار خطرناکی برای کارزارهای جنگ اطلاعات باشند و حتی باعث شکست این تلاش‌ها در مورد اثرگذاری بر جمعیت‌های خارجی شوند.

امرسون بروکینگ، از پژوهشگران ارشد آزمایشگاه Digital Forensic در شورای آتلانتیک، می‌گوید کارزارهای نفوذ آنلاین ممکن است به نتایج نا امیدکننده‌ای منجر شوند. او می‌گوید: «روسیه از برنامه‌هیا هوش مصنوعی برای خودکارسازی عملیات‌های نفوذ خود استفاده کرده است اما این برنامه خیلی خوب نبوده است.»

از نظر او اگر فعالان امنیتی بخواهند وظیفه تسخیر قلب و اذهان یک کشور پیچیده و کمتر مطالعه شده را با تکیه سنگین به هوش مصنوعی دنبال کنند، این فناوری «احتمالا آنچه که می‌خواهند بشنوند را به آنها می‌گوید» و به همین دلیل بازدهی مناسبی برای این اهداف نخواهد داشت.

سابقه آمریکا در استفاده از پروپاگاندا دیجیتال

استفاده از پروپاگاندا توسط نهادهای امنیتی آمریکا موضوع جدیدی نیست. در سال ۲۰۲۴ خبرگزاری رویترز فاش کرد که پنتاگون یک کمپین پنهانی ضدواکسن را علیه واکسن کرونای ساخت چین رهبری کرده تا اعتماد عمومی مردم کشور‌های آسیایی را به این واکسن تضعیف کند و از نفوذ چین در این منطقه بکاهد.

پیش‌تر نیز گزارش‌هایی منتشر شده بود که فرماندهی مرکزی آمریکا (CENTCOM) شبکه‌ای از حساب‌های جعلی در توییتر و فیسبوک برای انتشار مقالات ضدروسی و ضدایرانی ایجاد کرده است. اما این شبکه به دلیل عدم جذابیت و ناتوانی در جلب توجه کاربران، خیلی زود لو رفت و به یک آبروریزی برای واشنگتن بدل شد.

چین و هوش مصنوعی در خدمت پروپاگاندا

چین یکی از بازیگران جدی در زمینه استفاده از هوش مصنوعی برای جنگ اطلاعاتی است. نرم‌افزار GoLaxy، ساخته شرکت پکن تینکر، نمونه بارز تلاش‌های اینچنین در دومین اقتصاد جهان است. این نرم‌افزار ابتدا برای بازی تخته‌ای گو طراحی شده بود، بعدها با پیشرفت فناوری و تجهیز بیشتر به ابزاری برای ردیابی شبکه‌های اجتماعی و تولید پروپاگاندا تبدیل شد.

به گزارش نیویورک تایمز، GoLaxy قادر است محتواهای شبکه‌های اجتماعی را جمع‌آوری کرده و بر اساس تحلیل آن‌ها کمپین‌های تبلیغاتی سفارشی تولید کند. این ابزار پیش‌تر در هنگ‌کنگ و تایوان برای تقویت مواضع دولت چین مورد استفاده قرار گرفته و حتی اطلاعاتی از اعضای کنگره آمریکا نیز جمع‌آوری کرده است.

کارشناسان امنیتی هشدار می‌دهند که GoLaxy می‌تواند به‌سرعت پست‌هایی هماهنگ با روایت‌های دولت چین تولید کند و با غلبه بر گفت‌وگوهای طبیعی کاربران، فضای مجازی را به تسخیر پروپاگاندا درآورد.

روسیه و کمپین‌هایی با استفاده از هوش مصنوعی

روسیه نیز از مدت‌ها پیش به استفاده از ابزارهای دیجیتال در جنگ روانی و پروپاگاندا مشهور بوده است. از تلاش برای مداخله در انتخابات آمریکا در سال ۲۰۱۶ گرفته تا عملیات‌های گسترده در اروپا و اوکراین، کرملین نشان داده که مهارت ویژه‌ای در بهره‌گیری از فناوری برای ایجاد تفرقه و بی‌اعتمادی دارد.

گزارش‌های نشان می‌دهد که روسیه در حال حاضر به استفاده از سامانه‌های هوش مصنوعی برای خودکارسازی عملیات نفوذ روی آورده است. با این حال، برخی کارشناسان معتقدند که کیفیت خروجی این سیستم‌ها هنوز به اندازه کافی بالا نیست. بروکینگ معتقد است که تلاش‌های روسیه برای استفاده از این فناوری در کارزارهای نفوذ خود موفقیت چندانی به همراه نداشته است.

خطرات استفاده از هوش مصنوعی برای تاثیر بر فضای اطلاعاتی

هرچند کشورهای مختلف به‌دنبال بهره‌گیری از هوش مصنوعی در جنگ اطلاعات هستند، کارشناسان نسبت به خطرات و ناکارآمدی این روش‌ها هشدار می‌دهند. مسائله مختلفی همچون خطاهای ذاتی مدل‌های زبانی و امکان سو استفاده در مر کز این نگرانی‌ها قرار دارند:

  • خطای ذاتی مدل‌های زبانی: این مدل‌ها مستعد تولید اطلاعات نادرست یا حاوی سوگیری هستند و به همین دلیل ممکن است بیشتر از آنکه روایت مطلوب را تقویت کنند، باعث سردرگمی یا حتی رسوایی شوند.
  • پیامدهای اخلاقی و سیاسی: استفاده از ابزارهای هوش مصنوعی برای دستکاری افکار عمومی می‌تواند اعتماد به حقیقت و رسانه‌ها را به‌طور جدی تضعیف کند.
  • امکان سواستفاده معکوس: کارشناسان هشدار می‌دهند که استفاده از هوش مصنوعی برای جنگ اطلاعاتی خطرات تازه‌ای همچون احتمال نفوذ را به همراه دارد که در صورت وقوع به تولید و انتشار محتوای ناخواسته یا زیان‌باربرای اهداف کارزار منجر می‌شود.

هیدی خلعف، پژوهشگر موسسه AI Now و مهندس امنیتی سابق شرکت اوپن‌ای‌آی، نیز درمورد استفاده از ابزارهای هوش مصنوعی به تقلید از کشور‌هایی همچون چین و روسیه با تاکید بر الزام مقابله با تلاش‌های خارجی هشدار داده و می‌گوید: «اینکه استفاده از هوش مصنوعی را صرفا پاسخی به اقدامات چین و روسیه معرفی کنیم، یک فریب است و از آنجایی که استفاده تهاجمی و دفاعی از این فناوری دو روی یک سکه هستند، آنها می‌توانند درست به همان روش دشمنان از این فناوری استفاده کنند.»

تسلیحات هوشمند در فضای جنگ اطلاعاتی

در حالی که ایالات متحده، چین و روسیه هر سه به‌طور فعال در حال توسعه سامانه‌های پروپاگاندای مبتنی بر هوش مصنوعی هستند، پرسش اصلی این است که آینده این رقابت به کجا خواهد انجامید؟ گزارش اینترسپت و اشاره این نشریه به اسناد فرماندهی عملیات ویژه آمریکا نشان می دهد که در آمریکا، تمرکز بر توسعه سامانه‌های عامل‌محور برای هدایت کمپین‌های سریع و دقیق‌تر است.

محور تلاش‌های چین در جنگ اطلاعاتی را نیز طبق گزارش‌ نیویورک تایمز می‌‌توان ابزارهایی مانند GoLaxy برای ایجاد روایت‌های حکومتی و کنترل افکار عمومی در داخل و خارج کشور توصیف کرد که به نظر دست باز‌تری در پیگیری فناوری‌های اینچنین دارند.

در روسیه نیز، هرچند کیفیت خروجی پایین‌تر است، اما سابقه طولانی در جنگ اطلاعاتی نشان می‌دهد که این کشور همچنان بازیگری خطرناک در این حوزه است.

در نگاه کلی اما می‌توان گفت جهان در آستانه ورود به عصر جدیدی از جنگ اطلاعاتی است؛ عصری که در آن مرز میان حقیقت و دروغ بیش از پیش مبهم خواهد شد و اگر نهاد‌های اطلاعاتی بزرگ بتوانند این ابزارها را با موفقیت در کارزارهای پروپاگاندای خود جای دهند دولت‌ها قدرت پیدا می‌کنند تا بهتر از گذشته روایت‌های مطلوب خود را با سرعت، مقیاس و هزینه‌ای کم‌تر تولید و ترویج کنند.

با این حال که تجربه‌های گذشته نشان داده، کارآمدی این روش‌ها تضمین‌شده نیست و خطر نتایج معکوس نیز بسیار زیاد است.

 

https://pvst.ir/m76

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو