وزیر ارتباطات: مدرنترین مراکز داده در مشهد افتتاح میشود
وزیر ارتباطات که به مشهد سفر کرده است، در بازدید از پروژه اَبر دولت از…
۳ آذر ۱۴۰۳
۱۸ مهر ۱۳۹۹
زمان مطالعه : ۵ دقیقه
مجرمان از یادگیری ماشینی برای شکستن سریع رمزها استفاده میکنند و بدافزارهای جدید میدانند چطور مخفی شوند.
به گزارش پیوست، برخی از متخصصان امنیت سایبری معتقدند که هوش مصنوعی میتواند ابزار دست مجرمان سایبری و هکرها قرار گیرد تا از طریق آن به سرعت رمزها را بشکنند و از آن بهرهبرداری کنند.
الهام طبسی رئیس آزمایشگاه تکنولوژی اطلاعات در موسسه ملی استاندارد و تکنولوژی میگوید:«مهاجمان سایبری میتوانند برای جلوگیری از شناسایی خود از هوش مصنوعی استفاده کنند و در جایی مخفی شوند که امکان یافتنشان وجود نداشته باشد و به صورت خودکار خود را با اقدامات دفاعی مطابقت دهند.»
تیم باندوس، رئیس امنیت اطلاعات در شرکت نرمافزاری دیجیتال گاردین نیز معتقد است که امنیت سایبری همیشه برای ساخت دفاع مناسب و جلوگیری از حملات به هوش انسانی نیاز دارد.به گفته او «هوش مصنوعی شخصیت دوم است و تحلیلگران امنیتی و شکارچیان خطر قهرمانان داستان هستند.»
به گفته طبسی بهترین مهاجمان گاهی اوقات دادههایی را هدف قرار میدهند که در مدلهای یادیگری ماشینی کاربرد دارند. مسوم سازی دادهها با هدف دستکاری دادههای مورد استفاده در آموزش هوش مصنوعی انجام میگیرد و مهاجم با دادههای اشتباه مدل یادگیری ماشینی را فریب داده و باعث عملکرد اشتباه میشود، برای مثال در حالتی که ایمیلهای مشکوک به عنوان محتوای سالم دسته بندی میشوند شاهد چنین پدیدهای هستیم.
طبسی معتقد است که ما دو نوع مسموم سازی داده داریم؛ حملاتی که دسترسی به الگوریتم یادگیری ماشینی را هدف قرار میدهند و حملاتی که به صحت و درستی این الگوریتم حمله میکنند. تحقیقات نشان میدهد که مسموم سازی ۳ درصدی در دادههای آموزشی باعث ۱۱ درصد کاهش دقت خواهد شد.
او اینگونه توضیح میدهد که مهاجم با حملههای مخفی میتواند دادههایی را بدون اطلاع طراح به الگوریتم اضافه کند. مهاجم همچنین با استفاده از راه مخفی سیستم یادیگری ماشینی را وادار به دسته بندی اشتباه میکند و در این حالت حتی اگر داده اشتباهی منتقل شود نیز سیستم آنرا در گروه دادههای سالم قرار میدهد.
طبسی میگوید که تکنیکهای مسموم سازی داده در هر مورد با دیگری متفاوت است.
به گفته او «داده، خون و سوخت یادگیری و ماشینی است و باید به دادههایی که برای آموزش مدلها استفاده میکنیم توجه زیادی داشته باشیم. کاربر تحت تاثیر مدل و کیفیت آموزش و همچنین دادههایی است که در این مدل قرار دارد.»
طبسی میگوید که این صنعت به استانداردها و دستورالعملهای مناسبی برای تضمین کیفیت داده نیاز دارد و موسسه ملی استاندارد و تکنولوژی به دنبال آن است که دستورالعملی ملی را برای رسیدن به هوش مصنوعی مطمئن فراهم کند، این دستورالعمل شامل ردههای بالا و پیشنیازهای فنی برای تضمین دقت، امنیت، تعادل، حریم خصوصی و توصیف پذیری خواهد بود.
شبکههای رقابت پویا (GAN) در واقع دو سیستم هوش مصنوعی هستند که در مقابل هم قرار میگیرد، در این حالت یکی از آنها محتوای اصلی را شبیه سازی میکند و دیگری اشتباهات آن را شناسایی میکند. دراثر رقابت این دو در کنار هم محتوایی را ایجاد میکنند که به اندازه محتوای اصلی متقاعد کننده خواهد بود و در واقع با آن مو نمیزند.
محققان شرکت انویدیا یک مدل ویژه هوش مصنوعی را برای بازسازی بازی پک-من آموزش دادند که بازسازی تنها با مشاهده چند ساعت از این بازی انجام گرفت.
به گفته باندوس مهاجمان از GANها برای تقلید الگوهای معمول ترافیک استفاده میکنند تا توجهی به مهاجمان جلب نشود و بتوانند دادههای حساس را به سرعت شناسایی و استخراج کنند.
او میگوید: «آنها به لطف این قابلیتها در ۳۰ تا ۴۰ دقیقه وارد و خارج میشوند. وقتی مهاجمان از هوش مصنوعی و یادگیری ماشینی استفاده میکنند میتوانند این کارها را به صورت خودکار انجام دهند».
در مقالهای به نام «شبکههای رقابت پویا: چه هستند و چرا باید از آنها ترسید» به نوشته توماس کلیمک گفته شده است که GANها برای شکستن رمز، جلوگیری از شناسایی بدافزار و فریب سیستمهای تشخیص چهره استفاده میشوند. محققان یک سیستم رمزگشایی GAN را با استفاده از لیست رمزعبورهای رایج در صنعت آموزش دادند و نهایتا این سیستم توانست بیشتر از هر ابزار دیگری رمز عبورهای مختلف را حدس بزند. GANها علاوه بر تولید داده میتوانند بدافزاری ایجاد کنند که قادر است خود را از سیستمهای شناسایی که با یادیگری ماشینی فعالیت میکنند مخفی کند.
البته به گفته باندوس الگوریتمهای هوش مصنوعی مورد استفاده در امنیت سایبری دائما آموزش داده میشوند تا روشهای تازه حمله را نیز شناسایی کنند. او میگوید: «همانطور که دشمنان تکامل پیدا میکنند ما نیز تکامل مییابیم.»
گرگ فاس استراتژیست ارشد در زمینه امنیت سایبری در شرکت VMware میگوید که اگر الگوریتمهای هوش مصنوعی تصمیماتی بگیرند، میتوان آنها را دستکاری کرده و وادار به تصمیم گیری اشتباه کرد.
او میگوید: «مهاجمان با درک این مدلها میتوانند از آنها سو استفاده کنند.» فاس برای توضیح بیشتر به مثالی از سیستم معاملات یک رمزارز اشاره میکند که توسط رباتها هدایت میشود.
او میگوید: «مهاجمان وارد شده و دریافتند که رباتها چطور معاملات را انجام میدهند و آنها از رباتهایی رای فریب الگوریتم موجود استفاده کردند. همین کار را میتوان در زمینهها و مثالهای دیگر نیز انجام داد».
به عقیده فاس این تکنیک موضوع تازهای نیست اما حالا الگوریتمها بیش از پیش در تصمیمگیری دخیل هستند و درنتیجه خطر تصمیمگیریهای اشتباه نیز از همیشه بیشتر شده است.
منبع: techrepublic