skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

فناوری

علی خیرآبادی نویسنده میهمان

مسموم‌سازی داده‌ها امنیت هوش مصنوعی را به خطر انداخته است

علی خیرآبادی
نویسنده میهمان

۲۱ مهر ۱۴۰۳

زمان مطالعه : ۲ دقیقه

مسموم سازی داده ها

حملات مسموم سازی داده، به عنوان یکی از تهدیدات بزرگ امنیتی، امنیت سیستم‌های هوش مصنوعی را به‌شدت تحت تاثیر قرار داده است. داده‌های مسموم‌شده شامل اطلاعاتی هستند که به‌طور عمدی دستکاری یا تخریب شده‌اند تا مدل‌های هوش مصنوعی را به سمت تولید نتایج نادرست و خطرناک هدایت کنند.

به گزارش پیوست به نقل از نیسوس، حملات تخریب داده به‌عنوان یکی از خطرناک‌ترین تهدیدات امنیتی برای سیستم‌های هوش مصنوعی شناخته شده است. این حملات به مهاجمان اجازه می‌دهد تا داده‌های مخرب یا گمراه‌کننده را وارد مجموعه‌ داده‌های آموزشی کنند، که منجر به تولید نتایج اشتباه و آسیب‌پذیری در تصمیم‌گیری‌های کلیدی می‌شود.

طبق گزارش جدید شرکت نیسوس، حتی درصد کمی از داده‌های آلوده (مانند ۰.۰۰۱ درصد از داده‌های آموزشی) می‌تواند عملکرد هوش مصنوعی را مختل کند. این حملات می‌توانند تصمیم‌گیری‌های کلیدی را در بخش‌هایی مانند سلامت و امنیت ملی تحت تاثیر قرار دهند.

برای مثال، در سال ۲۰۱۶، فیلتر هرزنامه جی‌میل گوگل مورد حمله قرار گرفت. مهاجمان توانستند ایمیل‌های مخرب را با دور زدن فیلتر ارسال کنند. همچنین، چت‌بات Microsoft Tay پس از آلوده شدن با داده‌های مخرب، پاسخ‌های نامناسب و اشتباهی تولید کرد.

برای مقابله با این تهدیدات، نیسوس پیشنهاد می‌کند از تکنیک‌های پیشرفته‌تری مانند آموزش با نمونه‌های متخاصم، اعتبارسنجی داده‌ها و سیستم‌های شناسایی تهدید مبتنی بر هوش مصنوعی استفاده شود. همچنین، چارچوب‌های مقرراتی برای افزایش امنیت هوش مصنوعی ضروری است.

جوکر

استراتژی‌های کاهش حملات مسموم‌سازی داده‌ها

گزارش Nisos چندین استراتژی برای کاهش حملات مسموم‌سازی داده‌ها یا تخریب داده پیشنهاد می‌کند. یکی از مهم‌ترین راهکارها، پیاده‌سازی تکنیک‌های اعتبارسنجی و پاکسازی قوی داده است. راهکار دیگر، استفاده از نظارت مداوم و حسابرسی سیستم‌های هوش مصنوعی است.

این گزارش همچنین پیشنهاد می‌کند از آموزش نمونه‌های خصمانه برای بهبود تاب‌آوری مدل‌ها استفاده شود، منابع داده را متنوع کرد، شیوه‌های ایمن برای مدیریت داده‌ها به کار گرفت، و در برنامه‌های آگاهی‌بخشی و آموزشی کاربران سرمایه‌گذاری کرد.

توسعه‌دهندگان هوش مصنوعی باید منابع مجموعه داده‌ها را کنترل و تفکیک کرده و در دفاع‌های برنامه‌محور و سیستم‌های تشخیص تهدید مبتنی بر هوش مصنوعی سرمایه‌گذاری کنند.

منبع: WORLD TECH NEWS

https://pvst.ir/j5z

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو