کمپینهای رفتاری جهت مصرف بهینه انرژی؛ استفاده بهینه با آگاهی
کمپینهای رفتاری با هدف افزایش آگاهی عمومی در مورد صرفهجویی انرژی در سطح جهانی از…
۱ آذر ۱۴۰۳
۱۰ مرداد ۱۴۰۲
زمان مطالعه : ۳ دقیقه
محققان هوش مصنوعی از کشف راه و روشهای بالقوه نامحدود جهت از بین بردن ساختار ایمنی چتباتهای مبتنی بر هوش مصنوعی محصول شرکتهای OpenAI، Google و Anthropic خبر دادهاند.
به گزارش پیوست، طبق مطالعات انجام شده، مدلهای زبانی بزرگی که ChatGPT، Bard و Anthropic’s Claude بر اساس آنها طراحی شده و توسعه داده میشوند به طور گسترده توسط شرکتهای فناوری مورد تعدیل قرار میگیرد. ساختار امنیتی این مدلها علاوهبر این که وسعت زیادی دارد به گونهای ساخته شده که این اطمینان حاصل شود از آنها در خلق و تولید برنامهها و ابزارهای آسیبزا مانند آموزش نحوه ساخت بمب یا نوشتن مطالبی با محوریت نفرتپراکنی استفاده نمیشود.
پیرو گزارشی که روز پنجشنبه(۲۷جولای) توسط محققان دانشگاه کارنگلی ملون در پیتسبرگ و مرکز ایمنی A.I در سانفرانسیسکو منتشر شده، راه و روشهایی برای دور زدن این ساختار ایمنی یافت شده است.
محققان دریافتهاند که میتوانند از روشهای مختلفی که از آنها برای توسعه فناوری متنباز بهره بردهاند برای هدف قرار دادن سیستمهای هوش مصنوعی جریان اصلی و بسته استفاده کنند.
این روشهای دور زنی سیستم امنیتی مدلهای زبانی، به صورت خودکار طراحی شده است و ممکن است موجب انجام حملات مشابه تقریبا نامحدودی شود.