مدلهای زبانی بزرگ پر از آسیبپذیریهای امنیتی هستند، با وجود این، در مقیاس وسیع در محصولات فناوری تعبیه و جاسازی میشوند. این مدلهای زبانی مبتنی بر هوش مصنوعی که در حال حاضر از درخشانترین و هیجانانگیزترین موضوعات فناوری هستند، آماده ایجاد یک مشکل بزرگ جدید هم هستند: سوءاستفاده از آنها به طرز مضحکی آسان است و به عنوان ابزارهای قدرتمند فیشینگ یا کلاهبرداری کاربرد دارند. برای انجام این کار هیچ مهارت برنامهنویسیای لازم نیست. بدتر این است که هیچ راهحل شناختهشدهای هم برای حل این مشکل وجود ندارد. در این بین شرکتهای فناوری برای تعبیه این مدلهای زبانی در هزاران محصول کاربردی در حال رقابت هستند. هدف این است که به مردم کمک کنند کارها را بهراحتی انجام دهند؛ از رزرو سفرها گرفته تا سازماندهی تقویمهای کاری و یادداشتبرداری در جلسات. اما نحوه عملکرد این محصولات یعنی دریافت دستورالعمل از کاربران و سپس جستوجو در اینترنت برای یافتن پاسخ، خطرات جدیدی به دنبال دارد. با هوش مصنوعی میتوان از آنها برای انواع کارهای مخرب، از جمله افشای اطلاعات خصوصی افراد و کمک به مجرمان برای فیشینگ، هرزنامه (اسپم) و کلاهبرداری از افراد استفاده کرد. کارشناسان هشدار میدهند که ما به سمت یک «فاجعه» امنیت و حریم خصوصی پیش میرویم. در ادامه سه مسالهای را که مدلهای زبانی هوش مصنوعی را در معرض سوءاستفاده قرار میدهند با هم بررسی میکنیم: جیلبریک کردن (Jailbreaking) اصطلاح جیلبریک کردن به شکستن قفل امنیتی دستگاههای شرکت اپل اطلاق میشود. در هوش مصنوعی این اصطلاح کاربرد متفاوتی دارد. مدلهای زبانی هوش مصنوعی که چتباتهایی مانند ChatGPT ،Bard و Bing را تقویت میکنند، متنی را تولید میکنند که شبیه نوشتههای یک انسان است. آنها دستورها یا درخواستهای (prompts) کاربر را دنبال میکنند و سپس با پیشبینی کلمهای که به احتمال زیاد دنبال کلمه بعدی میآید، بر اساس دادههای آموزشی خود، به تولید جملات میپردازند. اما همین قابلیت...
شما وارد سایت نشدهاید. برای خواندن ادامه مطلب و ۵ مطلب دیگر از ماهنامه پیوست به صورت رایگان باید عضو سایت شوید.