skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

بی‌احتیاطی کارمندان سامسونگ و درز اطلاعات حساس به ChatGPT

تحریریه پیوست

۱۹ فروردین ۱۴۰۲

زمان مطالعه : ۲ دقیقه

هوش مصنوعی با قابلیت‌های فراوان فضای کسب‌وکار را دگرگون کرده است و حتی میلیون‌ها فرصت شغلی را در معرض خطر قرار داده است. اما ارتباط کارمندان با ChatGPT، یکی از مشهورترین ابزارهای هوش مصنوعی، برای سامسونگ دردسرساز شد و اطلاعات حساس این غول کره‌ای را در معرض خطر قرار داد.

به گزارش پیوست، ChatGPT ابزاری مفید با قابلیت‌های فراوان برای سرعت بخشیدن به کارها است. یکی از کارکنان سامسونگ می‌گوید برای خلاصه‌سازی و نکته‌برداری از فایل یک جلسه، محتویات آن را در اختیار ChatGPT گذاشته است.

روبات هوشمند اوپن‌ای‌آی می‌تواند متون طولانی از جمله متن ثبت شده از جلسات مهم را برای شما خلاصه کرده و نکات اصلی آن را مشخص کند. اما خوب است بدانید هرگونه اطلاعاتی که در اختیار ChatGPT می‌گذارید برای آموزش این سیستم استفاده شده و شاید در آینده اطلاعات آن برای پاسخ به سوالات دیگر کاربران استفاده شود.

به نظر می‌رسد که کارمندان سامسونگ پیش از ارائه اطلاعات محرمانه شرکت به ChatGPT اطلاعی از این موضوع نداشتند.

براساس گزارش اکونومیست کره، درست پس از آنکه بخش نیمه‌رسانای سامسونگ اجازه استفاده از ChatGPT را به کارکنان خود داد، اطلاعات محرمانه این شرکت حداقل سه مرتبه به این چت‌بات درز کرده است. یکی از این کارکنان از چت‌بات خواسته تا کد منبع دیتابیس حساسی را برای پیدا کردن خطا‌ها بررسی کند، کارمند دیگری برای بهینه‌سازی کد از این چت‌بات استفاده کرده و یکی دیگر از کارکنان هم متن جلسه‌ای مهم را با ChatGPT به اشتراک گذاشته است.

براساس گزارش منتشر شده سامسونگ پس از اطلاع از این موضوع محدودیتی یک کیلوبایتی یا ۱۰۲۴ کاراکتری برای رابطه کارکنان با ChatGPT در نظر گرفته است. این شرکت می‌گوید در حال بررسی سه کارمند مذکور است و برای جلوگیری از اشتباهات آینده چت‌بات خاص خود را می‌سازد.

سیاست داده‌های ChatGPT تصریح می‌کند که اگر کاربر گزینه استفاده از داده‌های خود را غیرفعال نکند، این ابزار از داده‌های ارائه شده برای آموزش مدل‌های خود استفاده خواهد کرد. اوپن‌ای‌آی به روشنی از کاربران این چت‌بات خواسته تا از اشتراک‌گذاری اطلاعات حساس خودداری کنند زیرا «امکان حذف اطلاعات از تاریخچه وجود ندارد.» تنها راه حذف اطلاعات شناسایی فردی در ChatGPT هم حذف حساب کاربری است که فرایند آن تا ۴ هفته زمان می‌برد.

منبع: Engadget

https://pvst.ir/eka

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو