skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

کارکنان ارزان کنیا محتوای سمی ChatGPT را حذف می‌کنند

۳ بهمن ۱۴۰۱

زمان مطالعه : ۱۴ دقیقه

نقش کارکنان آفریقایی در ساخت ChatGPT

اوپن‌ای‌آی، برای حذف محتوایی سمی از ChatGPT، کارکنان کنیایی را با حقوق کمتر از ۲ دلار در ساعت به کار گرفته است. چت‌جی‌پی‌تی (ChatGPT) پس از عرضه در نوامبر ۲۰۲۲، به تکان‌دهنده‌ترین فناوری سال بدل شد و در کمتر از یک هفته تعداد کاربران این چت‌بات به بیش از یک میلیون نفر رسید.

این چت‌بات به لطف هوش مصنوعی (AI) قدرتمند خود در تمام زمینه‌ها و سبک‌ها تولید متن می‌کند. از بازنویسی غزل شکسپیر به سبک مگان دی استالین (رپر)، تا تشریح قضیه‌های پیچیده ریاضی به زبانی که حتی برای یک کودک پنج‌ساله هم قابل درک است.

گزارش‌ها نشان می‌دهد اوپن‌ای‌آی، شرکت سازنده ChatGPT، در حال مذاکره برای جذب سرمایه جدید است و ارزش آن حدود ۲۹ میلیارد دلار برآورد شده است. حتی مایکروسافت هم احتمالاً ۱۰ میلیارد دلار روی این شرکت سرمایه‌گذاری می‌کند. با این تفاصیل اوپن‌ای‌آی، که سال ۲۰۱۵ در سان‌فرانسیسکو و با هدف ساخت ماشین‌های فوق‌ هوشمند آغاز به کار کرد، یکی از ارزشمندترین شرکت‌های هوش‌ مصنوعی است.

حذف محتوای سمی

اما با بررسی مسیر موفقیت این شرکت به جایی دورتر از  مرزهای سیلیکون‌ولی می‌رسیم. بررسی‌های مجله تایم نشان می‌دهد اوپن‌ای‌آی، برای حذف محتوایی سمی از ChatGPT، کارکنان کنیایی را با حقوق کمتر از ۲ دلار در ساعت به کار گرفته است.

حذف محتوای سمی از باطن ChatGPT اهمیت بالایی برای این شرکت دارد. با اینکه GPT-3، نسل قبلی ChatGPT، مهارت بالایی در سر هم کردن جملات طولانی داشت، اما احتمال اظهارنظرهای خشونت‌آمیز، جنسیت‌زده و نژادپرستانه، مانع فراگیر شدن آن شد.

هوش مصنوعی با صدها میلیارد کلمه موجود در اینترنت آموزش می‌بیند و به همین دلیل است که چنین مشکلی را شاهد هستیم. با اینکه قدرت GPT-3 در همین حجم عظیم اطلاعات نهفته است، اما منبع قدرتش به نفرینی بدل شده است.

بخش‌هایی از اینترنت مملو از اظهارنظرهای سمی و تبعیض‌آمیز است و حذف آنها از پایگاه داده کار سختی است. حتی اگر صدها نفر به چنین کاری اختصاص داده شوند، انجام این کار به صورت دستی ده‌ها سال زمان می‌برد.

اوپن‌ای‌آی (OpenAI) تنها با ساخت یک مکانیسم امنیتی که خود از هوش مصنوعی استفاده کند می‌توانست از چنین آسیبی جلوگیری کند و چت‌بات مناسبی برای کارهای روزمره تولید کند.

این شرکت برای ساخت سیستم امنیتی از راهکاری استفاده کرد که شرکت‌های شبکه‌ اجتماعی از جمله فیس‌بوک به آن وابسته هستند. شبکه‌های اجتماعی پیش از این ثابت کرده‌اند که می‌توان یک هوش مصنوعی با قدرت شناسایی اظهارنظرهای سمی ساخت.

حذف محتوای سمی از ChatGPT یا به عبارت کلی‌تر از هوش مصنوعی کار پیچیده‌ای نیست: مثال‌های نشان‌گذاری‌شده‌ای از خشونت، نفرت‌پراکنی و سو‌ءاستفاده جنسی را به هوش مصنوعی تزریق کنید و ابزاری در اختیارش بگذارید تا مثال‌های مشابه را تشخیص دهد.

این شناساگر محتوای سمی در نهان ChatGPT جای گرفته و اظهارات سمی برآمده از داده‌های آموزشی را شناسایی و پیش از ارائه به کاربر آن را حذف می‌کند. این شناساگر می‌تواند در آینده به حذف محتوای سمی از پایگاه‌ داده‌ مدل‌های هوش مصنوعی نیز کمک کند.

پالایش روح کثیف اینترنت

اوپن‌ای‌آی از نوامبر سال ۲۰۲۱ برای نشانه‌گذاری متون هزاران متن را برای شرکتی در کنیا ارسال کرده است. بیشتر این نوشته‌ها از تاریک‌ترین پستوهای اینترنت استخراج شده‌اند. برخی از این متون شرایط زننده‌ای همچون سوءاستفاده جنسی از کودکان، وحشی‌گری، قتل، خودکشی، شکنجه، خودزنی و رابطه با محارم را شرح می‌دهند.

شرکتی که در کنیا به نشانه‌گذاری متون مشغول است به نام سما (Sama) معروف است و در واقع شرکتی در سان‌فرانسیسکو آمریکاست که کارکنانی از کنیا، اوگاندا و هند را برای نشانه‌گذاری اطلاعات شرکت‌های سیلیکون‌ولی از جمله گوگل، متا و مایکروسافت به کار می‌گیرد.

سما خود را به عنوان یک شرکت «هوش مصنوعی اخلاقی» معرفی می‌کند و ادعا می‌کند بیش از ۵۰ هزار نفر را از فقر خارج کرده است.

افرادی که در سما و به نیابت از اوپن‌ای‌آی به نشانه‌گذاری اطلاعات مشغول‌اند با توجه به سمت و عملکردشان بین ۱.۳۲ تا ۲ دلار در ساعت درآمد دارند. تایم برای این مقاله صدها صفحه از مستندات شرکت سما و اوپن‌ای‌آی، از جمله فیش‌ حقوقی را بررسی کرده و با چهار کارمندی که روی این پروژه با سما همکاری داشتند مصاحبه کرده است. تمام کارمندان به دلیل نگرانی از موقعیت‌شان تنها با شرط گمنامی تن به مصاحبه دادند.

سخنگوی اوپن‌ای‌آی در بیانیه‌ای استفاده از کارکنان کنیایی شرکت سما را در ساخت ابزاری برای شناسایی محتوای سمی که نهایتاً در ChatGPT از آن استفاده شده تایید کرد.

بر اساس این بیانیه، کارکنان کنیایی به حذف داده‌های سمی از داده‌های آموزشی ابزارهایی مثل ChatGPT کمک کرده‌اند. سخنگوی این شرکت می‌گوید: «ماموریت ما این است که اطمینان حاصل کنیم تمام بشریت از مزایای هوش مصنوعی عمومی نفع می‌برند و برای ساخت سیستم‌های هوش مصنوعی امن و مفید سخت مشغول کاریم تا این سیستم‌ها بتوانند محتوای تبعیض‌آمیز و خطرناک را شناسایی کنند. دسته‌بندی و فیلتر [متن و تصاویر] خطرناک گامی ضروری برای به حداقل رساندن محتوای خشن و جنسی موجود در داده‌های آموزشی و ساخت ابزارهایی است که محتوای خطرناک را شناسایی کند.»

حتی در نتیجه رکود اقتصادی که سرعت رشد تکنولوژی را کاهش داده است، سرمایه‌گذاران میلیارد‌ها دلار برای «هوش مصنوعی مولد» کنار گذاشته‌اند و اوپن‌ای‌آی پیشتاز بی چون و چرای این صنعت است.

سرمایه‌گذاران معتقدند متن، تصویر، ویدئو و صوت ساخته کامپیوتر نحوه کسب‌وکار بسیاری از صنایع را تغییر می‌دهد و بهره‌وری را در همه‌ جا، از هنرهای خلاق گرفته تا حقوق و برنامه‌نویسی، افزایش می‌دهد. اما شرایط کاری کسانی که به نشانه‌گذاری اطلاعات مشغول‌اند با این جو مثبت بسیار متفاوت است: هوش مصنوعی با وجود قدرت فراوانش معمولاً به نیروی کار پنهانی در جوامع فقیر وابسته است که حاصلش سوءاستفاده و آسیب است. با اینکه این نیروی کار پنهان بخشی از صنعتی چند میلیارد دلاری است، اما وضعیتش به شدت دشوار است.

یکی از کارکنان سما که وظیفه خواندن و نشانه‌گذاری متن برای اوپن‌ای‌آی را دارد در مصاحبه با تایم گفت نمی‌تواند تصویر زننده یکی از داستان‌های به شدت مبتذل را از ذهنش پاک کند. او می‌گوید: «مثل شکنجه بود، در هفته باید چند متن شبیه به این را بخوانید و تا پایان هفته تصورشان شما را آزار می‌دهد.» ماهیت دردناک این کار باعث شد سما در فوریه ۲۰۲۲ همکاری خود را با اوپن‌ای‌آی هشت ماه زودتر از قرار اصلی به پایان برساند.

قراردادهای سما

مستنداتی که تایم بررسی کرده نشان می‌دهد اوپن‌ای‌آی در اواخر سال ۲۰۲۱ سه قرارداد به ارزش حدود ۲۰۰ هزار دلار برای نشانه‌گذاری متون سوءاستفاده جنسی، نفرت‌پراکنی و خشونت با سما منعقد کرده است. حدود سه جین کارمند در سه تیم روی هر کدام از این موضوعات کار می‌کنند.

به گفته سه تن از کارکنان این شرکت که با تایم مصاحبه کرده‌اند، هر کدام از آنها باید ۱۵۰ تا ۲۵۰ صفحه متن را در هر ۹ ساعت مطالعه و نشانه‌گذاری کنند. هر کدام از این متون بین صد تا هزار کلمه هستند. تمام چهار کارمندی که با تایم مصاحبه کرده‌اند می‌گویند به ترس ذهنی دچار شده‌اند.

با اینکه کارمندان این شرکت در طول همکاری خود مشاور «سلامت» ملاقات می‌کنند، اما همگی معتقدند این جلسات فایده‌ای ندارد و حتی برای افزایش بهره‌وری کمتر چنین جلساتی برگزار می‌شود. به گفته دو تن از آنها، جلسات تنها به صورت گروهی برگزار می‌شوند و یکی از آنها می‌گوید مدیریت سما همیشه درخواست ملاقات تک‌نفره با مشاور را رد می‌کند.

با این حال یکی از سخنگویان سما در بیانیه‌ای اعلام کرده‌ این ادعا «نادرست» است. سخنگوی شرکت می‌گوید کارکنان همگی به جلسات فردی و گروهی با «تراپیست‌های متخصص و دارای مجوز سلامت ذهن» دسترسی داشته‌اند. او می‌گوید تراپیست‌ها همیشه در دسترس هستند.

بنا بر اطلاعات ذکرشده در قراردادها، اوپن‌ای‌آی برای هر ساعت کار به سما ۱۲.۵ دلار پرداخت می‌کند؛ ۶ تا ۹ برابر آن چیزی که کارکنان این پروژه دریافت کرده‌اند. به گفته سه تن از کارکنان سما، ماموران ارشد نشانه‌گذار‌ها که بیشتر افراد این سه تیم را تشکیل می‌دهند نیز ماهانه تنها ۲۱ هزار شیلینگ کنیا (۱۷۰ دلار) حقوق می‌گیرند. البته حدود ۷۰ دلار پاداش نیز به دلیل ماهیت دردناک کار پرداخت می‌شود و در ازای برآورده کردن سطحی از سرعت و دقت هم پاداشی به آنها تعلق می‌گیرد. به گفته یکی از ماموران که در شیفت‌های ۹ساعته کار می‌کند، او پس از پرداخت مالیات حداقل ۱.۳۲ دلار در ساعت نصیبش می‌شود که این مبلغ در صورت تیک زدن تمامی اهداف عملکردی به ۱.۴۴ دلار می‌رسد.

ناظران کیفی که رده بالاتری دارند و عملکرد ماموران را زیر نظر می‌گیرند هم در صورت برآورده کردن تمامی پیش‌نیازها ساعتی ۲ دلار نصیب‌شان می‌شود (در کنیا هیچ پایه حقوق مشخصی وجود ندارد اما در همان زمان حداقل حقوق مسئول پذیرش در شهر نایروبی ۱.۵۲ دلار در ساعت بوده است).

تهدید روانی پالایشگرها

سخنگوی سما در بیانیه‌ای اعلام کرده که از کارکنان خواسته شده در هر شیفت ۹ ساعته ۷۰ متن را نشانه‌گذاری کنند و خبری از سرحد ۲۵۰تایی نیست. همچنین پس از پرداخت مالیات بین ۱.۴۶ تا ۳.۷۴ دلار به کارکنان پرداخت می‌شود. سخنگوی سما مشخص نکرد بیشترین حقوق به کدام یک از کارکنان تعلق می‌گیرد. او می‌افزاید: «مبلغ ۱۲.۵ دلار در ساعت این پروژه، همه هزینه‌ها مثل زیرساخت، حقوق و مزایای همکاران و تحلیلگران و تیم رهبری را شامل می‌شود.»

سخنگوی اوپن‌ای‌آی در بیانیه‌ای اعلام کرد این شرکت حداقل کاری برای کارکنان مشخص نکرده است و مسئولیت مدیریت حقوق و سلامت ذهن کارکنان بر عهده شرکت سماست. این سخنگو ادامه می‌دهد: «ما سلامت ذهن کارکنان و پیمانکاران را بسیار جدی می‌گیریم. باور ما این بود که برنامه‌های سلامت [سما] به صورت مشاوره یک به یک انجام می‌شود، هیچ مجازاتی برای انصراف از یک کار وجود ندارد و محتوای مبتذل هم محدودیتی دارد و اطلاعات حساس در اختیار کارکنانی قرار می‌گیرد که برای این کار آموزش دیده باشند.»

در روند کار روزمره این شرکت، کارکنان گاهی با موضوعاتی روبه‌رو می‌شوند که نمی‌توان تفاوت ظریف موضوع را به ماشین آموزش داد. مستنداتی که به تایم رسیده نشان می‌دهد حداقل در یکی از موارد محققان اوپن‌ای‌آی و در رابطه با یک داستان مربوط به تجاوز پاسخ روشنی به سوال کارکنان نداده‌اند. اوپن‌ای‌آی از اظهارنظر در این باره خودداری کرده و کارمند سما نیز به درخواست مصاحبه پاسخی نداد.

فروپاشی رابطه اوپن‌ای‌آی با سما

رابطه سما و اوپن‌ای‌آی در فوریه سال ۲۰۲۲ به مدت کوتاهی و پیش از فروپاشی عمیق‌تر شد. در آن ماه، سما پیلوت یک پروژه جداگانه برای اوپن‌ای‌آی را آغاز کرد: جمع‌آوری تصاویر جنسی و خشن و ارائه آن به اوپن‌ای‌آی (در حالی که برخی از این تصاویر قوانین آمریکا را نقض می‌کرد). نشانه‌گذاری این تصاویر گویا ارتباطی با ChatGPT ندارد.

سخنگوی اوپن‌ای‌آی مشخص نکرد که هدف شرکت از جمع‌آوری این تصاویر چه بوده است اما گفت نشانه‌گذاری تصاویر خطرناک «گامی ضروری» برای امنیت ابزارهای هوش مصنوعی است. اوپن‌ای‌آی در زمینه ساخت تکنولوژی تولید تصویر نیز فعالیت دارد.

براساس یکی از مستنداتی که به دست تایم رسیده است، سما در ماه فوریه سال ۲۰۲۲ نمونه‌ای متشکل از ۱۴۰۰ تصویر را برای اوپن‌ای‌آی ارسال کرده است. برخی از این تصاویر در دسته «C4» که براساس دسته بندی اوپن‌ای‌آی به سو استفاده جنسی از کودکان مربوط است، قرار می‌گرفتند. در این تصاویر دسته‌های دیگری به نام‌های «C3» (شامل وحشی‌گری، تجاوز و برده‌داری جنسی) و «V3» شامل تصاویر زننده‌ای از مرگ، خشونت یا صدمه فیزیکی نیز گنجانده شده است. مستندات نشان می‌دهد که اوپن‌ای‌آی برای جمع‌آوری این تصاویر مجموعا ۷۸۷.۵۰ دلار به سما پرداخت کرده است.

اما به یکباره شرکت سما ظرف چند هفته تمام فعالیت‌های خود برای اوپن‌ای‌آی را ۶ ماه زودتر از پایان قرارداد متوقف کرد. این شرکت در بیانیه‌ای اعلام کرد که در قرارداد اوپن‌ای‌آی هیچ اشاره‌ای به محتوای غیرقانونی نشده بود و پس از آغاز کار اوپن‌ای‌آی، «درخواست‌های دیگری» در رابطه با «برخی دسته‌های غیرقانونی» ارائه کرده است.

یکی از سخنگویان سما گفت: «تیم آفریقای شرقی خیلی سریع در مورد این دستورات اظهار نگرانی کرد. سما فوراً پیلوت دسته‌بندی تصاویر را متوقف کرد و هشداری در مورد پایان تمام پروژه‌های دیگر اوپن‌ای‌آی ارسال کردیم. مشخص شد کسانی که با این مشتری در ارتباط بودند درخواست‌ها را از مجاری مناسب ارجاع نمی‌دادند. پس از بررسی شرایط، این افراد اخراج و سیاست‌ها و محافظت‌های تازه‌ای برقرار شد.»

اوپن‌ای‌آی طی بیانیه‌ای تایید کرد که ۱۴۰۰ تصویر «از جمله تصاویر C4، C3، C2، V3، V2 و V1 و موارد دیگر» را دریافت کرده است. این شرکت در بیانیه دیگری گفت: «ما بر اساس یک همکاری قبلی در جهت افزایش امنیت و جلوگیری از خروجی خطرناک با سما همکاری کردیم. هیچ‌گاه قصد جمع‌آوری محتوا دسته C4 را نداشتیم. برای آموزش فیلترها نیازی به این محتوا نداریم و دائماً در مورد اجتناب از چنین محتوایی به کارکنان توصیه می‌کردیم. درست زمانی که مطلع شدیم سما محتوایی در این دسته را جمع‌آوری کرده است، به روشنی اعلام کردیم که سوءتفاهمی شده و ما خواستار چنین محتوایی نیستیم و پس از اینکه از چنین سوءتفاهمی مطلع شدیم، هیچ محتوایی در این دسته را باز نکردیم و نمایش ندادیم. در نتیجه نمی‌توانیم ارتباط هیچ‌کدام از تصاویر با دسته C4 را تایید کنیم.»

با پایان یافتن همکاری سما و اوپن‌ای‌آی، کارکنان این شرکت دیگر مجبور به بررسی متن و تصاویر مبتذل نیستند اما امورشان به مشکل خورده است. کارکنان این شرکت در اواخر فوریه ۲۰۲۲ به جلسه‌ای با تیم منابع انسانی سما فرا خوانده شدند و خبر پایان همکاری به آنها منتقل شد. یکی از کارکنان پروژه نشانه‌گذاری می‌گوید: «به ما گفتند سما نمی‌خواهد کارکنان دوباره در معرض چنین محتوای خطرناکی قرار بگیرند. ما هم جواب دادیم که این راه امرار معاش ماست.» بیشتر کارمندان این بخش به بخش دیگری با حقوق پایین‌تر و بدون پاداش ۷۰ دلار برای محتوای مبتذل منتقل شدند؛ بقیه هم از کار بیکار شدند. سما آخرین بسته اطلاعاتی را در ماه مارس، یعنی هشت ماه پیش از موعد پایان قرارداد، به اوپن‌ای‌آی تحویل داد.

از آنجا که قراردادها زودتر از موعد لغو شدند، اوپن‌ای‌آی و سما هر دو تایید کردند که مبلغ ۲۰۰ هزار دلار به طور کامل پرداخت نشده است. اوپن‌ای‌آی می‌گوید ارزش قرارداد‌ها «در طول دوره همکاری بیش از ۱۵۰ هزار دلار بود».

به گفته کارکنان سما، مدیران دلیل دیگری را برای لغو قرارداد عنوان کرده‌اند. تایم در تاریخ ۱۴ فوریه مقاله‌ای با عنوان «داخل بیگارگاه آفریقایی فیس‌بوک» منتشر کرد. بررسی‌های این مقاله نشان داد سما چطور ناظران محتوایی را برای کاری شامل مشاهده تصاویر و ویدئو‌های اعدام، تجاوز و سوءاستفاده از کودکان، با حقوق ۱.۵۰ دلار در ساعت برای فیس‌بوک به کار گرفته است. برخی از کارکنان سما می‌گویند همین تفحص باعث شده سما همکاری خود را با اوپن‌ای‌آی متوقف کند (فیس‌بوک می‌گوید شرکای برون‌سپاری این شرکت ملزم به «پرداخت حقوق، پاداش و مزایای مناسب صنعتی» هستند).  

مکالمات داخلی سما پس از انتشار مقاله فیس‌بوک که به رویت تایم رسیده حاکی از بحران روابط عمومی این شرکت است. برای مثال یکی از زیرمجموعه‌های شرکت هواپیمایی لوفت‌هانزا از سما خواسته تا هرگونه نشانه ارتباط این دو شرکت را از وب‌سایت خود حذف کند. لوفت‌هانزا در بیانیه‌ای به مجله تایم این اتفاق را تایید کرد و افزود zeroG، زیرمجموعه این شرکت، به همکاری خود با سما پایان داده است. سه روز پس از انتشار بررسی‌های تایم در تاریخ ۱۷ فوریه ۲۰۲۲، وندی گنزالز مدیرعامل سما این پیام را برای مدیران ارشد خود ارسال کرد: «قرار است به کار اوپن‌ای‌آی پایان دهیم.»

سما در تاریخ ۱۰ ژانویه امسال (۲۰۲۳) پا را از آن هم فراتر گذاشت و تمامی فعالیت‌هایش در زمینه محتوای حساس را متوقف کرد. این شرکت می‌گوید قرارداد ۳.۹ میلیون دلاری نظارت بر محتوای فیس‌بوک را تمدید نمی‌کند و در نتیجه حدود ۲۰۰ جایگاه شغلی شهر نایروبی از بین می‌رود. این شرکت در بیانیه‌ای اعلام کرده است: «پس از صحبت‌های مکرر با تیم بین‌الملل، سما تصمیم گرفت از تمامی فعالیت‌های [پردازش زبان‌ طبیعی] و نظارت محتوا خارج شده و بر راه‌حل‌های تفسیر داده‌های دید کامپیوتری تمرکز کند. ما برای گذار به چنین شرایطی سال گذشته به همکاری با مشتریان پرداختیم و در مارس ۲۰۲۳ خروج‌مان کامل می‌شود.»

با این همه داده‌های هوش مصنوع همچنان نیاز به نشانه‌گذاری دارند. اندرو استریت، اخلاق‌شناس هوش مصنوعی، به تازگی در توییتر خود نوشت: «فوق‌العاده‌اند، اما ChatGPT و مدل‌های مولد دیگر جادویی نیستند- آنها به یک زنجیره عظیم نیروی کار انسانی و استخراج داده‌هایی وابسته هستند که نسبت داده نشده و بدون کسب رضایت استفاده می‌شوند. اینها مشکلاتی جدی و بنیادی است که اوپن‌ای‌آی توجهی به آنها ندارد.»

منبع: Time

https://pvst.ir/e0a

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو