کمپینهای رفتاری جهت مصرف بهینه انرژی؛ استفاده بهینه با آگاهی
کمپینهای رفتاری با هدف افزایش آگاهی عمومی در مورد صرفهجویی انرژی در سطح جهانی از…
۱ آذر ۱۴۰۳
۳ بهمن ۱۴۰۱
زمان مطالعه : ۱۴ دقیقه
اوپنایآی، برای حذف محتوایی سمی از ChatGPT، کارکنان کنیایی را با حقوق کمتر از ۲ دلار در ساعت به کار گرفته است. چتجیپیتی (ChatGPT) پس از عرضه در نوامبر ۲۰۲۲، به تکاندهندهترین فناوری سال بدل شد و در کمتر از یک هفته تعداد کاربران این چتبات به بیش از یک میلیون نفر رسید.
این چتبات به لطف هوش مصنوعی (AI) قدرتمند خود در تمام زمینهها و سبکها تولید متن میکند. از بازنویسی غزل شکسپیر به سبک مگان دی استالین (رپر)، تا تشریح قضیههای پیچیده ریاضی به زبانی که حتی برای یک کودک پنجساله هم قابل درک است.
گزارشها نشان میدهد اوپنایآی، شرکت سازنده ChatGPT، در حال مذاکره برای جذب سرمایه جدید است و ارزش آن حدود ۲۹ میلیارد دلار برآورد شده است. حتی مایکروسافت هم احتمالاً ۱۰ میلیارد دلار روی این شرکت سرمایهگذاری میکند. با این تفاصیل اوپنایآی، که سال ۲۰۱۵ در سانفرانسیسکو و با هدف ساخت ماشینهای فوق هوشمند آغاز به کار کرد، یکی از ارزشمندترین شرکتهای هوش مصنوعی است.
اما با بررسی مسیر موفقیت این شرکت به جایی دورتر از مرزهای سیلیکونولی میرسیم. بررسیهای مجله تایم نشان میدهد اوپنایآی، برای حذف محتوایی سمی از ChatGPT، کارکنان کنیایی را با حقوق کمتر از ۲ دلار در ساعت به کار گرفته است.
حذف محتوای سمی از باطن ChatGPT اهمیت بالایی برای این شرکت دارد. با اینکه GPT-3، نسل قبلی ChatGPT، مهارت بالایی در سر هم کردن جملات طولانی داشت، اما احتمال اظهارنظرهای خشونتآمیز، جنسیتزده و نژادپرستانه، مانع فراگیر شدن آن شد.
هوش مصنوعی با صدها میلیارد کلمه موجود در اینترنت آموزش میبیند و به همین دلیل است که چنین مشکلی را شاهد هستیم. با اینکه قدرت GPT-3 در همین حجم عظیم اطلاعات نهفته است، اما منبع قدرتش به نفرینی بدل شده است.
بخشهایی از اینترنت مملو از اظهارنظرهای سمی و تبعیضآمیز است و حذف آنها از پایگاه داده کار سختی است. حتی اگر صدها نفر به چنین کاری اختصاص داده شوند، انجام این کار به صورت دستی دهها سال زمان میبرد.
اوپنایآی (OpenAI) تنها با ساخت یک مکانیسم امنیتی که خود از هوش مصنوعی استفاده کند میتوانست از چنین آسیبی جلوگیری کند و چتبات مناسبی برای کارهای روزمره تولید کند.
این شرکت برای ساخت سیستم امنیتی از راهکاری استفاده کرد که شرکتهای شبکه اجتماعی از جمله فیسبوک به آن وابسته هستند. شبکههای اجتماعی پیش از این ثابت کردهاند که میتوان یک هوش مصنوعی با قدرت شناسایی اظهارنظرهای سمی ساخت.
حذف محتوای سمی از ChatGPT یا به عبارت کلیتر از هوش مصنوعی کار پیچیدهای نیست: مثالهای نشانگذاریشدهای از خشونت، نفرتپراکنی و سوءاستفاده جنسی را به هوش مصنوعی تزریق کنید و ابزاری در اختیارش بگذارید تا مثالهای مشابه را تشخیص دهد.
این شناساگر محتوای سمی در نهان ChatGPT جای گرفته و اظهارات سمی برآمده از دادههای آموزشی را شناسایی و پیش از ارائه به کاربر آن را حذف میکند. این شناساگر میتواند در آینده به حذف محتوای سمی از پایگاه داده مدلهای هوش مصنوعی نیز کمک کند.
اوپنایآی از نوامبر سال ۲۰۲۱ برای نشانهگذاری متون هزاران متن را برای شرکتی در کنیا ارسال کرده است. بیشتر این نوشتهها از تاریکترین پستوهای اینترنت استخراج شدهاند. برخی از این متون شرایط زنندهای همچون سوءاستفاده جنسی از کودکان، وحشیگری، قتل، خودکشی، شکنجه، خودزنی و رابطه با محارم را شرح میدهند.
شرکتی که در کنیا به نشانهگذاری متون مشغول است به نام سما (Sama) معروف است و در واقع شرکتی در سانفرانسیسکو آمریکاست که کارکنانی از کنیا، اوگاندا و هند را برای نشانهگذاری اطلاعات شرکتهای سیلیکونولی از جمله گوگل، متا و مایکروسافت به کار میگیرد.
سما خود را به عنوان یک شرکت «هوش مصنوعی اخلاقی» معرفی میکند و ادعا میکند بیش از ۵۰ هزار نفر را از فقر خارج کرده است.
افرادی که در سما و به نیابت از اوپنایآی به نشانهگذاری اطلاعات مشغولاند با توجه به سمت و عملکردشان بین ۱.۳۲ تا ۲ دلار در ساعت درآمد دارند. تایم برای این مقاله صدها صفحه از مستندات شرکت سما و اوپنایآی، از جمله فیش حقوقی را بررسی کرده و با چهار کارمندی که روی این پروژه با سما همکاری داشتند مصاحبه کرده است. تمام کارمندان به دلیل نگرانی از موقعیتشان تنها با شرط گمنامی تن به مصاحبه دادند.
سخنگوی اوپنایآی در بیانیهای استفاده از کارکنان کنیایی شرکت سما را در ساخت ابزاری برای شناسایی محتوای سمی که نهایتاً در ChatGPT از آن استفاده شده تایید کرد.
بر اساس این بیانیه، کارکنان کنیایی به حذف دادههای سمی از دادههای آموزشی ابزارهایی مثل ChatGPT کمک کردهاند. سخنگوی این شرکت میگوید: «ماموریت ما این است که اطمینان حاصل کنیم تمام بشریت از مزایای هوش مصنوعی عمومی نفع میبرند و برای ساخت سیستمهای هوش مصنوعی امن و مفید سخت مشغول کاریم تا این سیستمها بتوانند محتوای تبعیضآمیز و خطرناک را شناسایی کنند. دستهبندی و فیلتر [متن و تصاویر] خطرناک گامی ضروری برای به حداقل رساندن محتوای خشن و جنسی موجود در دادههای آموزشی و ساخت ابزارهایی است که محتوای خطرناک را شناسایی کند.»
حتی در نتیجه رکود اقتصادی که سرعت رشد تکنولوژی را کاهش داده است، سرمایهگذاران میلیاردها دلار برای «هوش مصنوعی مولد» کنار گذاشتهاند و اوپنایآی پیشتاز بی چون و چرای این صنعت است.
سرمایهگذاران معتقدند متن، تصویر، ویدئو و صوت ساخته کامپیوتر نحوه کسبوکار بسیاری از صنایع را تغییر میدهد و بهرهوری را در همه جا، از هنرهای خلاق گرفته تا حقوق و برنامهنویسی، افزایش میدهد. اما شرایط کاری کسانی که به نشانهگذاری اطلاعات مشغولاند با این جو مثبت بسیار متفاوت است: هوش مصنوعی با وجود قدرت فراوانش معمولاً به نیروی کار پنهانی در جوامع فقیر وابسته است که حاصلش سوءاستفاده و آسیب است. با اینکه این نیروی کار پنهان بخشی از صنعتی چند میلیارد دلاری است، اما وضعیتش به شدت دشوار است.
یکی از کارکنان سما که وظیفه خواندن و نشانهگذاری متن برای اوپنایآی را دارد در مصاحبه با تایم گفت نمیتواند تصویر زننده یکی از داستانهای به شدت مبتذل را از ذهنش پاک کند. او میگوید: «مثل شکنجه بود، در هفته باید چند متن شبیه به این را بخوانید و تا پایان هفته تصورشان شما را آزار میدهد.» ماهیت دردناک این کار باعث شد سما در فوریه ۲۰۲۲ همکاری خود را با اوپنایآی هشت ماه زودتر از قرار اصلی به پایان برساند.
مستنداتی که تایم بررسی کرده نشان میدهد اوپنایآی در اواخر سال ۲۰۲۱ سه قرارداد به ارزش حدود ۲۰۰ هزار دلار برای نشانهگذاری متون سوءاستفاده جنسی، نفرتپراکنی و خشونت با سما منعقد کرده است. حدود سه جین کارمند در سه تیم روی هر کدام از این موضوعات کار میکنند.
به گفته سه تن از کارکنان این شرکت که با تایم مصاحبه کردهاند، هر کدام از آنها باید ۱۵۰ تا ۲۵۰ صفحه متن را در هر ۹ ساعت مطالعه و نشانهگذاری کنند. هر کدام از این متون بین صد تا هزار کلمه هستند. تمام چهار کارمندی که با تایم مصاحبه کردهاند میگویند به ترس ذهنی دچار شدهاند.
با اینکه کارمندان این شرکت در طول همکاری خود مشاور «سلامت» ملاقات میکنند، اما همگی معتقدند این جلسات فایدهای ندارد و حتی برای افزایش بهرهوری کمتر چنین جلساتی برگزار میشود. به گفته دو تن از آنها، جلسات تنها به صورت گروهی برگزار میشوند و یکی از آنها میگوید مدیریت سما همیشه درخواست ملاقات تکنفره با مشاور را رد میکند.
با این حال یکی از سخنگویان سما در بیانیهای اعلام کرده این ادعا «نادرست» است. سخنگوی شرکت میگوید کارکنان همگی به جلسات فردی و گروهی با «تراپیستهای متخصص و دارای مجوز سلامت ذهن» دسترسی داشتهاند. او میگوید تراپیستها همیشه در دسترس هستند.
بنا بر اطلاعات ذکرشده در قراردادها، اوپنایآی برای هر ساعت کار به سما ۱۲.۵ دلار پرداخت میکند؛ ۶ تا ۹ برابر آن چیزی که کارکنان این پروژه دریافت کردهاند. به گفته سه تن از کارکنان سما، ماموران ارشد نشانهگذارها که بیشتر افراد این سه تیم را تشکیل میدهند نیز ماهانه تنها ۲۱ هزار شیلینگ کنیا (۱۷۰ دلار) حقوق میگیرند. البته حدود ۷۰ دلار پاداش نیز به دلیل ماهیت دردناک کار پرداخت میشود و در ازای برآورده کردن سطحی از سرعت و دقت هم پاداشی به آنها تعلق میگیرد. به گفته یکی از ماموران که در شیفتهای ۹ساعته کار میکند، او پس از پرداخت مالیات حداقل ۱.۳۲ دلار در ساعت نصیبش میشود که این مبلغ در صورت تیک زدن تمامی اهداف عملکردی به ۱.۴۴ دلار میرسد.
ناظران کیفی که رده بالاتری دارند و عملکرد ماموران را زیر نظر میگیرند هم در صورت برآورده کردن تمامی پیشنیازها ساعتی ۲ دلار نصیبشان میشود (در کنیا هیچ پایه حقوق مشخصی وجود ندارد اما در همان زمان حداقل حقوق مسئول پذیرش در شهر نایروبی ۱.۵۲ دلار در ساعت بوده است).
سخنگوی سما در بیانیهای اعلام کرده که از کارکنان خواسته شده در هر شیفت ۹ ساعته ۷۰ متن را نشانهگذاری کنند و خبری از سرحد ۲۵۰تایی نیست. همچنین پس از پرداخت مالیات بین ۱.۴۶ تا ۳.۷۴ دلار به کارکنان پرداخت میشود. سخنگوی سما مشخص نکرد بیشترین حقوق به کدام یک از کارکنان تعلق میگیرد. او میافزاید: «مبلغ ۱۲.۵ دلار در ساعت این پروژه، همه هزینهها مثل زیرساخت، حقوق و مزایای همکاران و تحلیلگران و تیم رهبری را شامل میشود.»
سخنگوی اوپنایآی در بیانیهای اعلام کرد این شرکت حداقل کاری برای کارکنان مشخص نکرده است و مسئولیت مدیریت حقوق و سلامت ذهن کارکنان بر عهده شرکت سماست. این سخنگو ادامه میدهد: «ما سلامت ذهن کارکنان و پیمانکاران را بسیار جدی میگیریم. باور ما این بود که برنامههای سلامت [سما] به صورت مشاوره یک به یک انجام میشود، هیچ مجازاتی برای انصراف از یک کار وجود ندارد و محتوای مبتذل هم محدودیتی دارد و اطلاعات حساس در اختیار کارکنانی قرار میگیرد که برای این کار آموزش دیده باشند.»
در روند کار روزمره این شرکت، کارکنان گاهی با موضوعاتی روبهرو میشوند که نمیتوان تفاوت ظریف موضوع را به ماشین آموزش داد. مستنداتی که به تایم رسیده نشان میدهد حداقل در یکی از موارد محققان اوپنایآی و در رابطه با یک داستان مربوط به تجاوز پاسخ روشنی به سوال کارکنان ندادهاند. اوپنایآی از اظهارنظر در این باره خودداری کرده و کارمند سما نیز به درخواست مصاحبه پاسخی نداد.
رابطه سما و اوپنایآی در فوریه سال ۲۰۲۲ به مدت کوتاهی و پیش از فروپاشی عمیقتر شد. در آن ماه، سما پیلوت یک پروژه جداگانه برای اوپنایآی را آغاز کرد: جمعآوری تصاویر جنسی و خشن و ارائه آن به اوپنایآی (در حالی که برخی از این تصاویر قوانین آمریکا را نقض میکرد). نشانهگذاری این تصاویر گویا ارتباطی با ChatGPT ندارد.
سخنگوی اوپنایآی مشخص نکرد که هدف شرکت از جمعآوری این تصاویر چه بوده است اما گفت نشانهگذاری تصاویر خطرناک «گامی ضروری» برای امنیت ابزارهای هوش مصنوعی است. اوپنایآی در زمینه ساخت تکنولوژی تولید تصویر نیز فعالیت دارد.
براساس یکی از مستنداتی که به دست تایم رسیده است، سما در ماه فوریه سال ۲۰۲۲ نمونهای متشکل از ۱۴۰۰ تصویر را برای اوپنایآی ارسال کرده است. برخی از این تصاویر در دسته «C4» که براساس دسته بندی اوپنایآی به سو استفاده جنسی از کودکان مربوط است، قرار میگرفتند. در این تصاویر دستههای دیگری به نامهای «C3» (شامل وحشیگری، تجاوز و بردهداری جنسی) و «V3» شامل تصاویر زنندهای از مرگ، خشونت یا صدمه فیزیکی نیز گنجانده شده است. مستندات نشان میدهد که اوپنایآی برای جمعآوری این تصاویر مجموعا ۷۸۷.۵۰ دلار به سما پرداخت کرده است.
اما به یکباره شرکت سما ظرف چند هفته تمام فعالیتهای خود برای اوپنایآی را ۶ ماه زودتر از پایان قرارداد متوقف کرد. این شرکت در بیانیهای اعلام کرد که در قرارداد اوپنایآی هیچ اشارهای به محتوای غیرقانونی نشده بود و پس از آغاز کار اوپنایآی، «درخواستهای دیگری» در رابطه با «برخی دستههای غیرقانونی» ارائه کرده است.
یکی از سخنگویان سما گفت: «تیم آفریقای شرقی خیلی سریع در مورد این دستورات اظهار نگرانی کرد. سما فوراً پیلوت دستهبندی تصاویر را متوقف کرد و هشداری در مورد پایان تمام پروژههای دیگر اوپنایآی ارسال کردیم. مشخص شد کسانی که با این مشتری در ارتباط بودند درخواستها را از مجاری مناسب ارجاع نمیدادند. پس از بررسی شرایط، این افراد اخراج و سیاستها و محافظتهای تازهای برقرار شد.»
اوپنایآی طی بیانیهای تایید کرد که ۱۴۰۰ تصویر «از جمله تصاویر C4، C3، C2، V3، V2 و V1 و موارد دیگر» را دریافت کرده است. این شرکت در بیانیه دیگری گفت: «ما بر اساس یک همکاری قبلی در جهت افزایش امنیت و جلوگیری از خروجی خطرناک با سما همکاری کردیم. هیچگاه قصد جمعآوری محتوا دسته C4 را نداشتیم. برای آموزش فیلترها نیازی به این محتوا نداریم و دائماً در مورد اجتناب از چنین محتوایی به کارکنان توصیه میکردیم. درست زمانی که مطلع شدیم سما محتوایی در این دسته را جمعآوری کرده است، به روشنی اعلام کردیم که سوءتفاهمی شده و ما خواستار چنین محتوایی نیستیم و پس از اینکه از چنین سوءتفاهمی مطلع شدیم، هیچ محتوایی در این دسته را باز نکردیم و نمایش ندادیم. در نتیجه نمیتوانیم ارتباط هیچکدام از تصاویر با دسته C4 را تایید کنیم.»
با پایان یافتن همکاری سما و اوپنایآی، کارکنان این شرکت دیگر مجبور به بررسی متن و تصاویر مبتذل نیستند اما امورشان به مشکل خورده است. کارکنان این شرکت در اواخر فوریه ۲۰۲۲ به جلسهای با تیم منابع انسانی سما فرا خوانده شدند و خبر پایان همکاری به آنها منتقل شد. یکی از کارکنان پروژه نشانهگذاری میگوید: «به ما گفتند سما نمیخواهد کارکنان دوباره در معرض چنین محتوای خطرناکی قرار بگیرند. ما هم جواب دادیم که این راه امرار معاش ماست.» بیشتر کارمندان این بخش به بخش دیگری با حقوق پایینتر و بدون پاداش ۷۰ دلار برای محتوای مبتذل منتقل شدند؛ بقیه هم از کار بیکار شدند. سما آخرین بسته اطلاعاتی را در ماه مارس، یعنی هشت ماه پیش از موعد پایان قرارداد، به اوپنایآی تحویل داد.
از آنجا که قراردادها زودتر از موعد لغو شدند، اوپنایآی و سما هر دو تایید کردند که مبلغ ۲۰۰ هزار دلار به طور کامل پرداخت نشده است. اوپنایآی میگوید ارزش قراردادها «در طول دوره همکاری بیش از ۱۵۰ هزار دلار بود».
به گفته کارکنان سما، مدیران دلیل دیگری را برای لغو قرارداد عنوان کردهاند. تایم در تاریخ ۱۴ فوریه مقالهای با عنوان «داخل بیگارگاه آفریقایی فیسبوک» منتشر کرد. بررسیهای این مقاله نشان داد سما چطور ناظران محتوایی را برای کاری شامل مشاهده تصاویر و ویدئوهای اعدام، تجاوز و سوءاستفاده از کودکان، با حقوق ۱.۵۰ دلار در ساعت برای فیسبوک به کار گرفته است. برخی از کارکنان سما میگویند همین تفحص باعث شده سما همکاری خود را با اوپنایآی متوقف کند (فیسبوک میگوید شرکای برونسپاری این شرکت ملزم به «پرداخت حقوق، پاداش و مزایای مناسب صنعتی» هستند).
مکالمات داخلی سما پس از انتشار مقاله فیسبوک که به رویت تایم رسیده حاکی از بحران روابط عمومی این شرکت است. برای مثال یکی از زیرمجموعههای شرکت هواپیمایی لوفتهانزا از سما خواسته تا هرگونه نشانه ارتباط این دو شرکت را از وبسایت خود حذف کند. لوفتهانزا در بیانیهای به مجله تایم این اتفاق را تایید کرد و افزود zeroG، زیرمجموعه این شرکت، به همکاری خود با سما پایان داده است. سه روز پس از انتشار بررسیهای تایم در تاریخ ۱۷ فوریه ۲۰۲۲، وندی گنزالز مدیرعامل سما این پیام را برای مدیران ارشد خود ارسال کرد: «قرار است به کار اوپنایآی پایان دهیم.»
سما در تاریخ ۱۰ ژانویه امسال (۲۰۲۳) پا را از آن هم فراتر گذاشت و تمامی فعالیتهایش در زمینه محتوای حساس را متوقف کرد. این شرکت میگوید قرارداد ۳.۹ میلیون دلاری نظارت بر محتوای فیسبوک را تمدید نمیکند و در نتیجه حدود ۲۰۰ جایگاه شغلی شهر نایروبی از بین میرود. این شرکت در بیانیهای اعلام کرده است: «پس از صحبتهای مکرر با تیم بینالملل، سما تصمیم گرفت از تمامی فعالیتهای [پردازش زبان طبیعی] و نظارت محتوا خارج شده و بر راهحلهای تفسیر دادههای دید کامپیوتری تمرکز کند. ما برای گذار به چنین شرایطی سال گذشته به همکاری با مشتریان پرداختیم و در مارس ۲۰۲۳ خروجمان کامل میشود.»
با این همه دادههای هوش مصنوع همچنان نیاز به نشانهگذاری دارند. اندرو استریت، اخلاقشناس هوش مصنوعی، به تازگی در توییتر خود نوشت: «فوقالعادهاند، اما ChatGPT و مدلهای مولد دیگر جادویی نیستند- آنها به یک زنجیره عظیم نیروی کار انسانی و استخراج دادههایی وابسته هستند که نسبت داده نشده و بدون کسب رضایت استفاده میشوند. اینها مشکلاتی جدی و بنیادی است که اوپنایآی توجهی به آنها ندارد.»
منبع: Time