skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

مجازات پنهان استفاده از هوش مصنوعی چطور مانع از پذیرش این فناوری میان کارکنان می‌شود

۱۳ مرداد ۱۴۰۴

زمان مطالعه : ۱۰ دقیقه

استفاده از هوش مصنوعی با فوایدی همچون افزایش بهره‌وری همراه است و همین مساله باعث شده تا شرکت‌های بزرگ بودجه‌های عظیمی را به سرمایه‌گذاری در زیرساخت این فناوری و توسعه ابزارهای تخصصی برای کارکنان خود اختصاص دهند. با این حال مطالعه‌ای از هاروارد بیزینس ریویو (HBR) نشان می‌دهد که عواملی فراتر از سطح دسترسی باعث عدم استفاده از ابزارهای هوش مصنوعی، به ویژه در میان زنان و کارکنان مسن، شده است و در نتیجه نه تنها بهره‌وری کارکنان برای این دسته از کارکنان افزایش نمی‌یابد، بلکه سرمایه‌گذاری شرکت‌ها نیز بازده کامل را نخواهد داشت؛ به طوری که گاه صدها میلیون دلار زیان را به دنبال دارد.

به گزارش پیوست، براساس یافته‌های این مطالعه یکی از عوامل اصلی بازدارنده در مسیر پذیرش هوش مصنوعی در میان کارکنان، برداشت و پیش‌داوری دیگران و هزینه شهرتی استفاده از این فناوری است. مطالعه HBR نشان می‌دهد که مهندسان شرکتی بزرگ هنگام ارائه بازخورد به خروجی یکسان همکاران خود، وقتی متوجه استفاده از هوش مصنوعی می‌شوند، شایستگی همکاران خود را پایین‌تر ارزیابی می‌کنند.

وقتی شایستگی شما زیر سوال می‌رود

هاروارد بیزینس ریویو در آزمایشی با مشارکت ۱۰۲۶ مهندس از شرکتی بزرگ که هزینه هنگفتی به توسعه زیرساخت مورد نیاز و ارائه ابزارهای هوش‌ مصنوعی به کارکنان اختصاص داده است،‌ دو قطعه کد یکسان را برای ارزیابی در اختیار مهندسان قرار داد؛ با تنها یک تفاوت و آن اینکه در یکی از موارد به فرد گفته می‌شود در نوشتن این کد از هوش مصنوعی استفاده شده است.

نتایج این بررسی جالب توجه است. وقتی افراد بر این باور بودند که نویسنده کد از هوش مصنوعی استفاده کرده است، با وجود کیفیتی یکسان کد‌ها،‌ به طور میانگین شایستگی نویسنده کد را ۹ درصد پایین‌تر ارزیابی می‌کردند. مساله در اینجا نه کیفیت کد (زیرا کد ارائه شده در هردو حالت یکسان بود)، بلکه برداشت افراد از توانایی نویسنده آن بود.

این قضاوت سخت‌گیرانه برای مهندسان زن‌ حتی شدید‌تر از این بود و کاهش شایستگی به میانگین ۱۳ درصد در مقایسه با ۶ درصد مردان می‌رسید. در واقع وقتی افراد متوجه می‌شدند که نویسنده کدی که از هوش مصنوعی استفاده کرده یک زن است، آنها مهارت‌های بنیادین فرد را بیشتر از زماین که نویسنده مرد معرفی می‌شد زیر سوال می‌بردند.

آمار این مطالعه درمورد کسانی که سخت‌ترین قضاوت را درمورد استفاده از هوش مصنوعی داشتند، نمای روشن‌تری را به تصویر می‌کشد. مهندسانی که خودشان از هوش مصنوعی استفاده نمی‌کردند، سخت‌ترین قضاوت‌ها را داشتند. در واقع مردانی که از هوش مصنوعی استفاده نمی‌کردند هنگام بررسی مهندسان زنی که از هوش مصنوعی استفاده می‌کنند شدید‌ترین واکنش را داشتند و ۲۶ درصد بیشتر از مردانی که از هوش مصنوعی استفاده می‌کنند، شایستگی زنان را زیر سوال می‌بردند.

نظرسنجی دیگری با مشارکت ۹۱۹ مهندس نیز تصویر کامل‌تری را به نمایش گذاشت. بسیاری از مهندسان همواره هزینه استفاده از هوش مصنوعی برای اعتبار و شایستگی خود را زیر نظر دارند و به همین دلیل برای حفاظت از آوازه حرفه‌ای خود از استفاده از هوش مصنوعی خودداری می‌کنند. جالب اینکه بهترین جامعه هدف برای استفاده از هوش مصنوعی یعنی افراد مسن در کنار زنان بیشترین ترس را از ضربه شهرتی داشته و در نتیجه کمترین میزان استفاده از هوش مصنوعی را دارند. همان گروهی که می‌توانند بیشترین بهره‌ را از هوش مصنوعی ببرند، به دلیل ترس از قضاوت همکاران خود از این ابزارها استفاده نمی‌کنند.

قضاوتی پرهزینه

با توجه به این یافته‌ها می‌توان گفت که قضاوت کارکنان نسبت به یک دیگر در واقعی مالیاتی بر فراگیری هوش مصنوعی است. آنچه در ظاهر بی‌میلی نسبت به استفاده از ابزارهای نویسن است، بازتابی از یک استراتژی برای محافظت فردی است و هزینه آن فراتر از کاهش بهره‌وری است.

برای مثال شرکتی که در مطالعه HBR مورد بررسی قرار گرفته سرمایه‌ هنگفتی را برای توسعه دستیار هوش مصنوعی کدنویسی و اجرای آن اختصاص داده است. با توجه به اینکه نظرسنجی انجام گرفته از پذیرش ۴۱ درصدی خبر می‌دهد و این نرخ در میان اقشار مختلف حتی تا سطوح پایین‌تری کاهش می یابد، بازده این استراتژی نیز تا کمتر از نصف کاهش می‌یابد. ماحصل این مساله ریزش حداقل ۲.۵ درصدی سود و حتی براساس برخی محاسبات ۱۴ درصدی است که برای شرکت‌های بزرگ حتی با نگاه محافظه‌کارانه رقمی چند صد میلیون دلاری است.

یکی دیگر از پیامد‌های این قضاوت، احتمال استفاده از هوش مصنوعی در سایه است. اگرچه ترس از قضاوت باعث عدم استفاده از ابزارهای رسمی می‌شود اما لزوما به معنای عدم استفاده کامل از هوش مصنوعی نیست. در عوض برخی از کارکنان به جای استفاده از ابزارهای مجاز، از ابزارهای عمومی استفاده می‌کنند. ردیابی و شناسایی این فعالیت‌ها دشوار و گاه غیرممکن است و در نتیجه خطراتی مثل امنیت داده و پیروی از قوانین را برای شرکت به دنبال دارد. بعلاوه در چنین روندی، استفاده مسئولانه از هوش مصنوعی زیر سوال می‌رود.

همچنین از آنجایی که قضاوت شایستگی بخش خاصی از کارکنان از جمله زنان را بیشتر هدف می‌گیرد، نابرابری‌های پیشین در محیط کار که شاید هوش مصنوعی می‌توانست به حذف آنها کمک کند، تشدید می‌شوند. برای مثال در نظرسنجی HBR، مردان جوان به دلیل استفاده آزادانه‌تر از هوش مصنوعی و قضاوت کمتر، از همکاران خود پیشی می‌گیرند.

در چنین شرایطی کمک گرفتن از هوش مصنوعی برای اقشاری همچون زنان و افراد مسن در صنعت فناوری که تحت سلطه مردان جوان است، یک تهدید اجتماعی است که انگ‌های پیشین مبنی بر عدم شایستگی این جمعیت‌ها را تایید می‌کند و اقلیت‌ها بیشتر از دیگران مجازات می‌شوند.

این جریمه پرسش‌های نگران‌کننده‌ای درباره سیاست‌های شفافیت محیط کار مطرح می‌کند. در حالی که شفافیت، یکی از اصول اساسی در استفاده مسئولانه از هوش مصنوعی به‌شمار می‌رود، اما در محیط‌های کاری شاید این کار آسیب‌زا باشد. یافته‌های HBR نشان می‌دهد الزام کارکنان به افشای استفاده از هوش مصنوعی در برابر همکاران، می‌تواند آنان را با ریسک‌های ناعادلانه حرفه‌ای مواجه کند. کلید موفقیت شرکت‌ها در چنین شرایطی، ایجاد یک تعادل میان شفاف‌سازی و حریم خصوصی است. در محیط‌هایی که خطر جریمه‌ شایستگی زیاد است، شاید عدم الزام به افشای استفاده از هوش مصنوعی را بتوان رویکرد بهتری دانست.

قضاوت و جریمه شایستگی را چطور کمرنگ کنیم؟

در شرکت مورد مطالعه ما، اقدامات زیادی در زمینه‌ استفاده از هوش مصنوعی انجام شده بود: تشکیل تیم‌های تخصصی، ایجاد مشوق‌ها و ارائه آموزش. با این حال، این تلاش‌ها به دلیل نپرداختن به «تهدید شایستگی»، نتایج لازم را نداشتند. یافته‌های ما نشان می‌دهند که برای از بین بردن این جریمه به رویکرد دقیق‌تری نیاز داریم.

۱. گروه‌هایی که بیشتر ازهمه هدف پیش‌داوری و جریمه قرار را شناسایی کنید

جریمه شایستگی به یک سازوکار خطرناک منجر می‌شود: افرادی که بیشتر از سایرین می‌توانند از ابزارهای افزایش بهره‌وری مانند هوش مصنوعی سود ببرند، همان کسانی هستند که بیشتر از قضاوت همکاران هراس دارند.

براساس تحقیقات ما، زنان جوان در حوزه تکنولوژی بیشترین ظرفیت را برای افزایش بهره‌وری دارند، اما پایین‌ترین نرخ استفاده را گزارش می‌کنند. رفع این شکاف می‌تواند برای شرکت‌ها راهی کم‌هزینه برای افزایش بازده سرمایه‌گذاری در هوش مصنوعی باشد.

برای اینکه بدانید کدام تیم‌ها بیشترین جریمه شایستگی را متحمل می‌شوند، به دنبال آسیب‌پذیری‌های جمعیتی و نابرابری‌های قدرت باشید. تیم‌هایی که تعداد زنان و زنان یا مهندسان مسن آنها کمتر است، بیشتر از دیگر گروه‌ها و به ویژه گروه‌هایی که بیشترشان مهندسان مرد جوان هستند، هدف این جریمه‌ها قرار می‌گیرند. برای شناسایی این گروه‌ها شاخص‌هایی مانند فاصله زمانی تا ارتقا شغلی بر اساس جنسیت و میزان استفاده از هوش مصنوعی را بررسی کنید تا تاثیر جریمه‌های شایستگی و قضاوت دیگران را متوجه شده و به تبع آن ضرورت اقدام را بررسی کنید.

۲. الگوسازی از رهبران و آنهایی که بیشتر از همه پیش‌داوری می‌کنند

کاربرانی که خود از هوش مصنوعی استفاده نمی‌کنند، اغلب سخت‌ترین قضاوت‌ها را دارند. برسااس تحقیق ما، مردانی که از هوش مصنوعی استفاده نمی‌کنند، بیشترین جریمه شایستگی را برای زنان کاربر هوش مصنوعی در نظر می‌گیرند. برای رفع این چرخه معیوب نیاز به مداخله اجتماعی است.

بهترین روش، تمرکز بر افراد موفق و الگوهای مورد احترام در شرکت است. بهترین گزینه برای حذف قضاوت از شرکت، افرادی از همان اقلیت‌ها هستند که جایگاه ارشد را در اختیار دارند. برای مثال اگر زنانی که در جایگاه ارشد حضور دارند از هوش مصنوعی استفاده کنند، به حامی مهمی برای همتایان جوان‌تر خود تبدیل می‌شوند. تحقیقات گروه مشاوره BCG نشان می‌دهد زمانی که مدیران زن از همتایان مرد خود در استفاده از هوش مصنوعی پیشی می‌گیرند، شکاف میزان استفاده میان زنان و مردان جوان به‌طور قابل توجهی کاهش می‌یابد.

طرح‌ها و برنامه‌های ساختارمند نیز می‌توانند به حذف این شکاف کمک کنند. طرح‌هایی مانند «چالش ۳۰ روزه GPT» که مدیر محصول شرکت Whoop از آن کمک گرفته و براساس آن در ابتدا وظایف ساده مثل نوشتن دستور جلسه با هوش مصنوعی انجام می‌شوند و انتهای چالش به طراحی فرایندهای پیچیده با این ابزار ختم می‌شود. موفقیت‌های روزانه، جشن‌های عمومی و نمایش تجربیات مثبت، نیز حس امنیت روانی را افزایش می‌دهد.

شرکت پینترست نیز با رویداد سالانه «Makeathon» این رویکرد را در سطح تمام شرکتی توسعه داده است. در این هکاتون، تمامی کارکنان (حتی کارکنان غیرفنی) ایده‌هایی با محوریت هوش مصنوعی ارائه می‌دهند. طبق گزارش،‌ پس از اجرای این هکاتون، ۹۶ درصد از شرکت‌کنندگان به استفاده مداوم از هوش مصنوعی روی آوردند.

طراحی دوباره ارزیابی‌ها: حذف برچسب استفاده از هوش مصنوعی

وقتی مهندسان مجبورند کد خود را به‌عنوان «تولید شده هوش مصنوعی» برچسب‌گذاری کنند، طبیعی است که در معرض قضاوت و سوگیری قرار گیرند. تا زمانی که فرهنگ سازمانی تغییر نکند، این برچسب باعث پیش‌داوری خواهد شد.

بنابراین در شرایط فعلی بهتر است به جای روش انجام کار، بر خروجی نهایی تمرکز شود. به جای ارزیابی ذهنی از مهارت، به شاخص‌های عینی مانند زمان ، دقت و نرخ خطا توجه کنید.

شرکت‌ها باید از اعلام عمومی استفاده از هوش مصنوعی در ارزیابی‌های خود دست بردارند و برچسب‌ها را فقط برای حسابرسی داخلی استفاده کنند. راهکارهایی مثل بازبینی کور که براساس آن اطلاعات شخصی افراد از فرایند بازبینی حذف می‌شود هم می‌تواند سوگیری علیه اقلیت‌ها را کاهش دهد.

برخی شرکت‌های پیشرو، برای حذف پیش‌داوری‌ها یک گام فراتر از این رفته و حتی به استفاده از هوش مصنوعی پاداش می‌دهند. برای مثال:

  • در مایکروسافت، جولیا لیوسون از مدیران شرکت خواسته تا استفاده ازهوش مصنوعی را نگاه کلی به عملکرد و تاثیر افراد (با وزن مثبت) لحاظ کنند.
  • درشرکت شاپیفای، توبیاس لوتکه (مدیرعامل شرکت) اعلام کرده که استفاده خودکار از هوش مصنوعی به‌عنوان یک مهارت اساسی در نظر گرفته خواهد شد. او همچنین قصد دارد سوالات مربوط به استفاده از هوش مصنوعی را به ارزیابی‌های عملکردی اضافه کند.

فرهنگ‌سازی برای یک ابزار جدید

پیش‌داوری و جریمه‌ای که در صورت استفاده از هوش مصنوعی کارکنان را هدف می‌گیرد، بازتابی از یک ناهماهنگی عمیق در نحوه مواجهه شرکت‌ها با تحول دیجیتال است. در حالی که شرکت‌ها بر آموزش، زیرساخت و دسترسی به ابزار تمرکز دارند، یک سازوکار معیوب اجتماعی در شرکت و سازمان‌ها به مانعی برای پذیرش این فناوری تبدیل شده است.

در حال حاضر سوالاتی بزرگ پیرامون این فناوری در شرکت‌ها مطرح است:

  • چرا کارکنان پنهانی از ChatGPTاستفاده می‌کنند اما سراغ ابزارهای رسمی نمی‌روند؟
  • چرا گروه‌هایی که بیشترین نیاز را دارند، کمترین استفاده را می‌کنند؟
  • چرا سرمایه‌گذاری درهوش مصنوعی با وجود هزینه سنگین، بازده پایینی دارد؟‌

تحقیقات هاروارد بیزینس ریویو نشان می‌دهد که پاسخ در پیش‌داوری و جریمه شایستگی است؛ کسانی که بیشتر از همه می‌توانند از هوش مصنوعی نفع ببرند،‌ به دلیل پیش‌داوری‌ها کمتر از همه از آن استفاده می‌کنند.

اما با نگاهی درست می‌توان شرایط را تغییر داد. سازمان‌ها می‌توانند با سه مداخله کلیدی به این چرخه معیوب پایان دهند:

  1. شناسایی گروه‌هایی که بیشتر از همه هدف پیش‌داوری و جریمه قرار می‌گیرند؛
  2. بسیج رهبران تاثیرگذار برای الگوسازی و حمایت از کارکنان رده‌پایین؛
  3. بازطراحی فرایند‌های ارزیابی برای تمرکز بر خروجی به‌جای روش انجام کار.

 

https://pvst.ir/lxu
برای بوکمارک این نوشته
Back To Top
جستجو