شیائومی از یک مدل صوتی متنباز برای خودروها و لوازم خانگی هوشمند رونمایی کرد
شرکت شیائومی روز دوشنبه از مدل متنباز صوتی جدیدی با نام MiDashengLM-7B رونمایی کرد. این…
۱۳ مرداد ۱۴۰۴
۱۳ مرداد ۱۴۰۴
زمان مطالعه : ۱۰ دقیقه
استفاده از هوش مصنوعی با فوایدی همچون افزایش بهرهوری همراه است و همین مساله باعث شده تا شرکتهای بزرگ بودجههای عظیمی را به سرمایهگذاری در زیرساخت این فناوری و توسعه ابزارهای تخصصی برای کارکنان خود اختصاص دهند. با این حال مطالعهای از هاروارد بیزینس ریویو (HBR) نشان میدهد که عواملی فراتر از سطح دسترسی باعث عدم استفاده از ابزارهای هوش مصنوعی، به ویژه در میان زنان و کارکنان مسن، شده است و در نتیجه نه تنها بهرهوری کارکنان برای این دسته از کارکنان افزایش نمییابد، بلکه سرمایهگذاری شرکتها نیز بازده کامل را نخواهد داشت؛ به طوری که گاه صدها میلیون دلار زیان را به دنبال دارد.
به گزارش پیوست، براساس یافتههای این مطالعه یکی از عوامل اصلی بازدارنده در مسیر پذیرش هوش مصنوعی در میان کارکنان، برداشت و پیشداوری دیگران و هزینه شهرتی استفاده از این فناوری است. مطالعه HBR نشان میدهد که مهندسان شرکتی بزرگ هنگام ارائه بازخورد به خروجی یکسان همکاران خود، وقتی متوجه استفاده از هوش مصنوعی میشوند، شایستگی همکاران خود را پایینتر ارزیابی میکنند.
هاروارد بیزینس ریویو در آزمایشی با مشارکت ۱۰۲۶ مهندس از شرکتی بزرگ که هزینه هنگفتی به توسعه زیرساخت مورد نیاز و ارائه ابزارهای هوش مصنوعی به کارکنان اختصاص داده است، دو قطعه کد یکسان را برای ارزیابی در اختیار مهندسان قرار داد؛ با تنها یک تفاوت و آن اینکه در یکی از موارد به فرد گفته میشود در نوشتن این کد از هوش مصنوعی استفاده شده است.
نتایج این بررسی جالب توجه است. وقتی افراد بر این باور بودند که نویسنده کد از هوش مصنوعی استفاده کرده است، با وجود کیفیتی یکسان کدها، به طور میانگین شایستگی نویسنده کد را ۹ درصد پایینتر ارزیابی میکردند. مساله در اینجا نه کیفیت کد (زیرا کد ارائه شده در هردو حالت یکسان بود)، بلکه برداشت افراد از توانایی نویسنده آن بود.
این قضاوت سختگیرانه برای مهندسان زن حتی شدیدتر از این بود و کاهش شایستگی به میانگین ۱۳ درصد در مقایسه با ۶ درصد مردان میرسید. در واقع وقتی افراد متوجه میشدند که نویسنده کدی که از هوش مصنوعی استفاده کرده یک زن است، آنها مهارتهای بنیادین فرد را بیشتر از زماین که نویسنده مرد معرفی میشد زیر سوال میبردند.
آمار این مطالعه درمورد کسانی که سختترین قضاوت را درمورد استفاده از هوش مصنوعی داشتند، نمای روشنتری را به تصویر میکشد. مهندسانی که خودشان از هوش مصنوعی استفاده نمیکردند، سختترین قضاوتها را داشتند. در واقع مردانی که از هوش مصنوعی استفاده نمیکردند هنگام بررسی مهندسان زنی که از هوش مصنوعی استفاده میکنند شدیدترین واکنش را داشتند و ۲۶ درصد بیشتر از مردانی که از هوش مصنوعی استفاده میکنند، شایستگی زنان را زیر سوال میبردند.
نظرسنجی دیگری با مشارکت ۹۱۹ مهندس نیز تصویر کاملتری را به نمایش گذاشت. بسیاری از مهندسان همواره هزینه استفاده از هوش مصنوعی برای اعتبار و شایستگی خود را زیر نظر دارند و به همین دلیل برای حفاظت از آوازه حرفهای خود از استفاده از هوش مصنوعی خودداری میکنند. جالب اینکه بهترین جامعه هدف برای استفاده از هوش مصنوعی یعنی افراد مسن در کنار زنان بیشترین ترس را از ضربه شهرتی داشته و در نتیجه کمترین میزان استفاده از هوش مصنوعی را دارند. همان گروهی که میتوانند بیشترین بهره را از هوش مصنوعی ببرند، به دلیل ترس از قضاوت همکاران خود از این ابزارها استفاده نمیکنند.
با توجه به این یافتهها میتوان گفت که قضاوت کارکنان نسبت به یک دیگر در واقعی مالیاتی بر فراگیری هوش مصنوعی است. آنچه در ظاهر بیمیلی نسبت به استفاده از ابزارهای نویسن است، بازتابی از یک استراتژی برای محافظت فردی است و هزینه آن فراتر از کاهش بهرهوری است.
برای مثال شرکتی که در مطالعه HBR مورد بررسی قرار گرفته سرمایه هنگفتی را برای توسعه دستیار هوش مصنوعی کدنویسی و اجرای آن اختصاص داده است. با توجه به اینکه نظرسنجی انجام گرفته از پذیرش ۴۱ درصدی خبر میدهد و این نرخ در میان اقشار مختلف حتی تا سطوح پایینتری کاهش می یابد، بازده این استراتژی نیز تا کمتر از نصف کاهش مییابد. ماحصل این مساله ریزش حداقل ۲.۵ درصدی سود و حتی براساس برخی محاسبات ۱۴ درصدی است که برای شرکتهای بزرگ حتی با نگاه محافظهکارانه رقمی چند صد میلیون دلاری است.
یکی دیگر از پیامدهای این قضاوت، احتمال استفاده از هوش مصنوعی در سایه است. اگرچه ترس از قضاوت باعث عدم استفاده از ابزارهای رسمی میشود اما لزوما به معنای عدم استفاده کامل از هوش مصنوعی نیست. در عوض برخی از کارکنان به جای استفاده از ابزارهای مجاز، از ابزارهای عمومی استفاده میکنند. ردیابی و شناسایی این فعالیتها دشوار و گاه غیرممکن است و در نتیجه خطراتی مثل امنیت داده و پیروی از قوانین را برای شرکت به دنبال دارد. بعلاوه در چنین روندی، استفاده مسئولانه از هوش مصنوعی زیر سوال میرود.
همچنین از آنجایی که قضاوت شایستگی بخش خاصی از کارکنان از جمله زنان را بیشتر هدف میگیرد، نابرابریهای پیشین در محیط کار که شاید هوش مصنوعی میتوانست به حذف آنها کمک کند، تشدید میشوند. برای مثال در نظرسنجی HBR، مردان جوان به دلیل استفاده آزادانهتر از هوش مصنوعی و قضاوت کمتر، از همکاران خود پیشی میگیرند.
در چنین شرایطی کمک گرفتن از هوش مصنوعی برای اقشاری همچون زنان و افراد مسن در صنعت فناوری که تحت سلطه مردان جوان است، یک تهدید اجتماعی است که انگهای پیشین مبنی بر عدم شایستگی این جمعیتها را تایید میکند و اقلیتها بیشتر از دیگران مجازات میشوند.
این جریمه پرسشهای نگرانکنندهای درباره سیاستهای شفافیت محیط کار مطرح میکند. در حالی که شفافیت، یکی از اصول اساسی در استفاده مسئولانه از هوش مصنوعی بهشمار میرود، اما در محیطهای کاری شاید این کار آسیبزا باشد. یافتههای HBR نشان میدهد الزام کارکنان به افشای استفاده از هوش مصنوعی در برابر همکاران، میتواند آنان را با ریسکهای ناعادلانه حرفهای مواجه کند. کلید موفقیت شرکتها در چنین شرایطی، ایجاد یک تعادل میان شفافسازی و حریم خصوصی است. در محیطهایی که خطر جریمه شایستگی زیاد است، شاید عدم الزام به افشای استفاده از هوش مصنوعی را بتوان رویکرد بهتری دانست.
در شرکت مورد مطالعه ما، اقدامات زیادی در زمینه استفاده از هوش مصنوعی انجام شده بود: تشکیل تیمهای تخصصی، ایجاد مشوقها و ارائه آموزش. با این حال، این تلاشها به دلیل نپرداختن به «تهدید شایستگی»، نتایج لازم را نداشتند. یافتههای ما نشان میدهند که برای از بین بردن این جریمه به رویکرد دقیقتری نیاز داریم.
جریمه شایستگی به یک سازوکار خطرناک منجر میشود: افرادی که بیشتر از سایرین میتوانند از ابزارهای افزایش بهرهوری مانند هوش مصنوعی سود ببرند، همان کسانی هستند که بیشتر از قضاوت همکاران هراس دارند.
براساس تحقیقات ما، زنان جوان در حوزه تکنولوژی بیشترین ظرفیت را برای افزایش بهرهوری دارند، اما پایینترین نرخ استفاده را گزارش میکنند. رفع این شکاف میتواند برای شرکتها راهی کمهزینه برای افزایش بازده سرمایهگذاری در هوش مصنوعی باشد.
برای اینکه بدانید کدام تیمها بیشترین جریمه شایستگی را متحمل میشوند، به دنبال آسیبپذیریهای جمعیتی و نابرابریهای قدرت باشید. تیمهایی که تعداد زنان و زنان یا مهندسان مسن آنها کمتر است، بیشتر از دیگر گروهها و به ویژه گروههایی که بیشترشان مهندسان مرد جوان هستند، هدف این جریمهها قرار میگیرند. برای شناسایی این گروهها شاخصهایی مانند فاصله زمانی تا ارتقا شغلی بر اساس جنسیت و میزان استفاده از هوش مصنوعی را بررسی کنید تا تاثیر جریمههای شایستگی و قضاوت دیگران را متوجه شده و به تبع آن ضرورت اقدام را بررسی کنید.
کاربرانی که خود از هوش مصنوعی استفاده نمیکنند، اغلب سختترین قضاوتها را دارند. برسااس تحقیق ما، مردانی که از هوش مصنوعی استفاده نمیکنند، بیشترین جریمه شایستگی را برای زنان کاربر هوش مصنوعی در نظر میگیرند. برای رفع این چرخه معیوب نیاز به مداخله اجتماعی است.
بهترین روش، تمرکز بر افراد موفق و الگوهای مورد احترام در شرکت است. بهترین گزینه برای حذف قضاوت از شرکت، افرادی از همان اقلیتها هستند که جایگاه ارشد را در اختیار دارند. برای مثال اگر زنانی که در جایگاه ارشد حضور دارند از هوش مصنوعی استفاده کنند، به حامی مهمی برای همتایان جوانتر خود تبدیل میشوند. تحقیقات گروه مشاوره BCG نشان میدهد زمانی که مدیران زن از همتایان مرد خود در استفاده از هوش مصنوعی پیشی میگیرند، شکاف میزان استفاده میان زنان و مردان جوان بهطور قابل توجهی کاهش مییابد.
طرحها و برنامههای ساختارمند نیز میتوانند به حذف این شکاف کمک کنند. طرحهایی مانند «چالش ۳۰ روزه GPT» که مدیر محصول شرکت Whoop از آن کمک گرفته و براساس آن در ابتدا وظایف ساده مثل نوشتن دستور جلسه با هوش مصنوعی انجام میشوند و انتهای چالش به طراحی فرایندهای پیچیده با این ابزار ختم میشود. موفقیتهای روزانه، جشنهای عمومی و نمایش تجربیات مثبت، نیز حس امنیت روانی را افزایش میدهد.
شرکت پینترست نیز با رویداد سالانه «Makeathon» این رویکرد را در سطح تمام شرکتی توسعه داده است. در این هکاتون، تمامی کارکنان (حتی کارکنان غیرفنی) ایدههایی با محوریت هوش مصنوعی ارائه میدهند. طبق گزارش، پس از اجرای این هکاتون، ۹۶ درصد از شرکتکنندگان به استفاده مداوم از هوش مصنوعی روی آوردند.
وقتی مهندسان مجبورند کد خود را بهعنوان «تولید شده هوش مصنوعی» برچسبگذاری کنند، طبیعی است که در معرض قضاوت و سوگیری قرار گیرند. تا زمانی که فرهنگ سازمانی تغییر نکند، این برچسب باعث پیشداوری خواهد شد.
بنابراین در شرایط فعلی بهتر است به جای روش انجام کار، بر خروجی نهایی تمرکز شود. به جای ارزیابی ذهنی از مهارت، به شاخصهای عینی مانند زمان ، دقت و نرخ خطا توجه کنید.
شرکتها باید از اعلام عمومی استفاده از هوش مصنوعی در ارزیابیهای خود دست بردارند و برچسبها را فقط برای حسابرسی داخلی استفاده کنند. راهکارهایی مثل بازبینی کور که براساس آن اطلاعات شخصی افراد از فرایند بازبینی حذف میشود هم میتواند سوگیری علیه اقلیتها را کاهش دهد.
برخی شرکتهای پیشرو، برای حذف پیشداوریها یک گام فراتر از این رفته و حتی به استفاده از هوش مصنوعی پاداش میدهند. برای مثال:
پیشداوری و جریمهای که در صورت استفاده از هوش مصنوعی کارکنان را هدف میگیرد، بازتابی از یک ناهماهنگی عمیق در نحوه مواجهه شرکتها با تحول دیجیتال است. در حالی که شرکتها بر آموزش، زیرساخت و دسترسی به ابزار تمرکز دارند، یک سازوکار معیوب اجتماعی در شرکت و سازمانها به مانعی برای پذیرش این فناوری تبدیل شده است.
در حال حاضر سوالاتی بزرگ پیرامون این فناوری در شرکتها مطرح است:
تحقیقات هاروارد بیزینس ریویو نشان میدهد که پاسخ در پیشداوری و جریمه شایستگی است؛ کسانی که بیشتر از همه میتوانند از هوش مصنوعی نفع ببرند، به دلیل پیشداوریها کمتر از همه از آن استفاده میکنند.
اما با نگاهی درست میتوان شرایط را تغییر داد. سازمانها میتوانند با سه مداخله کلیدی به این چرخه معیوب پایان دهند: