مدیران سازمانها هنوز برای پذیرش هوش مصنوعی تعلل میکنند
پذیرش و اتخاذ تصمیم سریع برای بهکارگیری هوش مصنوعی بهویژه هوش مصنوعی زاینده در سازمانها…
۲۳ آبان ۱۴۰۳
۲۰ اسفند ۱۴۰۲
زمان مطالعه : ۹ دقیقه
هوش مصنوعی مولد از یک سو به شوق فراوانی دامن زده و از سوی دیگر هم نگرانیهای جدی را به همراه آورده است. سهامداران شوق بهرهبرداری از قدرت این فناوری جدید برای بهبود محصولات، بهرهوری و موقعیت رقابتی خود را در سر دارند اما در عین حال با سوالات مهمی در حوزه اخلاق، سوگیری، حریمخصوصی داده و از بین رفتن مشاغل روبرو هستند و مقرراتی هم در این حوزه در حال شکل گرفتن است.
به گزارش پیوست، شرکتها تنها در صورت توان مقابله با این مشکلات را دارند که رویکردی جامع نسبت به هوش مصنوعی مسئولانه اتخاذ کنند. چنین رویکردی باید اقداماتی مثل تعیین نقشها و مسئولیتهای مناسب و در عین حال تمهیدات فناورانهای برای آزمایش و نظارت بر مدل را در بر گیرد.
شرکت مشاوره Bain & Company میگوید طبق تجربه، شرکتهایی کهرویکرد مسئولانه به هوش مصنوعی دارند تا دوبرابر بیشتر از تلاشهای هوش مصنوعی نفع میبرند. خطرات احتمالی نباید باعث ترس این رهبران شود و چنین رهبرانی برنامه بلند مدت و اجرایی خود را به آزمون و خطا گره نمیزنند. در عوض آنها خیلی سریع موارد کاربردی هوش مصنوعی را به کار بسته و با استفاده از اپلیکیشنهای پیچیده، ارزش آفرینی هوش مصنوعی را تسریع و تقویت میکنند. اما مهتر اینکه چنین رهبرانی، حوزههایی که قرار نیست دنبال شود (حداقل تا زمانی که فناوری بیش از این پیشرفت کند یا سازمان به اندازه لازم برای مدیریت آن کاربردها بالغ شود) را نیز مشخص میکنند.
تمامی شرکتها توان ساخت چنین رویکرد مسئولانهای را در خود دارند. شاید فناوریهای هوش مصنوعی مولد پدیده جدیدی باشند، اما یادگیری ماشینی و هوش مصنوعی سابقه طولانیتری دارند. صنعت خدمات مالی از اولین صنایعی بود که رسما راهکار مدیریت ریسک مدل را در اداره کنترل ارز ایالات متحده (OCC) به عنوان بخشی از دستورالعمل این اداره برای تایید مدل (که اولین با در سال ۲۰۰۰ منتشر شد) و مدیریت خطر یکپارچگی مدل (۲۰۱۱) به ثبت رساند. همین سیاستها باعث ترویج فعالیتهای درست توسعه مدلهای نیرومند، مستند و معتبر و اجرای صحیح فرایندهای نظارت و مقابله با چالشها شد. همچنین در دهه ۲۰۱۰، پیشتازان فناوری از جمله گوگل نیز راهکارهایی را برای آزمایش و اجرای یادگیری ماشینی توسعه دادند که به درک کاملتری از نحوه تضمین امنیت، دقت و ثبات سیستمهای یادگیری ماشینی انجامید.
هوش مصنوعی مولد علاوه بر خطرات شناختهشدهای مثل سوگیری، توصیفپذیری و استفاده نادرست، خطراتی مثل توهم، منشا دادههای آموزشی و مالکیت خروجی را نیز به همراه دارد. با توجه به تجربه صنعت اموری مالی و فناوری، سازمانها باید برای مدیریت خطرات هوش مصنوعی به شش موضوع متعهد شوند.
یک رویکرد جامع نسبت هوش مصنوعی مسئولانه، از سه بخش تشکیل میشود:
۱. اهداف و تعهدات. شرکتها برای اثبات رویکرد مسئولانه خود به سهامداران، باید برنامه مدیریت خطر این فناوریهای جدید را به روشنی توصیف کنند. برای این کار باید ابتدا چالشهای تازه یا آنهای که تشدید میشوند را به رسمیت شناخت. در اینجا علاوه بر سوالات فناورانه، با موضوعاتی مثل نگرانی در حوزه برابری و اجتماعی روبرو هستیم که نیازمند توجه، شفافیت و تعامل دائم هستند.
۲. فرایندهای حاکمیتی، نقشها و فناوری. شرکتها باید با فناوری و فعالیتهای جدیدی که چرخه حیات راهحلهای هوش مصنوعی را مد نظر دارند، رویکردهای موجود را کامل کنند.برای مثال، فعالیتهای حاکمیت و مدیریت داده باید چالشهای تازه در حوزه امنیت، حریم خصوصی و مالکیت را نیز پوشش دهند. نقشها، مسئولیتها، گفتمانها و مشاورهها باید به گونهای تغییر و توسعه یابند تا این سیستمهای جدید و نحوه استفاده از آنها را به خوبی تحت نظارت بگیرند. برای این کار شاید نیاز باشد تا یکمدیر ارشد اخلاق هوش مصنوعی و مشاور اخلاق هوش مصنوعی استخدام کنید.
۳. فرهنگ. فرایندهای آموزش و تعامل سازمانی با توجه به تاثیر گسترده و توسعه سریع استفاده از فناوریهای هوش مصنوعی مولد باید استفاده از این فناوری ها را پوشش دهند. تداوم در این فعالیتها، به فرهنگی شکل میدهد که هوشیاری و آموزش مداوم را برای استفاده مسئولانه از هوش مصنوعی تضمین میکند.
در ادامه هرکدام از این بخشها را با جزئیات بیشتری بررسی میکنیم.
طرفین مختلف، از جمله مشتریان، کارکنان، سهامداران، سرمایه گذاران، رگولاتورها و جوامع، خواستار اکتشاف مسئولانه راهحلهای هوش مصنوعی در سازمانها هستند. آنها انتظار دارند تا شرکتها روی تضمین امنیت، دقت و عدم سوگیری سیستمهایشان سرمایهگذاری کنند و این سیستمها به شکلی اخلاقی به کار بسته شوند و مقررات و پیشنیازهای آینده نیز در طراحی آنها مد نظر قرار گیرد.
البته هر سازمانی باید تعهداتش را با توانمندیها، میزان تاثیر احتمالی و پیشنیازهای خاص بازار و مکان منطبق کند اما استراتژی و خطرپذیری است که مشخص میکند یک شرکت کدام کاربردهای هوش مصنوعی را توسعه میدهد و به تبع آن به چه سرمایهگذاریهایی نیاز است و چه سطحی از ارزشآفرینی را میتوان انتظار داشت. برای مثال، برخی از سازمانهایی که در صنایع تحت نظارت شدید قانون فعالیت دارند، تا زمانی که درک بهتری از هوش مصنوعی مولد داشته باشند نمیتوانند این اپلیکیشنها را در اختیار مشتری قرار دهند.
پس از تعیین تعهدات، شرکتها آمده میشوند تا فرصتهای استفاده از محصولات و راهحلهای هوش مصنوعی را بررسی کنند و در این مسیر به ساختارها، سیاستها و فناوری مناسب نیاز است.
ساختارها و مسئولیتها. هوش مصنوعی مولد تاثیرش را بر تمام واحدهای تجاری و عملیاتهای شرکتی میگذارد. به دلیل همین ماهیت فراگیر، حاکمیتی با ساختار میانوظیفهای است که افراد کلیدی تمامی گروههای مرتبط را شامل شود. همه باید به روشنی از نقشها و مسئولیتهای خود مطلع شوند و رهبران تجاری باید مسئولیت ادغام هوش مصنوعی مسئولانه در پیشنهادات و عملیاتها را برعهده بگیرند. به این ترتیب یک ذهنیت مسئولیتپذیر در سازمان شکل میگیرد اما ممکن است شرکتها بخواهند تا یک رهبر اصلی را به طور ویژه به هوش مصنوعی مسئولیت پذیر اختصاص دهند تا روند پاسخگویی شفافتر شود.
حدود یک چهارم از لیست ۲۰ شرکت برتر مجله فورچن (Fortune 20) در حال حاضر چنین جایگاهی را در نظر گرفتهاند. برای مثال شرکت مایکروسافت یک رئیس ارشد هوش مصنوعی مسئولانه را در اداره هوش مصنوعی مسئولانه خود جای داده است که وظیفه تعریف رویکرد شرکت نسبت به هوش مصنوعی مسئولانه و تقویت کارکنان برای استفاده درست از آن را برعهده دارد. این مدیر با کمیته هوش مصنوعی و اخلاق داخلی مایکروسافت یا Aether همکاری میکند و این کمیته نیز وظیفه تحقیق و ارائه پیشنهاد درمورد موضوعات مهم هوش مصنوعی مسئولانه را برعهده دارد.
بیشتری سازمانها باید سازوکارهای حاکمیتی موجود از جمله سازوکارهای فناوری، داده، فروشندگان و امنیت اطلاعات را بازنگری و هرگونه تغییر ضروری را برای رفع خطرات جدید حاصل از هوش مصنوعی و آنهایی که در نتیجه این فناوری تشدید می شوند، شناسایی کنند.
ساخت یا بروزرسانی یک آییننامه رفتاری واضح برای بسیاری از شرکتها ارزشمند است و این کار را میتوان به واسطه آیین گسترده شهروندی دیجیتال یا مسئولیتپذیری داده، یا از طریق آییننامههایی که به طور خاص برای اخلاق هوش مصنوعی طراحی شدهاند، به انجام رساند. برای مثال میتوان سیاستی را برای استفاده تعیین کرد که بایدها و نبایدها را به وضوح مشخص کند یا برای ارزیابی موارد خاص استفاده از هوش مصنوعی، ارزیابیهایی در نظر گرفته شود. استاندارد هوش مصنوعی مسئولانه مایکروسافت پیشنیازهایی را تعریف کرده و دستورالعملی، ابزارها و فعالیتهایی مشخص و قابل اجرا را در اختیار کارکنان قرار میدهد تا از آن در کار روزمره خود برای اعمال اصول هوش مصنوعی مسئولانه استفاده کنند. مایکروسافت در کنار این استاندارد یک ارزیابی تاثیر هوش مصنوعی مسئولانه را مشخص کرده است که تاثیرات احتمالی یک سیستم هوش مصنوعی بر افراد، سازمانها و جامعه را میسنجد. شرکتهای دیگری مثل تلفونیکا (Telefonica)، نیز فرایندهای مشابهی دارند که کارکنان از طریق آن میتوانند سیستمهای هوش مصنوعی جدید را با اطمینان به پیروی از چشمانداز کلی شرکت برای هوش مصنوعی مسئولانه، توسعه دهند.
پلتفرمهای و چارچوبهای فناوری. سیستمهای مدرن هوش مصنوعی به حدی پیچیده و پویا هستند که حاکمیت بر آنها تنها به صورت دستی امکانپذیر نیست. در راستای ایجاد شرایط توسعه و استفاده از فناوری هوش مصنوعی و پیروی از تعهدات هوش مصنوعی مسئولانه، پلتفرمهای هوش مصنوعی کارآمد و چارچوبهای توسعه اپلیکیشن نقش حیاتی دارند. یک پلتفرم هوش مصنوعی در واقع خدمات و اجزایی از هوش مصنوعی را با محدودیتهای مورد نیاز در خود جای داده تا شرکتها بتوانند سیستمهای هوش مصنوعی را به سرعت و به گونهای امن به کار گیرند. چارچوبهای توسعه اپلیکیشن نیز بهترین فعالیتهایی را تسریع میکنند که توسعهدهندگان سیستمهای هوش مصنوعی بهواسطه آن میتوانند از رویکردهای استاندارد برای خودکارسازی، آزمایش، ارزیابی و نظارت در طول عمر هوش مصنوعی استفاده کنند. آنها همچنین نگهداری بلندمدت از سیستم را بهبود بخشیده و امکان شفافیت مرکزی عملکرد سیستمهای هوش مصنوعی را فراهم میکنند که در نتیجه سطح اطمینان از اجرای تعهدات هوش مصنوعی را افزایش میدهد.
موفقیت هوش مصنوعی به مسئولیتپذیری در فرهنگ سازمان بستگی دارد. شرکتهایی که حاکمیت مناسب و عملکرد خوبی دارند تضمین میکنند که:
با وجود پیچیدگی مسیر، نمیتوان هوش مصنوعی را نادیده گرفت. تغییرات فناورانه و اقتصادی برآمد از این تکنولوژی به اندازهای بزرگ است که نادیده گرفتن آن را غیرممکن میکند.