skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

چطور سازمان‌‌مان را با هوش مصنوعی مسئولانه سازگار کنیم سازمان‌هایی با رویکرد جامع دوبرابر دیگران از این فناوری نفع می‌برند

۲۰ اسفند ۱۴۰۲

زمان مطالعه : ۹ دقیقه

هوش مصنوعی مولد از یک سو به شوق فراوانی دامن زده و از سوی دیگر هم نگرانی‌های جدی را به همراه آورده است. سهام‌داران شوق بهره‌برداری از قدرت این فناوری جدید برای بهبود محصولات، بهره‌وری و موقعیت رقابتی خود را در سر دارند اما در عین حال با سوالات مهمی در حوزه اخلاق، سو‌گیری، حریم‌خصوصی داده و از بین رفتن مشاغل روبرو هستند و مقرراتی هم در این حوزه در حال شکل گرفتن است.

به گزارش پیوست، شرکت‌ها تنها در صورت توان مقابله با این مشکلات را دارند که رویکردی جامع نسبت به هوش مصنوعی مسئولانه اتخاذ کنند. چنین رویکردی باید اقداماتی مثل تعیین نقش‌ها و مسئولیت‌های مناسب و در عین حال تمهیدات فناورانه‌ای برای آزمایش و نظارت بر مدل را در بر گیرد.

شرکت مشاوره Bain & Company می‌گوید طبق تجربه، شرکت‌هایی کهرویکرد مسئولانه به هوش مصنوعی دارند تا دوبرابر بیشتر از تلاش‌های هوش مصنوعی نفع می‌برند. خطرات احتمالی نباید باعث ترس این رهبران شود و چنین رهبرانی برنامه بلند مدت و اجرایی خود را به آزمون و خطا گره نمی‌زنند. در عوض آنها خیلی سریع موارد کاربردی هوش مصنوعی را به کار بسته و با استفاده از اپلیکیشن‌های پیچیده، ارزش آفرینی هوش مصنوعی را تسریع و تقویت می‌کنند. اما مهتر اینکه چنین رهبرانی، حوزه‌هایی که قرار نیست دنبال شود (حداقل تا زمانی که فناوری بیش از این پیشرفت کند یا سازمان به اندازه لازم برای مدیریت آن کاربرد‌ها بالغ شود) را نیز مشخص می‌کنند.

میانگین سود از تجزیه‌تحلیل پیشرفته یا کاربرد‌های هوش مصنوعی از سود کلی؛ سازمان‌هایی که رویکرد کارآمدی نسبت به هوش مصنوعی مسئولانه دارند حدود دوبرابر همتایان خود از این فناوری نفع می‌برند.

تمامی شرکت‌ها توان ساخت چنین رویکرد مسئولانه‌ای را در خود دارند. شاید فناوری‌های هوش مصنوعی مولد پدیده جدیدی باشند، اما یادگیری ماشینی و هوش مصنوعی سابقه طولانی‌تری دارند. صنعت خدمات مالی از اولین صنایعی بود که رسما راهکار مدیریت ریسک مدل را در اداره کنترل ارز ایالات متحده (OCC) به عنوان بخشی از دستورالعمل این اداره برای تایید مدل (که اولین با در سال ۲۰۰۰ منتشر شد) و مدیریت خطر یکپارچگی مدل (۲۰۱۱) به ثبت رساند. همین سیاست‌ها باعث ترویج فعالیت‌های درست توسعه مدل‌های نیرومند، مستند و معتبر و اجرای صحیح فرایند‌های نظارت و مقابله با چالش‌ها شد. همچنین در دهه ۲۰۱۰، پیشتازان فناوری از جمله گوگل نیز راهکارهایی را برای آزمایش و اجرای یادگیری ماشینی توسعه‌ دادند که به درک کامل‌تری از نحوه تضمین امنیت، دقت و ثبات سیستم‌های یادگیری ماشینی انجامید.

هوش مصنوعی مولد علاوه بر خطرات شناخته‌شده‌ای مثل سوگیری، توصیف‌پذیری و استفاده نادرست، خطراتی مثل توهم، منشا داده‌های آموزشی و مالکیت خروجی را نیز به همراه دارد. با توجه به تجربه صنعت اموری مالی و فناوری، سازمان‌ها باید برای مدیریت خطرات هوش مصنوعی به شش موضوع متعهد شوند.

شش تعهد سازمان‌ها برای مدیریت خطرات هوش مصنوعی

زمینه‌سازی برای هوش مصنوعی مسئولانه

یک رویکرد جامع نسبت هوش مصنوعی مسئولانه، از سه بخش تشکیل می‌شود:

۱. اهداف و تعهدات. شرکت‌ها برای اثبات رویکرد مسئولانه خود به سهام‌داران، باید برنامه مدیریت خطر این فناوری‌های جدید را به روشنی توصیف کنند. برای این کار باید ابتدا چالش‌های تازه یا آنهای که تشدید می‌شوند را به رسمیت شناخت. در اینجا علاوه بر سوالات فناورانه، با موضوعاتی مثل نگرانی‌ در حوزه برابری و اجتماعی روبرو هستیم که  نیازمند توجه، شفافیت و تعامل دائم هستند.

۲. فرایند‌های حاکمیتی، نقش‌ها و فناوری. شرکت‌ها باید با فناوری و فعالیت‌های جدیدی که چرخه حیات راه‌حل‌های هوش مصنوعی را مد نظر دارند، رویکرد‌های موجود را کامل کنند.برای مثال، فعالیت‌های حاکمیت‌ و مدیریت داده باید چالش‌های تازه در حوزه امنیت، حریم خصوصی و مالکیت را نیز پوشش دهند. نقش‌ها، مسئولیت‌ها، گفتمان‌ها و مشاوره‌ها باید به گونه‌ای تغییر و توسعه یابند تا این سیستم‌های جدید و نحوه استفاده از آنها را به خوبی تحت نظارت بگیرند. برای این کار شاید نیاز باشد تا یکمدیر ارشد اخلاق هوش مصنوعی و مشاور اخلاق هوش مصنوعی استخدام کنید.

۳. فرهنگ. فرایند‌های آموزش و تعامل سازمانی با توجه به تاثیر گسترده و توسعه سریع استفاده از فناوری‌های هوش مصنوعی مولد باید استفاده از این فناوری ها را پوشش دهند. تداوم در این فعالیت‌ها، به فرهنگی شکل می‌دهد که هوشیاری و آموزش مداوم را برای استفاده مسئولانه از هوش مصنوعی تضمین می‌کند.

در ادامه هرکدام از این بخش‌ها را با جزئیات بیشتری بررسی می‌کنیم.

انطباق اهداف و تعهدات با ریسک‌پذیری

طرفین مختلف، از جمله مشتریان، کارکنان، سهام‌داران، سرمایه گذاران، رگولاتور‌ها و جوامع، خواستار اکتشاف مسئولانه راه‌حل‌های هوش مصنوعی در سازمان‌ها هستند. آنها انتظار دارند تا شرکت‌ها روی تضمین امنیت، دقت و عدم سوگیری سیستم‌های‌شان سرمایه‌گذاری کنند و این سیستم‌ها به شکلی اخلاقی به کار بسته شوند و مقررات و پیش‌نیاز‌های آینده نیز در طراحی آنها مد نظر قرار گیرد.

البته هر سازمانی باید تعهداتش را با توانمندی‌ها، میزان تاثیر احتمالی و پیش‌نیاز‌های خاص بازار و مکان منطبق کند اما استراتژی و خطر‌پذیری است که مشخص می‌کند یک شرکت کدام کاربرد‌های هوش مصنوعی را توسعه می‌دهد و به تبع آن به چه سرمایه‌گذار‌ی‌هایی نیاز است و چه سطحی از ارزش‌آفرینی را می‌توان انتظار داشت. برای مثال، برخی از سازمان‌هایی که در صنایع تحت نظارت شدید قانون فعالیت دارند، تا زمانی که درک بهتری از هوش مصنوعی مولد داشته باشند نمی‌توانند این اپلیکیشن‌ها را در اختیار مشتری قرار دهند.

ساختار کارآمد حاکمیتی

پس از تعیین تعهدات، شرکت‌ها آمده می‌شوند تا فرصت‌های استفاده از محصولات و راه‌حل‌های هوش مصنوعی را بررسی کنند و در این مسیر به ساختار‌ها، سیاست‌ها و فناوری مناسب نیاز است.

ساختار‌ها و مسئولیت‌ها. هوش مصنوعی مولد تاثیرش را بر تمام واحد‌های تجاری و عملیات‌های شرکتی می‌گذارد. به دلیل همین ماهیت فراگیر، حاکمیتی با ساختار میان‌وظیفه‌ای است که افراد کلیدی تمامی گروه‌های مرتبط را شامل شود. همه باید به روشنی از نقش‌ها و مسئولیت‌های خود مطلع شوند و رهبران تجاری باید مسئولیت ادغام هوش مصنوعی مسئولانه در پیشنهادات و عملیات‌ها را برعهده بگیرند. به این ترتیب یک ذهنیت مسئولیت‌پذیر در سازمان شکل می‌گیرد اما ممکن است شرکت‌ها بخواهند تا یک رهبر اصلی را به طور ویژه به هوش مصنوعی مسئولیت پذیر اختصاص دهند تا روند پاسخگویی شفاف‌تر شود.

حدود یک چهارم از لیست ۲۰ شرکت برتر مجله فورچن (Fortune 20) در حال حاضر چنین جایگاهی را در نظر گرفته‌اند. برای مثال شرکت مایکروسافت یک رئیس ارشد هوش مصنوعی مسئولانه را در اداره هوش مصنوعی مسئولانه خود جای داده است که وظیفه تعریف رویکرد شرکت نسبت به هوش مصنوعی مسئولانه و تقویت کارکنان برای استفاده درست از آن را برعهده دارد. این مدیر با کمیته هوش مصنوعی و اخلاق داخلی مایکروسافت یا Aether همکاری می‌کند و این کمیته نیز وظیفه تحقیق و ارائه پیشنهاد درمورد موضوعات مهم هوش مصنوعی مسئولانه را برعهده دارد.

بیشتری سازمان‌ها باید سازوکارهای حاکمیتی موجود از جمله سازوکارهای فناوری، داده، فروشندگان و امنیت اطلاعات را بازنگری و هرگونه تغییر ضروری را برای رفع خطرات جدید حاصل از هوش مصنوعی و آنهایی که در نتیجه این فناوری تشدید می شوند، شناسایی کنند.

ساخت یا بروزرسانی یک آیین‌نامه رفتاری واضح برای بسیاری از شرکت‌ها ارزشمند است و این کار را می‌توان به واسطه آیین گسترده شهروندی دیجیتال یا مسئولیت‌پذیری داده، یا از طریق آیین‌نامه‌هایی که به طور خاص برای اخلاق هوش مصنوعی طراحی شده‌اند، به انجام رساند. برای مثال می‌توان سیاستی را برای استفاده تعیین کرد که باید‌ها و نباید‌ها را به وضوح مشخص کند یا برای ارزیابی موارد خاص استفاده از هوش مصنوعی، ارزیابی‌هایی در نظر گرفته شود. استاندارد هوش مصنوعی مسئولانه مایکروسافت پیش‌نیاز‌هایی را تعریف کرده و دستورالعملی، ابزارها و فعالیت‌هایی مشخص و قابل اجرا را در اختیار کارکنان قرار می‌دهد تا از آن در کار روزمره خود برای اعمال اصول هوش مصنوعی مسئولانه استفاده کنند. مایکروسافت در کنار این استاندارد یک ارزیابی تاثیر هوش مصنوعی مسئولانه را مشخص کرده است که تاثیرات احتمالی یک سیستم هوش مصنوعی بر افراد، سازمان‌ها و جامعه را می‌سنجد. شرکت‌های دیگری مثل تلفونیکا (Telefonica)، نیز فرایند‌های مشابهی دارند که کارکنان از طریق آن می‌توانند سیستم‌های هوش مصنوعی جدید را با اطمینان به پیروی از چشم‌انداز کلی شرکت برای هوش مصنوعی مسئولانه، توسعه دهند.

پلتفرم‌های و چارچوب‌های فناوری. سیستم‌های مدرن هوش مصنوعی به حدی پیچیده و پویا هستند که حاکمیت بر آنها تنها به صورت دستی امکان‌پذیر نیست. در راستای ایجاد شرایط توسعه و استفاده از فناوری هوش مصنوعی و پیروی از تعهدات هوش مصنوعی مسئولانه، پلتفرم‌های هوش مصنوعی کارآمد و چارچوب‌های توسعه اپلیکیشن نقش حیاتی دارند. یک پلتفرم هوش مصنوعی در واقع خدمات و اجزایی از هوش مصنوعی را با محدودیت‌های مورد نیاز در خود جای داده تا شرکت‌ها بتوانند سیستم‌های هوش مصنوعی را به سرعت و به گونه‌ای امن به کار گیرند. چارچوب‌های توسعه اپلیکیشن نیز بهترین فعالیت‌هایی را تسریع می‌کنند که توسعه‌دهندگان سیستم‌های هوش مصنوعی به‌واسطه آن می‌توانند از رویکرد‌های استاندارد برای خودکارسازی، آزمایش، ارزیابی و نظارت در طول عمر هوش مصنوعی استفاده کنند. آنها همچنین نگهداری بلند‌مدت از سیستم را بهبود بخشیده و امکان شفافیت مرکزی عملکرد سیستم‌های هوش مصنوعی را فراهم می‌کنند که در نتیجه سطح اطمینان از اجرای تعهدات هوش مصنوعی را افزایش می‌دهد.

نشانه‌های بارز یک فرهنگ مسئولانه هوش مصنوعی

موفقیت هوش مصنوعی به مسئولیت‌پذیری در فرهنگ سازمان بستگی دارد. شرکت‌هایی که حاکمیت مناسب و عملکرد خوبی دارند تضمین می‌کنند که:

  • اصول هوش مصنوعی مسئولانه در ذهنیت سازمانی جای بگیرد؛
  • رهبران توانمندی‌های موجود سازمان را درک کرده و تنها خطراتی را می‌پذیرند که قادر به مدیریت و پیشگیری از آن باشند؛
  • مسئولیت هماهنگی میان‌وظیفه‌ای در سیاست‌ها، فرایند‌ها و حاکمیت هوش مصنوعی مسئولانه، برعهده مدیران است؛
  • اعضای تیم منابع و مهارت‌های لازم برای استفاده موثر و مسئولانه از هوش مصنوعی را در اختیار دارند؛ و
  • سازمان تعهدات مسئولانه خود را اعلام کرده و برآنها نظارت و تاکید می‌کند و گفتمانی فعال با گروه‌ها دارد تا تعادل بین خطر و فواید برقرار شود.

با وجود پیچیدگی مسیر، نمی‌توان هوش مصنوعی را نادیده گرفت. تغییرات فناورانه و اقتصادی برآمد از این تکنولوژی به اندازه‌ای بزرگ است که نادیده گرفتن آن را غیرممکن می‌کند.

https://pvst.ir/hgg

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو