skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

بحران اقتصادی آینده را هوش مصنوعی رقم می‌زند

۲۳ مرداد ۱۴۰۲

زمان مطالعه : ۴ دقیقه

گری گنسلر، رئیس کمیسیون بورس و اوراق بهادار آمریکا (SEC)، می‌گوید هوش مصنوعی در قلب بحران‌های مالی آینده قرار دارد و کاری از دست رگولاتور‌ها برای پیشی گرفتن آن بر نمی‌آید.

به گزارش پیوست، پیام رئیس SEC به عنوان یکی از مهمترین رگولاتوری‌های ایالات متحده، تصویر تاریکی از آینده بازارهای مالی را با محوریت AI به تصویر می‌کشد.

گنسلر در مقاله‌ای که سال ۲۰۲۰ و هنگام تدریس در دانشگاه MIT منتشر کرده است با بررسی خطرات احتمالی می‌گوید کار چندانی از دست رگولاتور‌ها بر نمی‌آید.

اکسیوس می‌گوید اهمیت اصلی نقش هوش مصنوعی در بازارهای مالی، قدرت گرفتن الگوریتم‌های معاملاتی پنهانی است که همگی و در یک زمان واحد تصمیم به فروش یک سهام یا دارایی خاص می‌گیرند، درنتیجه بازار به شدت سقوط می‌کند.

در مقاله گنسلر آمده است: «در واقع افراد زیادی از مهارت کافی برای ساخت و مدیریت این مدل‌ها برخوردار نیستند و همه‌ آنها هم پس‌زمینه تقریبا مشابهی دارند. افزون بر این، افرادی که در کنار هم آموزش دیده‌اند پیوستگی‌های زیادی دارند که از آن به عنوان اثر کارآموزی یاد می‌شود.»

همچنین، قوانین هم ممکن است باعث یکنواختی مدل‌های هوش مصنوعی شوند. اگر رگولاتور‌ها اختیارات هوش مصنوعی را کنترل کنند، خطر تشابه بیش از حد این مدل‌ها و تقریبا تبدیل آنها به یک چیز واحد بیشتر می‌شود و احتمال اینکه شرکت‌ها از هوش مصنوعی به عنوان یک خدمت استفاده کنند و چند ارائه دهنده بزرگ همه را تامین کنند، بیشتر می‌شود.

از آنجایی که باید و نباید‌هایی که این مدل‌ها برای خرید و فروش در نظر می‌گیرند برای انسان‌ها مبهم و ناشناخته است، جلوگیری از سقوط بازار‌های معاملاتی برای رگولاتور‌ها امکان‌پذیر نیست.

گنسلر می‌نویسد: «اگر پیش‌بینی‌های یادگیری عمیق قابل توضیح بودند، دیگر دلیل برای استفاده از آنها وجود نداشت.»

البته که الگوریتم‌های معاملاتی تنها بخشی از خطرات احتمالی هوش مصنوعی هستند.

بسیاری از ابزارهای هوش مصنوعی در بحث اعتبارسنجی استفاده می‌شوند. درنتیجه ناشناخته و گنگ بودن این ابزارها، به سختی می‌توان تبعیض احتمالی را تشخیص داد و از آنجایی که ابزارهای هوش مصنوعی همواره و به طرق غیرقابل پیش‌بینی تکامل پیدا می‌کنند، نمی‌توان اطمینان داشت ابزاری که دیروز نژاد پرست نبوده، امروز هم نژاد پرست نخواهد بود.

گنسلر می‌نویسد: «احتمالا با بکارگیری گسترده یادگیری عمیق در امور مالی، شاهد شکل‌گیری یک سری خلا‌های رگولاتوری هستیم.  از نظر ما یادگیری عمیق، خطر سیستمیک را بیشتر می‌کند.»

شاید ساده‌ترین و تاثیر‌گذار‌ترین پاسخ رگولاتوری همین باشد که پیش‌نیاز سرمایه موسسات مالی را برای استفاده از ابزارهای هوش مصنوعی افزایش دهد.

شاید هم رگولاتوری الزام کند که تمامی نتایج زاده هوش مصنوعی یک آزمون خطی سنتی را پشت سر بگذارند که بیشتر از خود ابزارها قابل توضیح و درک است. همچنین شرکت‌ها باید از اقداماتی که از لحاظ بنیادی غیرقابل توجیه است اجتناب کنند.

با این حال، رگولاتور‌ها شاید بتوانند از سرعت افزایش خطر بکاهند، اما جلوگیری کامل از خطر سیستمیک امکان‌پذیر نیست.

داده‌ها معضل اصلی هستند

گنسلر در مقاله خود می‌نویسد هوش مصنوعی «عطش سیری ناپذیری برای داده دارد» و مشکل آنجاست که مدل‌های هوش مصنوعی با استفاده از داده‌های عظیم و مشترک، نقاط ضعف مشترکی خواهند داشت.

او می‌نویسد: «مدل‌هایی که براساس دیتاست‌های مشترک ساخته‌ شده‌اند، احتمالا پیش‌بینی‌های بسیار مرتبطی خواهند داشت که به آرامی باعث درون‌رانی ‌ (Crowding) و اقدام گروهی می‌شود.»

گنسلر همچنین معتقد است که عطش اطلاعات باعث تجمع حجم زیادی از داده در یک مکان خاص شده و به انحصار می‌انجامد. در این حالت، نقاط شکست متمرکزی خواهیم داشت که تمام شبکه را تهدید می‌کنند.

افزون بر این حتی بزرگترین پایگاه‌های داده‌ هم به شکل خطرناکی ناقص هستند. او می‌نویسد: «داده‌های استفاده از اینترنت، پوشیدنی‌ها، تلماتیکس، GPS و گوشی‌های هوشمند همگی در کنار هم از افق زمانی کافی برای پوشش حتی یک چرخه کامل مالی برخوردار نیستند.»

این مساله پیامد‌های مخربی دارد که در بحران اقتصادی (۲۰۰۸) مشابه آن را شاهد بودیم و خطر درون‌رانی همچنان باقی است.

از سوی دیگر، شرکت‌های فعال در کشور‌های در حال توسعه ممکن است از ابزارهایی برای فعالیت در بازارهای مالی خود استفاده کنند که هیچ بهره‌ای از داده‌های بومی کشور نبرده و در این صورت خطر بیشتری را شاهد هستیم.

در آخر اینکه، ابزارهای هوش مصنوعی نمی‌دانند که نمی‌دانند و همین مساله خطر را تشدید می‌کند.

https://pvst.ir/fod

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو