LLM هشتمیلیاردی از گروه مدل زبانی «درنا» به نسخه ۲ ارتقا پیدا کرد
«درنا» یکی از گروههای مدل زبانی فارسی است که توسط پارت توسعه داده شده و…
۱۷ آذر ۱۴۰۳
۲۳ مرداد ۱۴۰۲
زمان مطالعه : ۴ دقیقه
گری گنسلر، رئیس کمیسیون بورس و اوراق بهادار آمریکا (SEC)، میگوید هوش مصنوعی در قلب بحرانهای مالی آینده قرار دارد و کاری از دست رگولاتورها برای پیشی گرفتن آن بر نمیآید.
به گزارش پیوست، پیام رئیس SEC به عنوان یکی از مهمترین رگولاتوریهای ایالات متحده، تصویر تاریکی از آینده بازارهای مالی را با محوریت AI به تصویر میکشد.
گنسلر در مقالهای که سال ۲۰۲۰ و هنگام تدریس در دانشگاه MIT منتشر کرده است با بررسی خطرات احتمالی میگوید کار چندانی از دست رگولاتورها بر نمیآید.
اکسیوس میگوید اهمیت اصلی نقش هوش مصنوعی در بازارهای مالی، قدرت گرفتن الگوریتمهای معاملاتی پنهانی است که همگی و در یک زمان واحد تصمیم به فروش یک سهام یا دارایی خاص میگیرند، درنتیجه بازار به شدت سقوط میکند.
در مقاله گنسلر آمده است: «در واقع افراد زیادی از مهارت کافی برای ساخت و مدیریت این مدلها برخوردار نیستند و همه آنها هم پسزمینه تقریبا مشابهی دارند. افزون بر این، افرادی که در کنار هم آموزش دیدهاند پیوستگیهای زیادی دارند که از آن به عنوان اثر کارآموزی یاد میشود.»
همچنین، قوانین هم ممکن است باعث یکنواختی مدلهای هوش مصنوعی شوند. اگر رگولاتورها اختیارات هوش مصنوعی را کنترل کنند، خطر تشابه بیش از حد این مدلها و تقریبا تبدیل آنها به یک چیز واحد بیشتر میشود و احتمال اینکه شرکتها از هوش مصنوعی به عنوان یک خدمت استفاده کنند و چند ارائه دهنده بزرگ همه را تامین کنند، بیشتر میشود.
از آنجایی که باید و نبایدهایی که این مدلها برای خرید و فروش در نظر میگیرند برای انسانها مبهم و ناشناخته است، جلوگیری از سقوط بازارهای معاملاتی برای رگولاتورها امکانپذیر نیست.
گنسلر مینویسد: «اگر پیشبینیهای یادگیری عمیق قابل توضیح بودند، دیگر دلیل برای استفاده از آنها وجود نداشت.»
البته که الگوریتمهای معاملاتی تنها بخشی از خطرات احتمالی هوش مصنوعی هستند.
بسیاری از ابزارهای هوش مصنوعی در بحث اعتبارسنجی استفاده میشوند. درنتیجه ناشناخته و گنگ بودن این ابزارها، به سختی میتوان تبعیض احتمالی را تشخیص داد و از آنجایی که ابزارهای هوش مصنوعی همواره و به طرق غیرقابل پیشبینی تکامل پیدا میکنند، نمیتوان اطمینان داشت ابزاری که دیروز نژاد پرست نبوده، امروز هم نژاد پرست نخواهد بود.
گنسلر مینویسد: «احتمالا با بکارگیری گسترده یادگیری عمیق در امور مالی، شاهد شکلگیری یک سری خلاهای رگولاتوری هستیم. از نظر ما یادگیری عمیق، خطر سیستمیک را بیشتر میکند.»
شاید سادهترین و تاثیرگذارترین پاسخ رگولاتوری همین باشد که پیشنیاز سرمایه موسسات مالی را برای استفاده از ابزارهای هوش مصنوعی افزایش دهد.
شاید هم رگولاتوری الزام کند که تمامی نتایج زاده هوش مصنوعی یک آزمون خطی سنتی را پشت سر بگذارند که بیشتر از خود ابزارها قابل توضیح و درک است. همچنین شرکتها باید از اقداماتی که از لحاظ بنیادی غیرقابل توجیه است اجتناب کنند.
با این حال، رگولاتورها شاید بتوانند از سرعت افزایش خطر بکاهند، اما جلوگیری کامل از خطر سیستمیک امکانپذیر نیست.
گنسلر در مقاله خود مینویسد هوش مصنوعی «عطش سیری ناپذیری برای داده دارد» و مشکل آنجاست که مدلهای هوش مصنوعی با استفاده از دادههای عظیم و مشترک، نقاط ضعف مشترکی خواهند داشت.
او مینویسد: «مدلهایی که براساس دیتاستهای مشترک ساخته شدهاند، احتمالا پیشبینیهای بسیار مرتبطی خواهند داشت که به آرامی باعث درونرانی (Crowding) و اقدام گروهی میشود.»
گنسلر همچنین معتقد است که عطش اطلاعات باعث تجمع حجم زیادی از داده در یک مکان خاص شده و به انحصار میانجامد. در این حالت، نقاط شکست متمرکزی خواهیم داشت که تمام شبکه را تهدید میکنند.
افزون بر این حتی بزرگترین پایگاههای داده هم به شکل خطرناکی ناقص هستند. او مینویسد: «دادههای استفاده از اینترنت، پوشیدنیها، تلماتیکس، GPS و گوشیهای هوشمند همگی در کنار هم از افق زمانی کافی برای پوشش حتی یک چرخه کامل مالی برخوردار نیستند.»
این مساله پیامدهای مخربی دارد که در بحران اقتصادی (۲۰۰۸) مشابه آن را شاهد بودیم و خطر درونرانی همچنان باقی است.
از سوی دیگر، شرکتهای فعال در کشورهای در حال توسعه ممکن است از ابزارهایی برای فعالیت در بازارهای مالی خود استفاده کنند که هیچ بهرهای از دادههای بومی کشور نبرده و در این صورت خطر بیشتری را شاهد هستیم.
در آخر اینکه، ابزارهای هوش مصنوعی نمیدانند که نمیدانند و همین مساله خطر را تشدید میکند.