مصاحبه مارک زاکربرگ با مدیرعامل خبرگزاری اینفورمیشن: از جذب استعدادها تا هوش مصنوعی شخصی و زیرساخت
مدیرعامل متا، مالک اینستاگرام و فیسبوک، در مصاحبهای با جسیکا لسین، مدیرعامل خبرگزاری اینفورمیشین، درمورد…
۲۵ تیر ۱۴۰۴
۲۵ تیر ۱۴۰۴
زمان مطالعه : ۴ دقیقه
در حالی که غولهای اقتصادی آمریکا در عرصه عمومی هوش مصنوعی را با شور و هیجان بهعنوان فرصتی نوین برای نوآوری و بهرهوری تبلیغ میکنند، اما در پشت صحنه، بسیاری از آنها هوش مصنوعی را بهعنوان یک تهدید مهم در گزارشهای مالی رسمی خود معرفی کردهاند.
به گزارش پیوست به نقل از رجیستر، گزارشی از موسسه تحقیقاتی Autonomy Institute نشان میدهد که سهچهارم شرکتهای حاضر در شاخص S&P 500 طی یک سال گذشته بندهای مربوط به خطرات مرتبط با هوش مصنوعی را در فرمهای 10-K خودکه به کمیسیون بورس و اوراق بهادار آمریکا (SEC) ارائه میشود، بهروزرسانی کردهاند.
این افشای ریسکها که باید در آنها تمام عوامل خطرزا برای وضعیت مالی و عملکرد شرکت را مشخص کنند، معمولا با احتیاط مشخص میشوند، اما تغییرات حتی جزئی در این اسناد میتواند نشانهای از دغدغههای جدید و اولویتهای راهبردی در حال تحول شرکتها باشد.
گزارش نشان میدهد که در تمام بخشهای صنعتی، بیش از نیمی از شرکتها افشای ریسک مرتبط با هوش مصنوعی را گسترش دادهاند؛ این روند در بخش فناوری اطلاعات بیشترین رشد را داشته و پس از آن، بخشهای مالی و خدمات ارتباطی قرار دارند.
با اینکه از زمان رونمایی از مدل زبانی ChatGPT در سال ۲۰۲۲ توجه بسیاری به فرصتهای نهفته در اتوماسیون و تحول مدلهای کسبوکار معطوف شده است، اما شرکتها اکنون در اسناد مالی رسمی خود بهطور فزایندهای به خطرات ناشی از این فناوری نیز میپردازند. این خطرات شامل مسائل اخلاقی، ریسکهای قانونی، آسیبپذیریهای امنیتی، و اختلالات عملیاتی هستند.
برای مثال، ۳۹ درصد از شرکتهای حاضر در شاخص S&P 500 در گزارشهای خود بهوضوح نسبت به سواستفاده مجرمانه از هوش مصنوعی، شامل جعل هویت دیجیتال، تولید محتوای گمراهکننده، و ایجاد کدهای مخرب هشدار دادهاند. شرکت Salesforce در فرم 10-K خود برای سال منتهی به ژانویه ۲۰۲۵ میگوید: «با رشد حضور ما در بازار، احتمال تهدیدهای امنیتی و حملات سایبری افزایش مییابد، و با توسعه سریع مدلهای زبانی مولد، مهاجمان از این فناوریها برای طراحی حملاتی پیچیده، هدفمند، و خودکار استفاده میکنند که مقابله با آنها دشوارتر است.»
از جمله دیگر تهدیدها که در گزارشها نقش پررنگی دارد، فناوری «دیپفیک» است. در سال گذشته تعداد شرکتهایی که به خطر محتوای صوتی، تصویری یا ویدیویی جعلی اشاره کردهاند، بیش از دو برابر شده است. با این حال شرکتهایی مانند ادوبی و Marsh McLennan جزو نخستینهایی هستند که از سال ۲۰۱۹ به این موضوع پرداختهاند.
در همین حال، گزارش حاکی از آن است که بسیاری از شرکتهایی که سرمایهگذاری هنگفتی را به هوش مصنوعی اختصاص دادهاند، هنوز بازده مشخصی از این سرمایهگذاریها مشاهده نکردهاند. ۵۷ شرکت (معادل ۱۱ درصد از کل) صراحتا هشدار دادهاند که ممکن است هرگز نتوانند هزینههای خود در این حوزه را جبران کنند یا به مزایای وعده داده شده دست یابند.
در حوزه قانونگذاری، مقررات جدید اتحادیه اروپا برای هوش مصنوعی (EU AI Act) توجه زیادی را جلب کرده است. اگرچه هنوز جریمه یا دادخواست حقوقی خاصی علیه شرکتهای آمریکایی به استناد این مقررات صادر نشده، اما برخی از شرکتها در گزارشهای مالی خود از تحقیقات و اقدامات قضایی داخلی آمریکا در حوزههایی چون استفاده از هوش مصنوعی در خودروها خبر دادهاند.
نکته قابل تامل دیگر این است که تنها ۱۹ درصد از شرکتها بندهای مربوط به حریم خصوصی دادهها و حقوق مالکیت فکری در ارتباط با هوش مصنوعی را گسترش دادهاند، با اینکه این ریسکها بهویژه برای شرکتهایی که به مدلهای تولیدشده توسط شرکتهایی مانند اوپنایآی یا انتروپیک متکی هستند، بسیار مهم تلقی میشود.
برای مثال شرکت GE Healthcare، هشدار داده که ممکن است دسترسی محدودی به مالکیت فکری مدلهای زبانی مورد استفاده داشته باشد و این امر توانایی شرکت برای راستیآزمایی شفافیت و قابلیت اعتماد این مدلها را تضعیف کند.
علاوه بر این، وابستگی عملیاتی به ارائهدهندگان خارجی هوش مصنوعی نیز بهعنوان یک ریسک کلیدی شناسایی شده است؛ چرا که در صورت بروز اختلال یا قطعی در سرویس، کل عملیات شرکت ممکن است متوقف شود. همچنین، تمرکز توان هوش مصنوعی در دست تعداد اندکی از شرکتها، آنها را به اهداف جذابی برای حملات سایبری تبدیل کرده است.
در مواجهه با این تهدیدها، برخی از شرکتها در حال تنوعبخشی به ابزارهای هوش مصنوعی خود و سرمایهگذاری در توسعه زیرساختهای بومی هستند تا وابستگی کمتری به بازیگران خارجی داشته باشند.
با وجود همه این نگرانیها، برخلاف ترس عمومی از بیکاری ناشی از هوش مصنوعی، شرکتها در گزارشهای خود کمتر به این موضوع پرداختهاند و بیشتر تمرکز آنها بر آسیب به منافع تجاری و افشای دادههای حساس از طریق مدلهای زبانی است.
ویل استرونگ، مدیرعامل Autonomy Institute، در اینباره میگوید: «این تحلیل تازه تصویر جدیدی از تاثیر هوش مصنوعی در جهان کسبوکار ارائه میدهد که فراتر از روایتهای سطحی رسانهای است. اینها ترسهای فرضی نیستند، بلکه تهدیداتی واقعیاند که شرکتها به صراحت آنها را بهعنوان عامل تاثیرگذار بر سودآوری و رقابتپذیری خود در اسناد رسمی ذکر کردهاند. آنچه جالب است، سرعت رشد این دغدغههاست.»