کمپینهای رفتاری جهت مصرف بهینه انرژی؛ استفاده بهینه با آگاهی
کمپینهای رفتاری با هدف افزایش آگاهی عمومی در مورد صرفهجویی انرژی در سطح جهانی از…
۱ آذر ۱۴۰۳
۲۶ شهریور ۱۴۰۳
زمان مطالعه : ۷ دقیقه
حجم رو به افزایش دادهها و لزوم استفاده از آن، هزینه زیرساخت ابری را افزایش داده است. طبق تحقیقات صورت گرفته هر چند بهکارگیری محاسبات ابری و فناوری هوش مصنوعی باعث شده تا شرکتها، امکانات و نوآوری بیشتری داشته باشند اما هزینههای قابل توجه و صعودی زیرساخت ابری مانند نگهداری، پردازش و مدیریت دادهها باعث شده نزدیک به ۵۰ درصد شرکتها پروژههای هوش مصنوعی را محدود کنند.
به گزارش پیوست، طبق گفته دبورا لف (Deborah Leff)، مدیر درآمد SQream تکامل سریع هوش مصنوعی نشان میدهد که استراتژیهای داده فعلی ممکن است کافی نباشد و تحولات مهمی در سالهای پیش رو در زمینه داده اتفاق خواهد افتاد. او بر پذیرش روشهای جدید مانند شتاب GPU تاکید داشت.
استفاده از محاسبات ابری و فناوری هوش مصنوعی موجب شده تا شرکتهای دادهمحور که تحلیل و بینشهای تجاری سطح بالایی ارائه میدهند، امکان و قدرت بیشتری داشته باشند. سرویسهای ابری با ارائه زیرساختها و ابزارهای ضروری، توسعه و استقرار فناوریهای genAI را تسهیل میکند. علاوهبر این، در دسترس بودن مدلها و بستههای نرمافزاری از پیش آموزش دیده شده در فضای ابری، ادغام genAI در فرآیندهای تحلیل داده را تسریع کرده است. افزایش حجم دادهها و هزینههای ناپایدار زیرساخت ابری، نتایجی است که در کنار موارد مثبت اتفاق افتاده است.
گزارش اخیر SQream، که یک پلتفرم کلان داده مبتنی بر GPU است در مورد وضعیت تجزیه و تحلیل دادههای بزرگ در سال ۲۰۲۴ روی موضوع فشار مالی ناشی از هزینههای تجزیه و تحلیل ابری را برجسته کرده است.
در این مطالعه که ۳۰۰ کارشناس ارشد مدیریت داده از شرکتهای آمریکایی مورد بررسی قرار گرفتهاند مشخص شد که ۷۱ درصد اغلب با هزینههای غیرمنتظره تجزیه و تحلیل ابری بالا مواجه میشوند. به طور خاص، ۵ درصد شرکتها به صورت ماهانه، ۲۵ درصد به صورت هر دو ماه یکبار و ۴۱ درصد، هر سه ماه یکبار با «شوک صورتحساب» ابری مواجه میشوند.
علاوهبر این، با وجود بودجههای قابل توجه ۹۸ درصد از شرکتها در سال ۲۰۲۳ با شکست پروژه یادگیری ماشینی(ML) به دلیل افزایش هزینههای ابری مواجه شدند.
شوکهای صورتحساب زمانی رخ میدهد که گردشهای کاری دادهها برای موتور جستوجوی ابری بسیار پیچیده، بیش از حد بزرگ باشد. علت وابستگی شدید هوش مصنوعی سازمانی و پشتههای فناوری (tech stacks) تجزیه و تحلیل دادهها به پلتفرمهای ابری، ارائه مقیاسپذیر و ظرفیت محاسباتی برای مجموعه دادههای بزرگ و الگوریتمهای پیچیده است. با افزایش نیاز به قدرت محاسباتی، هزینههای مرتبط با فضای ابری نیز افزایش مییابد.
دبورا لف، مدیر درآمد SQream، درباره دشواری مدیریت هزینهها گفت: با پیشرفت دادهها و تجزیه و تحلیل، شرکتها مجبور میشوند اندازه مجموعه دادهها را محدود کنند و پیچیدگی مدیریت هزینهها را کاهش دهند که این موضوع بر کیفیت بینش آنها تاثیر میگذارد. بسیاری از پروژههای AI/ML به دلیل هزینه بالای آزمایش روی ابر آغاز نشده است. آمادهسازی ضعیف دادهها و روشهای ناکافی پاکسازی دادهها از دیگر عوامل اصلی شکست پروژه به حساب میآید.
هزینه اجرای دادهها و فناوریهای هوش مصنوعی از طریق ابر یک عامل بازدارنده مهم بوده است. تورم هزینه ابری قرار است در سال ۲۰۲۴ ادامه بیابد و در نتیجه اقدامات کاهش هزینه در شرکتها را که سال گذشته تشدید شده بود ضروری میکند.
شاخص قیمت تولیدکننده (PPI) اداره آمار کار ایالات متحده برای سال ۲۰۲۴ نشان میدهد که به صورت ماهانه، افزایشی در پردازش دادهها و خدمات مرتبط که شامل محاسبات ابری است رخ خواهد داد. افزایش سالانه فعلی ۳.۷ درصد است.
همچنین، این هزینهها باعث شده است که پرسوجوی دادهها و حجم پروژهها نیز به خطر بیفتند. تقریبا نیمی از شرکتها (۴۸ درصد) در مطالعه SQream اظهار کردند که برای مدیریت هزینههای تحلیلی به ویژه در مورد منابع ابری و بارهای محاسباتی، پیچیدگی پرسوجوها را کاهش دادهاند. در همین حال، ۴۶ درصد به دلیل مقدار زیاد هزینهها، پروژههای مبتنی بر هوش مصنوعی را محدود میکنند.
اما بحران هزینه فراتر از قیمتگذاری فروشنده است. لف توضیح داد که کسبوکارها اغلب به طور کامل تجزیه و تحلیل نمیکنند که کدام داراییهای IT داخلی از مهاجرت ابری سود میبرند.
هزینه یک عامل اصلی در شکست پروژه است زیرا هزینهها اغلب در طول آزمایش افزایش مییابد. این بدین معنا نیست که معماری یادگیری ماشین شکست میخورد، بلکه مدیریت، تصمیم میگیرد در صورت افزایش هزینهها، سرمایهگذاری را متوقف کند. زمان ارزشگذاری بسیار مهم است و آزمایش اغلب به دلیل اندازه و پیچیدگی دادههای مدرن منجر به هزینههای بالا و قابل توجهی میشود.
در بخش آمادهسازی دادهها، ۳۳ درصد از شرکتها از ۵ تا ۱۰ ابزار مختلف استفاده میکنند که این امر پیچیدگی کار را به شدت افزایش داده است. استفاده همزمان از ابزارهای مختلف توسط کاربران مختلف، مدیریت و تحلیل فرآیند را با مشکل مواجه میکند. به نظر میرسد برای حل این مشکل، شرکتها باید به دنبال راهکارهایی برای سادهسازی و یکپارچهسازی ابزارهای خود باشند.
لف در ادمه گفت: اکوسیستم مراکز داده که بر فناوری ۴۰ ساله بنا شده است، نیاز به نوسازی دارد. پایبندی به روشهای قدیمی راهحل نیست. در عوض، شرکتها باید روشهای نوآورانهای را بررسی کنند تا اجازه ندهند هزینهها و محدودیتهای دادهای تواناییهای تحلیلی آنها را محدود کند. همچنین ابزارهایی مانند NVIDIA Rapids ارزشمند هستند اما به مهارتهای توسعهدهنده نیاز دارند که نیاز به راهحلهای قابل دسترستر را برجسته میکند. شرکتها باید وضعیت موجود را به چالش کشیده و به دنبال گزینههای بهتری برای غلبه بر محدودیتهای فعلی باشند.
از آنجایی که شرکتها در حال عبور از اختلالات بازار ناشی از هوش مصنوعی مولد و ظهور مدلهای زبان بزرگ (LLM) هستند، انفجار در حجم دادهها و پیچیدگی، فناوریهای ML را برای رقابت در بازار ضروری میکند. محدود کردن درخواستهای داده برای سیستمهای هوش مصنوعی جهت مدیریت هزینهها منجر به بینشهای سطحی میشود که این موضوع به خاتمه زودهنگام پروژه منجر میشود. ۹۲ درصد از شرکتهای شرکتکننده در این مطالعه اعلام کردند فعالانه در تلاش هستند تا هزینههای ابری خود را برای تجزیه و تحلیلها «حق اندازهسازی» کنند تا با بودجهشان هماهنگتر شود.
لف توضیح داد که شتابدهندههای گرافیکی (GPU) برخلاف تصور رایج مبنی بر گران بودن، میتواند هزینهها را بهطور قابل توجهی کاهش دهد و در عین حال، سرعت پردازش را بالا ببرد.
این راهحل، مزایای استفاده از ابر را با قدرت پردازش موازی و قابلتطبیق GPU ترکیب میکند و در عین حال، یک گزینه قیمتگذاری انعطافپذیر را برای مدیریت آسان و چابک بودن ابر در اختیار میگذارد. شرکتها میتوانند به جای خرید سختافزار GPU، آها را به صورت مورد نیاز اجاره کرده و در صورت افزایش یا کاهش نیاز، به طور خودکار ظرفیت پردازشی خود را تغییر دهند.
به عبارتی، استفاده از GPU به شرکتها این امکان را میدهد تا بدون صرف هزینههای اولیه زیاد، از قدرت پردازشی بسیار بالایی بهرهمند شوند و هزینههای خود را بر اساس نیازشان مدیریت کنند.
بانک آنلاین بزرگ NCBA که روزانه تا ۶۰ میلیون کاربر دارد، در ابتدا برای بهروزرسانی مدلهای بازاریابی خود با دادههای کلیک روزانه به ۳۷ ساعت زمان نیاز داشت.
با وجود تلاش برای بهبود پرسوجوها و بررسی گزینههای سختافزاری گرانقیمت، این تأخیر زیاد باعث میشد که آنها نتوانند از دادهها به بهترین شکل و به موقع استفاده کنند.
وقتی آنها از شتابدهندههای گرافیکی (GPU) استفاده کردند، زمان مورد نیاز برای انجام این کار به تنها ۷ ساعت کاهش یافت. این یعنی آنها توانستند هر روز مدلهای خود را به سرعت بهروز کنند.
در واقع استفاده از GPU به بانک NCBA کمک کرد تا بتواند دادههای خود را بسیار سریعتر پردازش کند و در نتیجه، مدلهای بازاریابی خود را با سرعت بیشتری بهروز کند. این امر باعث شد که آنها بتوانند از دادههای خود به صورت استراتژیک و به موقع استفاده کنند و تصمیمات بهتری بگیرند.
لف تاکید کرد که شرکتها باید فعالانه فکر کنند و مرزهای ممکن را پشت سر بگذارند. تکامل سریع هوش مصنوعی مولد نشان میدهد که استراتژیهای داده فعلی ممکن است کافی نباشد. او پیشبینی کرد که دو سال آینده تغییرات چشمگیری در بخش فناوری اطلاعات واقع خواهد شد.
ما باید آیندهای را تصور کنیم و برای آیندهای آماده باشیم که در آن دادهها رشد میکنند و پرسشها پیچیدهتر میشوند و دیگر خبری از محدودیتهای قدیمی نیست. پذیرش روشهای جدید مانند شتاب GPU میتواند ارزش قابل توجهی را باز کند و کسانی که به سرعت عمل میکنند، از مزایای آن بهرهمند خواهند شد.
منبع: indianexpress