skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

ترفند محققان علی‌بابا برای کاهش چشمگیر مصرف GPU برای ابر‌هایی که چندین مدل ارائه می‌دهند

۲۸ مهر ۱۴۰۴

زمان مطالعه : ۳ دقیقه

محققان شرکت علی‌بابا از راهکار نوآورانه‌ای با نام Aegaeon رونمایی کرده‌اند که طبق اعلام آنها می‌تواند میزان استفاده از پردازنده‌های گرافیکی انویدیا (GPU) را تا ۸۲ درصد کاهش دهد. این سیستم با هدف بهینه‌سازی منابع محاسباتی برای مدل‌های هوش مصنوعی طراحی شده و طی بیش از سه ماه در بازار مدل‌های ابری علی‌بابا کلود به‌صورت آزمایشی مورد استفاده قرار گرفته است.

به گزارش پیوست به نقال SCMP، گزارش ارائه‌شده در سی و یکمین سمپوزیوم اصول سیستم‌های عامل (SOSP) در سئول، راهکار Aegaeon به توسعه دهنده هوش مصنوعی یا ارائه دهنده ابری این امکان را می‌دهد تا GPUهای مورد نیاز برای اجرای ده‌ها مدل زبانی تا ۷۲ میلیارد پارامتر را از ۱۱۹۲ عدد به تنها ۲۱۳ عدد کاهش دهد. پژوهشگران دانشگاه پکن و علی‌بابا کلود طی مقاله‌ای علمی اعلام کردند که این فناوری برای نخستین‌بار هزینه‌های پنهان و سنگین ناشی از سرویس‌دهی هم‌زمان به مدل‌های بزرگ زبانی را آشکار کرده است.

به گفته زهو جینگرن، مدیر ارشد فناوری علی‌بابا کلود و یکی از نویسندگان مقاله، هدف اصلی از توسعه Aegaeon افزایش بهره‌وری در زیرساخت‌های ابری و کاهش اتلاف منابع در زمان اجرای مدل‌های هوش مصنوعی است. بخش ابری علی‌بابا در روز پنج‌شنبه اعلام کرد که این راهکار اکنون به‌صورت رسمی در بازار مدل‌های خود با نام Bailian پیاده‌سازی شده و مدل‌های زبانی اختصاصی شرکت مانند Qwen را از این طریق در اختیار کاربران سازمانی می‌گذارد.

در حال حاضر، ارائه‌دهندگان خدمات ابری مانند علی‌بابا کلاد و پلتفرم Volcano Engine متعلق به بایت‌دنس، هزاران مدل هوش مصنوعی را به‌صورت هم‌زمان اجرا می‌کنند. با این حال، بخش عمده درخواست‌ها تنها به چند مدل محبوب مربوط می‌شود، در حالی که بسیاری از مدل‌های دیگر به‌ندرت فراخوانی می‌شوند. یافته‌ها نشان می‌دهد حدود ۱۷.۷ درصد از GPUها تنها به ۱.۳۵ درصد از درخواست‌ها اختصاص یافته‌اند؛ مشکلی که Aegaeon با رویکرد «تجمیع توان محاسباتی» آن را برطرف می‌کند.

این تحولات در حالی صورت می‌گیرد که تراشه H20 شرکت آمریکایی انویدیا که برای انجام پردازش‌های استنتاجی در مدل‌های هوش مصنوعی و به‌طور خاص برای بازار چین طراحی شده بود، اکنون با چالش‌هایی روبه‌رو است. این تراشه در پاسخ به محدودیت‌های صادراتی دوره بایدن توسعه یافته بود، اما اخیرا در معرض تحقیقات نهادهای نظارتی چین به‌دلیل نگرانی از وجود درهای پشتی امنیتی قرار گرفته است.

هم‌زمان، شرکت‌های بزرگ چینی مانند هواوی و کمبریکن (Cambricon Technologies) تلاش‌های خود را برای توسعه تراشه‌های گرافیکی بومی افزایش داده‌اند؛ اقدامی که در راستای سیاست خودکفایی فناوری پکن دنبال می‌شود. جنسن هوانگ، بنیان‌گذار و مدیرعامل انویدیا، اوایل ماه جاری اعلام کرد که در پی بالا گرفتن تنش‌های تجاری میان آمریکا و چین، تیم سبز که زمانی بیش از ۸۰ درصد از تمام بازار چین را تحت سلطه خود داشت، حالا سهم عملا به به «صفر» سقوط کرده است.

فناوری Aegaeon می‌تواند در چنین شرایطی، به یکی از مهم‌ترین ابزارهای کاهش وابستگی به سخت‌افزار خارجی و افزایش کارایی مراکز داده ابری چین تبدیل شود؛ گامی راهبردی که احتمالا جایگاه علی‌بابا را در رقابت فشرده زیرساخت‌های هوش مصنوعی تقویت خواهد کرد.

 

https://pvst.ir/moc

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو