متخصصان و مدیران صنعت فناوری معتقدند که با وجود تکرار مداوم بحث هوش مصنوعی و…
۲ اسفند ۱۴۰۳
۳۰ بهمن ۱۴۰۳
زمان مطالعه : ۸ دقیقه
یکی از چالشها در حوزه هوش مصنوعی، توسعه مدلهای بومی کارآمد در بستری از محدودیتهای زیرساختی است. متخصصین و توسعهدهندگان مدلهای حوزه هوش مصنوعی معتقدند؛ تاکنون تلاشها بیشتر بر فاینتیون کردن مدلهای موجود متمرکز بوده، اما این مسیر بهتنهایی کافی نیست. آموزش مدلهای بومی از پایه، نیازمند زیرساختهای قدرتمندی است که در حال حاضر، یک نقطه ضعف جدی محسوب میشود.
با این حال، بهینهسازی پردازش، معماری و استنتاج میتواند ما را به سمت مدلهایی سازگار با منابع داخلی و در عین حال رقابتی هدایت کند. اما آیا این مسیر برای ما هموار است و یا توسعه مدلهای این حوزه در کشور تا چه حد امکانپذیر است به بررسیهای عمیقی نیاز دارد.
به گزارش پیوست؛ آرش امینی، عضو هیئت علمی برق دانشگاه صنعتی شریف و مدیر فنی MCILab، در نشست پژوهشگاه ارتباطات و فناوری اطلاعات با محوریت «دستیابی به عمق هوش مصنوعی در لایه مدل» تأکید کرد: پیشرفتهای عمده در حوزه هوش مصنوعی در سطح جهانی بیشتر در شرکتهای بزرگ اتفاق میافتد تا در دانشگاهها، من به عنوان فردی که در هردو بخش فعالیت دارم معتقدم پیشرفتهای چشمگیر و سریع فناوری هیچ وقت به واسطه توسعه مدلهای کاربردی توسط دانشگاهها نمیتواند انجام شود. او در این رابطه گفت: «اگر به روند جهانی نگاه کنیم، میبینیم که پیشرفت اصلی در حوزه هوش مصنوعی بیشتر در سمت شرکتها اتفاق میافتد تا دانشگاهها، چرا که دانشگاهها زیرساختهای لازم را ندارند. حتی دانشگاههای مطرح دنیا نیز در این زمینه قابل مقایسه با شرکتهایی مانند گوگل، اپنایآی، مایکروسافت و متا نیستند. این موضوع در ایران نیز صدق میکند، با این تفاوت که هم شرکتهای ما و هم دانشگاههای ما از نظر زیرساختی در سطحی بهمراتب پایینتر قرار دارند.»
او درباره چگونگی دستیابی به استقلال نسبی در توسعه مدلهای هوش مصنوعی در ایران توضیح داد: «برای رسیدن به یک سطحی از استقلال در این حوزه، باید توان طراحی و آموزش شبکههای عصبی را داشته باشیم. اینکه بتوانیم مدلی در مقیاس اپنایآی یا دیپمایند ایجاد کنیم، با توجه به زیرساختهای موجود در ایران، شاید عملی نباشد، اما در مقیاسهای کوچکتر حتماً باید این کار را انجام دهیم.»
امینی همچنین به چالشهای استفاده از مدلهای از پیش آموزشدیدهشده توسط شرکتهای خارجی اشاره کرد و گفت: «الان بسیاری از مدلهای هوش مصنوعی که در اختیار داریم، مدلهایی هستند که شرکتهای دیگر آموزش دادهاند و بهصورت متنباز ارائه کردهاند. ما میتوانیم این مدلها را دریافت کرده و تا حدی شخصیسازی کنیم، اما در نهایت مدل اصلی متعلق به شرکت دیگری است. این کار شبیه به این است که یک خودروی پراید را تغییر داده و به وانت تبدیل کنیم؛ در نهایت، شاید این وانت بتواند بار جابهجا کند، اما بهعنوان یک وانت واقعی پذیرفته نمیشود، چون از ابتدا برای این هدف طراحی نشده است.»
او بر اهمیت طراحی مدلهای بومی تأکید کرد و گفت: «اگر بتوانیم مدلهایی را از ابتدا بر اساس نیازهای خود طراحی و آموزش دهیم، میتوانیم معماری، سایز و دادههای آموزشی را متناسب با نیازهای بومی خود تنظیم کنیم. این موضوع کمک میکند که در هنگام اجرا، با چالشهایی مانند ناسازگاری مدل با وظایف خاص مواجه نشویم. در غیر این صورت، همواره مجبور خواهیم بود مدلهای خارجی را بهطور سطحی تغییر دهیم، که این کار به مشکلاتی در عملکرد منجر خواهد شد».
مدیر فنی MCILab گفت: با توجه به تجربیات خودمان در پروژههای اجرایی نمیتوانیم راهکار فاین تیون کردن را در این مرحلهای که قرار داریم نادیده بگیریم. این موضوع تا حدودی باعث میشود حداقل مدلی با کیفیت و دقت بالا را با نیازهای خودمان بهینه کرده باشیم که البته باید سعی کنیم عملکرد آن خیلی تحت تاثیر قرار نگیرد.
امینی به مسئله سرو کردن (بهکارگیری و اجرای مدل) اشاره کرد و یادآور شد: «حتی اگر از مدلهای خارجی استفاده کنیم، مسئله سرو کردن آنها همچنان وابسته به سرورهای خارجی خواهد بود. به این معنا که دادههای ما در هنگام پردازش از کشور خارج میشود و بازمیگردد، که این خود چالشهایی در زمینه امنیت و استقلال ایجاد میکند.»
حسین خسروپور، مشاور معاونت فناوری وزارت ارتباطات و فناوری اطلاعات، در این نشست بر اهمیت «گذار علمی و فناوری» تأکید کرد و گفت: «برای کاهش وابستگی در حوزه هوش مصنوعی، باید گامهای مشخصی را طی کنیم. اولین مرحله، شناخت دقیق مسئله است؛ اینکه این حوزه از کجا آغاز شده و روند پیشرفت آن چگونه بوده است. اگر هوش مصنوعی را یک موجودیت فناورانه در نظر بگیریم، اجزای کلیدی آن شامل زیرساخت، مدل و کاربرد است. در این میان، مدلها نقش محوری دارند و در واقع قلب تپنده این فناوری محسوب میشوند. بنابراین، اگر بخواهیم یک اولویتبندی استراتژیک انجام دهیم، تمرکز اصلی باید بر توسعه مدلها باشد».
او درباره نقش مدلهای هوش مصنوعی و انواع آن توضیح داد: «مدلهای هوش مصنوعی را میتوان به چهار دسته تقسیم کرد: مدلهای پایه (Foundation Models) مانند GPT-4 و مدلهای زبانی گوگل، مدلهای تخصصی که در حوزههای خاصی مانند پردازش تصاویر پزشکی یا مسائل حقوقی به کار میروند، مدلهای متنباز که بهصورت عمومی و توسط شرکتهایی مانند متا ارائه میشوند، و در نهایت، مدلهای پژوهشی که بیشتر به مسائلی مانند تفسیرپذیری هوش مصنوعی میپردازند».
مشاوره معاونت وزارت ارتباطات با اشاره به شرایط ایران، تأکید کرد که مدلهای تخصصی برای کشور ما مناسبتر هستند: «با توجه به زیرساختها، توانمندیهای فنی و تجربههایی که در سایر فناوریها داشتهایم، به نظر میرسد که ورود تخصصی به مدلهای خاص، مسیر واقعبینانهتری برای ما باشد. به عنوان مثال، ایران در حوزه تصاویر پزشکی در منطقه جایگاه برجستهای دارد و حجم عظیمی از داده در این زمینه در اختیار ماست. بنابراین، با بومیسازی و شخصیسازی این حوزه، میتوان هم به عمق فناوری نزدیک شد و هم رقابتپذیری در منطقه را افزایش داد. این موضوع در بخشهایی مانند کشاورزی نیز قابل مشاهده است؛ کشورهایی مانند افغانستان، ترکیه و پاکستان چنین مزیتی را در اختیار ندارند، در حالی که ما میتوانیم از آن بهره ببریم».
خسروپور در ادامه به اهمیت بعد اقتصادی هوش مصنوعی پرداخت و گفت: «اقتصاد هوش مصنوعی یکی از اولویتهای اساسی است که نباید از آن غافل شد. اگر نتوانیم برای آن مدل اقتصادی مشخصی تعریف کنیم، امکان تعمیق فناوری را نخواهیم داشت. بنابراین، ضروری است که ضمن در نظر گرفتن توانمندیهای کشور، حوزههایی را هدف قرار دهیم که علاوه بر جذابیت فناورانه، ارزش اقتصادی نیز ایجاد کنند». او اضافه کرد که برای پیشرفت در این مسیر، باید هم به زیرساختهای فنی و هم به کاربردهای عملی هوش مصنوعی توجه شود و این مباحث در نشستهای بعدی بیشتر مورد بررسی قرار خواهد گرفت.
حمیدرضا سلطانعلیزاده، سرپرست فنی مرکز تحقیق و توسعه پارت، در این نشست با اشاره به اهمیت عمیق شدن در حوزه هوش مصنوعی، فرآیند توسعه مدلهای بومی را مورد بررسی قرار داد و گفت: «برای توسعه مدلهای هوش مصنوعی، نیازمند گامهایی مشخص و متناسب با ظرفیت پردازشی کشور هستیم. اولین گام، طراحی یک پایپلاین پردازشی کارآمد است. این پایپلاین باید بتواند دادههای موجود را با کیفیت مناسب استخراج کند. در غیر این صورت، حتی اگر حجم عظیمی از داده در اختیار داشته باشیم، بدون بهینهسازی پردازش و مدلسازی، دچار مشکل خواهیم شد. از نظر زیرساختی، ما نه شرایط چین را داریم و نه آمریکا؛ بلکه وضعیت ما از چین نیز بهمراتب محدودتر است. بنابراین، باید مهندسی سطح سیستمی را به شکل ویژهای در نظر بگیریم».
او در ادامه به ضرورت بهینهسازی زیرساختهای پردازشی پرداخت و گفت: «ما باید نگاه دقیقی به پردازش سختافزاری و تعامل آن با مدلهای هوش مصنوعی داشته باشیم. بهینهسازی فرآیندهای پردازشی و تنظیم معماری متناسب با منابع موجود، یک چالش اساسی است. به عنوان نمونه، مدلهایی مانند DeepSeek توانستهاند بین میزان حافظه و توان پردازشی توازن برقرار کنند. ما نیز باید در توسعه مدلها، معماری را طوری تنظیم کنیم که بهرهوری از منابع سختافزاری به حداکثر برسد».
سلطانعلیزاده سپس به مرحله استنتاج (Inference) اشاره کرد و ادامه داد: «پس از صرف هزینههای سنگین در فرآیند توسعه مدل، مرحله استنتاج اهمیت زیادی پیدا میکند. در اینجا، با محدودیتهایی مواجه هستیم، اما یک مزیت نسبی داریم؛ نیروی انسانی متخصص که میتواند روشهای جدیدی برای بهینهسازی استنتاج ارائه دهد. بنابراین، میتوانیم روشهای نوینی را جایگزین رویکردهای فعلی کنیم».
وی همچنین بر نقش مدلهای متنباز (Open Source) و مدلهای بسته (Closed Source) در بهینهسازی توسعه مدلهای داخلی تأکید کرد: «ما باید از دانش مدلهای کلوز و اپنسورس مانند LLaMA و دیگر مدلهای منتشرشده بهره ببریم. حتی در فضای اپنسورس، معماریهای موجود برای شرایط ما بهینه طراحی نشدهاند. بنابراین، ما نیاز داریم که یا در این حوزه سرمایهگذاری کنیم، یا حداقل از این مدلها برای توسعه راهکارهای بهینهتر متناسب با محدودیتهای خود استفاده کنیم».
او در پایان بر لزوم تعیین محدودیتهای عملیاتی در توسعه مدلهای بومی تأکید کرد و گفت: «در مسیر توسعه، باید یک چارچوب مشخص برای محدودیتها در نظر بگیریم. بهعنوان مثال، هدفگذاری مشخصی برای مدلی که قرار است روی سختافزارهایی مانند RTX 4090 اجرا شود و از نظر استنتاج با مدلهایی مانند GPT-4 Mini رقابت کند، میتواند ما را به واقعگرایانهترین مسیر برساند. البته ما نمیتوانیم با مدلهای ۶۰۰ یا ۷۰۰ میلیارد پارامتری رقابت کنیم، اما میتوانیم با بهینهسازی منابع، کیفیتی معقول و رقابتی ارائه دهیم».