کوالکام با معرفی شتاب‌دهنده‌های هوش مصنوعی کم‌مصرف، انویدیا و AMD را به چالش کشید

معرفی تراشه‌های کم‌مصرف کوالکام برای رقابت با انویدیا و AMD

💡 ورود قدرتمند کوالکام به بازار شتاب‌دهنده‌های AI مراکز داده

شرکت کوالکام، که سهم عمده‌ای از بازار تراشه‌های موبایل و پردازنده‌های اسنپدراگون را در اختیار دارد، با معرفی سری جدید محصولات خود، گام بلندی به سوی رقابت مستقیم در حوزه مراکز داده هوش مصنوعی برداشته است. این شرکت اخیراً از دو شتاب‌دهنده هوش مصنوعی جدید با نام‌های AI200 و AI250 رونمایی کرد که مستقیماً بازار GPUهای پرمصرف غول‌هایی چون انویدیا و AMD را هدف قرار داده‌اند.

معرفی تراشه‌های کم‌مصرف کوالکام برای رقابت با انویدیا و AMD
معرفی تراشه‌های کم‌مصرف کوالکام برای رقابت با انویدیا و AMD

تمرکز اصلی کوالکام در این محصولات، بخش استنتاج (Inference) از چرخه هوش مصنوعی است؛ یعنی جایی که مدل‌های ازپیش‌آموزش‌دیده برای تولید محتوا یا پاسخ‌دهی بلادرنگ پردازش می‌شوند. این بخش به دلیل نیاز به پاسخ‌گویی سریع و مقیاس‌پذیری بالا، برای سرویس‌دهندگان ابری اهمیت حیاتی دارد.


⚡️ شتاب‌دهنده‌های AI کوالکام: بازده انرژی بالا در برابر مصرف توان رقبا

جذاب‌ترین مزیت شتاب‌دهنده‌های AI جدید کوالکام، معماری با بازده انرژی فوق‌العاده بالا است که برگرفته از فناوری پردازش عصبی Hexagon این شرکت است. این معماری پیش‌تر در چیپ‌های موبایلی کوالکام با موفقیت به کار رفته بود و اکنون به مقیاس مراکز داده آورده شده است.

این تمرکز بر مصرف بهینه انرژی، یک مزیت کلیدی رقابتی در برابر GPUهای پرمصرف انویدیا و AMD ایجاد می‌کند. در محیط‌های مراکز داده، هزینه‌های انرژی و خنک‌سازی بخش بزرگی از هزینه‌های عملیاتی را تشکیل می‌دهند.

برنامه‌ریزی زمانی عرضه این شتاب‌دهنده‌های AI به شرح زیر است:

  • AI200: برنامه‌ریزی برای عرضه در سال ۲۰۲۶.
  • AI250: برنامه‌ریزی برای عرضه در سال ۲۰۲۷.

کوالکام همچنین اعلام کرده است که برای حفظ رقابت‌پذیری در این بازار پویا، سخت‌افزارهای مراکز داده خود را به‌صورت سالانه به‌روزرسانی خواهد کرد.


💾 معماری انعطاف‌پذیر و ظرفیت حافظه بالا برای شتاب‌دهنده‌های هوش مصنوعی

سیستم‌های مبتنی بر شتاب‌دهنده‌های AI کوالکام، در قالب رک‌های کامل با قابلیت خنک‌کننده مایع طراحی شده‌اند. این ساختار فیزیکی، شبیه به پلتفرم‌های موفق HGX انویدیا و Instinct AMD است، اما با چند مشخصه فنی متمایز:

  • مصرف توان رک: هر رک حدود ۱۶۰ کیلووات توان مصرف می‌کند.
  • حافظه بالا: هر کارت شتاب‌دهنده تا ۷۶۸ گیگابایت حافظه ارائه می‌دهد، ظرفیتی که از محصولات مشابه فعلی رقبا بالاتر است و برای اجرای مدل‌های زبان بزرگ (LLM) بسیار حیاتی محسوب می‌شود.

دورگا مالادی، مدیر واحد مرکز داده در کوالکام، تأکید کرد که معماری جدید انعطاف‌پذیری لازم را برای مشتریان فراهم می‌کند؛ آن‌ها می‌توانند کل سیستم رک را خریداری کنند یا صرفاً تراشه‌ها را برای طراحی اختصاصی زیرساخت‌های خود به کار ببرند. این انعطاف برای اپراتورهای ابری بزرگ که همواره به‌دنبال شخصی‌سازی زیرساخت‌های خود هستند، جذابیت ویژه‌ای دارد.

نخستین نشانه موفقیت کوالکام، همکاری با شرکت سعودی Humain است که قصد دارد از سال ۲۰۲۶ این شتاب‌دهنده‌های AI را در مراکز داده خود با ظرفیت ۲۰۰ مگاوات به کار گیرد. این قرارداد بزرگ، حضور جهانی کوالکام را در این عرصه تثبیت می‌کند.

مجله تکنولوژی هارپی تک

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *