• ترند خبری :
یکشنبه ۱۱ آبان ۱۴۰۴ | SUN 2 Nov 2025
رساینه
برچسب‌ها:بازیمراکز داده
خبرگزاری دانشجوخبرگزاری دانشجولینک اصلی خبر
  • تاریخ انتشار:1404-08-0613:52:11
  • دسته‌بندی:سایر
  • خبرگزاری:خبرگزاری دانشجو

کوالکام با شتاب‌دهنده‌های جدید، قواعد بازی مراکز داده را بازنویسی می‌کند


به گزارش گروه دانشگاه خبرگزاری دانشجو، در اقدامی که می‌تواند آینده عملکرد هوش مصنوعی مراکز داده را متحول کند، شرکت کوالکام از نسل بعدی راهکار‌های بهینه‌سازی‌شده برای استنتاج خود رونمایی کرده است: کارت‌ها و رک‌های شتاب‌دهنده AI۲۰۰ و AI۲۵۰.

 

این سیستم‌ها جهشی قابل توجه در تلاش کوالکام برای ارائه هوش مصنوعی مولد مقیاس‌پذیر، کم‌مصرف و با عملکرد بالا به شرکت‌های جهانی هستند.

 

این سری جدید که بر پایه‌ی رهبری کوالکام در فناوری واحد پردازش عصبی (NPU) بنا شده است، نوید عملکردی در مقیاس رک و ظرفیت حافظه‌ی برتر را می‌دهد.

 

کوالکام می‌گوید هدف واضح است: ارائه استنتاج هوش مصنوعی مولد سریع و مقرون‌به‌صرفه در عین به حداکثر رساندن عملکرد به ازای هر دلار به ازای هر وات - یک معیار حیاتی در زیرساخت‌های هوش مصنوعی مدرن.

 

تقویت هوش مصنوعی مولد در مقیاس بزرگ

 

در قلب این اعلامیه، Qualcomm AI۲۰۰ قرار دارد، یک راهکار استنتاج هوش مصنوعی در سطح رک که به طور خاص برای زبان‌های بزرگ و حجم کاری مدل‌های چندوجهی بهینه شده است.

 

هر کارت AI۲۰۰ از ۷۶۸ گیگابایت حافظه LPDDR پشتیبانی می‌کند که مقیاس‌پذیری و انعطاف‌پذیری بالایی را برای مدیریت تقاضا‌های عظیم استنتاج هوش مصنوعی فراهم می‌کند.

 

کوالکام با ارائه هزینه کل مالکیت (TCO) پایین‌تر، قصد دارد استقرار مدل‌های هوش مصنوعی مولد را برای مراکز داده‌ای که به دنبال کارایی بدون افت هستند، در دسترس‌تر کند.

 

پردازنده‌ی AI۲۵۰ این جاه‌طلبی را فراتر می‌برد. این پردازنده با معماری محاسباتی نزدیک به حافظه‌ی جدیدی عرضه می‌شود که به گفته‌ی کوالکام، پهنای باند حافظه‌ی مؤثر آن بیش از ۱۰ برابر بیشتر و مصرف برق آن به شدت کاهش یافته است.

 

این نوآوری، استنتاج تفکیک‌شده‌ی هوش مصنوعی را امکان‌پذیر می‌کند و به سخت‌افزار اجازه می‌دهد تا ضمن برآورده کردن الزامات عملکرد و هزینه‌ی مورد نیاز، با کارایی بیشتری مورد استفاده قرار گیرد.

 

هر دو راهکار رک با خنک‌کننده مایع مستقیم برای بهره‌وری حرارتی طراحی شده‌اند و از PCIe برای افزایش ظرفیت و اترنت برای افزایش ظرفیت بهره می‌برند.

 

با مصرف برق ۱۶۰ کیلووات در سطح رک، این راهکار‌ها نشان‌دهنده‌ی قصد کوالکام برای ارائه عملکردی در سطح هایپراسکالر با تمرکز بر پایداری و بهینه‌سازی عملیاتی هستند.

 

ساخته شده برای ادغام یکپارچه

 

دورگا مالادی، معاون ارشد و مدیر کل برنامه‌ریزی فناوری، راهکار‌های لبه و مرکز داده در شرکت کوالکام تکنولوژیز، گفت: «با کوالکام AI۲۰۰ و AI۲۵۰، ما در حال تعریف مجدد آنچه برای استنتاج هوش مصنوعی در مقیاس رک ممکن است، هستیم.

 

«این راه‌حل‌های نوآورانه و جدید زیرساخت هوش مصنوعی، مشتریان را قادر می‌سازد تا هوش مصنوعی مولد را با هزینه مالکیت (TCO) بی‌سابقه‌ای به کار گیرند، در حالی که انعطاف‌پذیری و امنیت مورد نیاز مراکز داده مدرن را حفظ می‌کنند.

 

مالادی افزود که پشته نرم‌افزاری غنی کوالکام و پشتیبانی از اکوسیستم باز، ادغام، مدیریت و مقیاس‌بندی مدل‌های هوش مصنوعی از قبل آموزش‌دیده را برای توسعه‌دهندگان و شرکت‌ها آسان‌تر می‌کند.

 

این پلتفرم از چارچوب‌های پیشرو هوش مصنوعی و استقرار مدل با یک کلیک پشتیبانی می‌کند و «پذیرش بدون اصطکاک و نوآوری سریع» را امکان‌پذیر می‌سازد.

 

پشته هوش مصنوعی سرتاسری

 

نرم‌افزار هوش مصنوعی این شرکت که در سطح hyperscaler است، زیربنای سخت‌افزار را تشکیل می‌دهد و پشتیبانی کاملی از لایه‌های نرم‌افزاری اپلیکیشن تا سیستم ارائه می‌دهد.

 

این ابزار برای استنتاج در چارچوب‌های اصلی یادگیری ماشین، پلتفرم‌های هوش مصنوعی مولد و موتور‌های استنتاج بهینه شده است.

 

توسعه‌دهندگان می‌توانند مدل‌های چهره در آغوش گرفته را از طریق کتابخانه Efficient Transformers و مجموعه استنتاج هوش مصنوعی کوالکام، ابزار‌هایی که برای عملیاتی کردن هوش مصنوعی از طریق برنامه‌ها، عامل‌ها و API‌های آماده برای استفاده طراحی شده‌اند، به طور یکپارچه روی سیستم خود پیاده‌سازی کنند.

 

کوالکام انتظار دارد AI۲۰۰ در سال ۲۰۲۶ و پس از آن AI۲۵۰ در سال ۲۰۲۷ به صورت تجاری در دسترس قرار گیرد. این شرکت اعلام کرده است که قصد دارد روند سالانه به‌روزرسانی محصولات مرکز داده را با تمرکز بر عملکرد، بهره‌وری انرژی و نوآوری مداوم در استنتاج هوش مصنوعی حفظ کند.

 

این رونمایی، کوالکام را مستقیماً در رقابت سخت‌افزار‌های هوش مصنوعی که به سرعت در حال تکامل هستند، قرار می‌دهد و نشان می‌دهد که قصد دارد در عصر زیرساخت‌های هوش مصنوعی مولد، نیروی پیشرو باشد.