کوالکام با شتابدهندههای جدید، قواعد بازی مراکز داده را بازنویسی میکند

به گزارش گروه دانشگاه خبرگزاری دانشجو، در اقدامی که میتواند آینده عملکرد هوش مصنوعی مراکز داده را متحول کند، شرکت کوالکام از نسل بعدی راهکارهای بهینهسازیشده برای استنتاج خود رونمایی کرده است: کارتها و رکهای شتابدهنده AI۲۰۰ و AI۲۵۰.
این سیستمها جهشی قابل توجه در تلاش کوالکام برای ارائه هوش مصنوعی مولد مقیاسپذیر، کممصرف و با عملکرد بالا به شرکتهای جهانی هستند.
این سری جدید که بر پایهی رهبری کوالکام در فناوری واحد پردازش عصبی (NPU) بنا شده است، نوید عملکردی در مقیاس رک و ظرفیت حافظهی برتر را میدهد.
کوالکام میگوید هدف واضح است: ارائه استنتاج هوش مصنوعی مولد سریع و مقرونبهصرفه در عین به حداکثر رساندن عملکرد به ازای هر دلار به ازای هر وات - یک معیار حیاتی در زیرساختهای هوش مصنوعی مدرن.
تقویت هوش مصنوعی مولد در مقیاس بزرگ
در قلب این اعلامیه، Qualcomm AI۲۰۰ قرار دارد، یک راهکار استنتاج هوش مصنوعی در سطح رک که به طور خاص برای زبانهای بزرگ و حجم کاری مدلهای چندوجهی بهینه شده است.
هر کارت AI۲۰۰ از ۷۶۸ گیگابایت حافظه LPDDR پشتیبانی میکند که مقیاسپذیری و انعطافپذیری بالایی را برای مدیریت تقاضاهای عظیم استنتاج هوش مصنوعی فراهم میکند.
کوالکام با ارائه هزینه کل مالکیت (TCO) پایینتر، قصد دارد استقرار مدلهای هوش مصنوعی مولد را برای مراکز دادهای که به دنبال کارایی بدون افت هستند، در دسترستر کند.
پردازندهی AI۲۵۰ این جاهطلبی را فراتر میبرد. این پردازنده با معماری محاسباتی نزدیک به حافظهی جدیدی عرضه میشود که به گفتهی کوالکام، پهنای باند حافظهی مؤثر آن بیش از ۱۰ برابر بیشتر و مصرف برق آن به شدت کاهش یافته است.
این نوآوری، استنتاج تفکیکشدهی هوش مصنوعی را امکانپذیر میکند و به سختافزار اجازه میدهد تا ضمن برآورده کردن الزامات عملکرد و هزینهی مورد نیاز، با کارایی بیشتری مورد استفاده قرار گیرد.
هر دو راهکار رک با خنککننده مایع مستقیم برای بهرهوری حرارتی طراحی شدهاند و از PCIe برای افزایش ظرفیت و اترنت برای افزایش ظرفیت بهره میبرند.
با مصرف برق ۱۶۰ کیلووات در سطح رک، این راهکارها نشاندهندهی قصد کوالکام برای ارائه عملکردی در سطح هایپراسکالر با تمرکز بر پایداری و بهینهسازی عملیاتی هستند.
ساخته شده برای ادغام یکپارچه
دورگا مالادی، معاون ارشد و مدیر کل برنامهریزی فناوری، راهکارهای لبه و مرکز داده در شرکت کوالکام تکنولوژیز، گفت: «با کوالکام AI۲۰۰ و AI۲۵۰، ما در حال تعریف مجدد آنچه برای استنتاج هوش مصنوعی در مقیاس رک ممکن است، هستیم.
«این راهحلهای نوآورانه و جدید زیرساخت هوش مصنوعی، مشتریان را قادر میسازد تا هوش مصنوعی مولد را با هزینه مالکیت (TCO) بیسابقهای به کار گیرند، در حالی که انعطافپذیری و امنیت مورد نیاز مراکز داده مدرن را حفظ میکنند.
مالادی افزود که پشته نرمافزاری غنی کوالکام و پشتیبانی از اکوسیستم باز، ادغام، مدیریت و مقیاسبندی مدلهای هوش مصنوعی از قبل آموزشدیده را برای توسعهدهندگان و شرکتها آسانتر میکند.
این پلتفرم از چارچوبهای پیشرو هوش مصنوعی و استقرار مدل با یک کلیک پشتیبانی میکند و «پذیرش بدون اصطکاک و نوآوری سریع» را امکانپذیر میسازد.
پشته هوش مصنوعی سرتاسری
نرمافزار هوش مصنوعی این شرکت که در سطح hyperscaler است، زیربنای سختافزار را تشکیل میدهد و پشتیبانی کاملی از لایههای نرمافزاری اپلیکیشن تا سیستم ارائه میدهد.
این ابزار برای استنتاج در چارچوبهای اصلی یادگیری ماشین، پلتفرمهای هوش مصنوعی مولد و موتورهای استنتاج بهینه شده است.
توسعهدهندگان میتوانند مدلهای چهره در آغوش گرفته را از طریق کتابخانه Efficient Transformers و مجموعه استنتاج هوش مصنوعی کوالکام، ابزارهایی که برای عملیاتی کردن هوش مصنوعی از طریق برنامهها، عاملها و APIهای آماده برای استفاده طراحی شدهاند، به طور یکپارچه روی سیستم خود پیادهسازی کنند.
کوالکام انتظار دارد AI۲۰۰ در سال ۲۰۲۶ و پس از آن AI۲۵۰ در سال ۲۰۲۷ به صورت تجاری در دسترس قرار گیرد. این شرکت اعلام کرده است که قصد دارد روند سالانه بهروزرسانی محصولات مرکز داده را با تمرکز بر عملکرد، بهرهوری انرژی و نوآوری مداوم در استنتاج هوش مصنوعی حفظ کند.
این رونمایی، کوالکام را مستقیماً در رقابت سختافزارهای هوش مصنوعی که به سرعت در حال تکامل هستند، قرار میدهد و نشان میدهد که قصد دارد در عصر زیرساختهای هوش مصنوعی مولد، نیروی پیشرو باشد.










