Qualcomm анонсировала два новых ускорителя для задач искусственного интеллекта — AI200, который выйдет в 2026 году, и AI250, намеченный на 2027 год. Оба решения предназначены для дата-центров и нацелены конкурировать с GPU от Nvidia и AMD, которые сейчас доминируют на рынке ИИ-инфраструктуры.
Чипы основаны на технологии Hexagon Neural Processing Unit (NPU), изначально разработанной для мобильных устройств, но адаптированной под тяжёлые задачи в дата-центрах. AI200 поддерживает до 768 ГБ LPDDR памяти на одной плате PCIe, что позволяет запускать крупномасштабные языковые модели и мультимодальные ИИ-приложения с меньшим количеством оборудования. Система охлаждения — жидкостная, с энергопотреблением около 160 кВт на стойку.
AI250 предложит инновационную архитектуру с вычислениями перспективного формата NMC (near-memory computing), что повысит пропускную способность памяти в 10 раз и снизит энергозатраты по сравнению с AI200. Новейшее решение также поддерживает динамическое распределение ресурсов между картами, сохраняя те же высокие стандарты безопасности и масштабируемости.
Qualcomm представила полный стек программного обеспечения, совместимый с популярными фреймворками — PyTorch, ONNX, LangChain и др., упрощающий развёртывание и управление ИИ-моделями. Крупным клиентом новых решений стала компания Humain из Саудовской Аравии, заключившая контракт на поставку вычислительных мощностей суммарной мощностью в 200 МВт.