Em 27 de outubro, a Qualcomm anunciou suas soluções de otimização de inferência de IA de última geração para data centers: placas aceleradoras e racks baseados nos chips Qualcomm AI200 e AI250.
O Qualcomm AI200 apresenta uma solução projetada especificamente para inferência de IA em escala de rack, oferecendo baixo custo total de propriedade (TCO) e desempenho otimizado para inferência de grandes linguagens e modelos multimodais (LLM, LMM) e outras cargas de trabalho de IA. Cada placa suporta 768 GB de memória LPDDR para maior capacidade de memória e custos mais baixos.

A solução Qualcomm AI250 utilizará uma arquitetura de memória inovadora baseada em computação near-memory, proporcionando uma melhoria de mais de 10 vezes na largura de banda da memória e menor consumo de energia para cargas de trabalho de inferência de IA, trazendo maior eficiência e desempenho para cargas de trabalho de inferência de IA.
Ambas as soluções de rack utilizam resfriamento líquido direto para maior eficiência térmica, suportam expansão PCIe, expansão Ethernet, computação confidencial para cargas de trabalho de IA seguras e um consumo de energia em escala de rack de 160 kW. Espera-se que o Qualcomm AI200 e o AI250 estejam disponíveis comercialmente em 2026 e 2027, respectivamente.









