Movimento bilionário foca em rodar sistemas com rapidez e baixo custo
A Nvidia fechou um acordo de licenciamento de US$ 20 bilhões com a Groq no fim de 2025 para acessar chips focados em inferência. Essa etapa é o momento em que a inteligência artificial já treinada executa tarefas e entrega respostas quase instantâneas para aplicações reais.
A marca compradora lidera o mercado mundial de placas usadas para treinar os modelos virtuais, enquanto a parceira construiu sua fama ao criar peças voltadas apenas para a fase de uso prático. O setor percebeu que a inferência virou o principal obstáculo de custo e energia quando o público geral passa a acessar o sistema diariamente.
Ex-engenheiros do Google fundaram a Groq para fugir da briga pelas placas de vídeo comuns e focar em componentes específicos para rodar grandes ferramentas de linguagem. As novas peças entregam vantagens práticas importantes para o mercado de tecnologia.
- Respostas quase instantâneas para os usuários finais
- Custos menores por cada pedido de processamento
- Gasto de energia reduzido durante o funcionamento contínuo
Esse negócio mostra que a vantagem no setor deixou de ser apenas sobre quem treina o melhor programa de computador. O foco passou a ser quem consegue responder mais rápido e de forma barata em meio ao avanço de rivais como AMD, Samsung e Huawei.
O licenciamento acompanha uma tendência de investimentos pesados em infraestrutura, como o projeto Stargate que prevê até US$ 500 bilhões para o segmento nos Estados Unidos. A empresa que dominar a base física de data centers e energia vai liderar a próxima fase do mercado de inteligência artificial.

