2026/03/17

Nvidia revela novos chips AI - incluindo versão para datacenters espaciais

Na GTC 2026 a Nvidia apresentou nova série de chips para AI, incluindo uma futura versão espacial pensada para datacenters em órbita.

A Nvidia acaba de revelar uma série de novidades importantes durante a sua keynote na GTC 2026, com foco claro em acelerar ainda mais o desempenho de inferência em inteligência artificial e preparar o terreno para a próxima geração de data centers, tanto na Terra como no espaço.

Um dos anúncios mais relevantes foi a integração da nova arquitectura baseada na tecnologia adquirida da Groq na plataforma Vera Rubin. Este ecossistema já incluía vários componentes-chave - como GPUs Rubin, CPUs Vera, NVLink 6, ConnectX-9, BlueField-4 e switches Spectrum-X - e agora ganha um novo elemento: o acelerador de inferência Nvidia Groq 3 LPU. Este chip foi concebido para melhorar significativamente a geração de tokens em modelos AI, com foco em baixa latência. Ao contrário da maioria dos aceleradores actuais, que dependem de memória HBM, o Groq 3 LPU aposta na SRAM (Static RAM) um tipo de memória muito mais rápida mas com menor densidade por chip. Cada unidade inclui 500 MB de SRAM, oferecendo uma largura de banda impressionante de 150 TB/s, muito acima dos 22 TB/s típicos da HBM4 usada nos GPUs Rubin.

Apesar da menor capacidade face aos 288 GB de HBM4 por GPU, esta abordagem traz vantagens em tarefas sensíveis à largura de banda, como operações de decode em inferência. Para tirar partido disso, a Nvidia vai disponibilizar racks Groq 3 LPX com 256 LPUs, totalizando 128 GB de SRAM e 40 PB/s de largura de banda. Estes racks contam ainda com uma interface interna de 640 TB/s para comunicação entre chips.

A empresa posiciona estes novos racks como co-processadores das GPUs Rubin, capazes de acelerar o desempenho "em todas as camadas do modelo AI e em cada token". O objectivo é suportar a próxima fase da AI: sistemas multi-agente, onde vários modelos interagem entre si em tempo real. Este tipo de cenário traz novas exigências de desempenho. Enquanto para humanos 100 tokens por segundo pode parecer rápido, para agentes AI isso é bastante lento. A Nvidia acredita que a combinação de GPUs Rubin com LPUs Groq poderá elevar esse número para 1500 tokens por segundo, ou mais, em comunicações entre agentes.

Esta aposta também surge como resposta à crescente concorrência no segmento de inferência de baixa latência. Empresas como a Cerebras têm vindo a destacar-se com arquitecturas focadas em SRAM e já conquistaram clientes de peso, incluindo a OpenAI, precisamente devido às vantagens em latência. Curiosamente, a Nvidia deixou no ar que o novo Groq 3 LPU poderá reduzir a importância do acelerador Rubin CPX, uma vez que ambos têm objectivos semelhantes. A diferença é que o LPU não necessita de grandes quantidades de memória GDDR7, o que pode ser uma vantagem num contexto onde a memória continua a ser um recurso limitado.
Mas as novidades não ficaram por aqui. A Nvidia também apresentou o Vera Rubin Space Module, uma plataforma pensada para levar computação AI diretamente para o espaço. Segundo a empresa, este módulo pode oferecer até 25 vezes mais capacidade de computação AI que o H100 em cenários de inferência orbital.

A ideia passa por criar data centers em órbita capazes de correr modelos de linguagem e outros modelos avançados diretamente no espaço, com uma arquitetura CPU-GPU altamente integrada e ligações de alta largura de banda para processar dados em tempo real vindos de sensores e instrumentos espaciais. A Nvidia revelou ainda uma abordagem em camadas para computação espacial. O IGX Thor destina-se a ambientes críticos, com suporte para processamento em tempo real, segurança funcional e operação autónoma. Já o Jetson Orin é direcionado para satélites mais pequenos, onde o espaço, energia e peso são limitados, sendo usado para tarefas como visão computacional, navegação e processamento de sensores.

De volta à Terra, a empresa também destacou a GPU RTX PRO 6000 Blackwell Server Edition, voltada para workloads de inteligência geoespacial. Segundo a Nvidia, esta solução pode oferecer até 100 vezes mais desempenho face a sistemas tradicionais baseados em CPU no processamento de grandes volumes de imagens.

Atualmente, seis empresas já estão a utilizar estas tecnologias em ambientes terrestres e orbitais, incluindo Aetherflux, Axiom Space, Kepler Communications, Planet Labs, Sophia Space e Starcloud. Um exemplo concreto é a Kepler, que está a usar o Jetson Orin na sua constelação de satélites para gerir e encaminhar dados com recurso a AI.

O conceito de data centers no espaço, que há poucos anos parecia futurista, começa agora a ganhar forma. Ainda assim, o Vera Rubin Space Module ainda não tem data de lançamento definida, servindo apenas como elemento que demonstra que a Nvidia quer dominar o processamento AI, seja na Terra ou fora dela.




Com impacto mais visível para o sector doméstico e do gaming, a Nvidia também revelou o impressionante DLSS 5, que chegará mais para o final do ano.

Sem comentários:

Enviar um comentário (problemas a comentar?)