2023/11/13

Nvidia lança HGX H200 para AI

A Nvidia tem um novo chip para processamento AI, o HGX H200, com memória expandida face ao H100.

Depois de ter tornado o seu H100 num chip de referência para o processamento AI, a Nvidia tira partido do frenesim nesta área para lançar o H200.

O H200 não tem propriamente grandes melhorias "em si" face ao H100, mas compensa isso com a parte do acesso à memória. O novo GPU estreia o uso de memória HBM3e, que aumenta a largura de banda de acesso à memória de 3.5 TB/s para 4.8 TB/s. A capacidade de memória também aumenta face ao H100, passando de 80 GB para 141 GB. Sabendo-se o quando o processamento de modelos AI está dependente de grandes quantidades de memória, estas melhorias deverão traduzir-se em benefícios imediatos.

Como vantagem adicional, a Nvidia diz que os clientes que já têm H100 podem simplesmente adicionar novos GPUs H200 ao seu sistema sem necessidade de qualquer alteração.

Aquilo que não diz é o preço. Mas, sabendo-se que o anterior H100 já tinha preço estimado de 25 mil a 40 mil dólares, não será de esperar que o H200 fique mais barato.


Sem comentários:

Enviar um comentário (problemas a comentar?)