A Nvidia tem um novo chip para processamento AI, o HGX H200, com memória expandida face ao H100.
Depois de ter tornado o seu H100 num chip de referência para o processamento AI, a Nvidia tira partido do frenesim nesta área para lançar o H200.
O H200 não tem propriamente grandes melhorias "em si" face ao H100, mas compensa isso com a parte do acesso à memória. O novo GPU estreia o uso de memória HBM3e, que aumenta a largura de banda de acesso à memória de 3.5 TB/s para 4.8 TB/s. A capacidade de memória também aumenta face ao H100, passando de 80 GB para 141 GB. Sabendo-se o quando o processamento de modelos AI está dependente de grandes quantidades de memória, estas melhorias deverão traduzir-se em benefícios imediatos.
Como vantagem adicional, a Nvidia diz que os clientes que já têm H100 podem simplesmente adicionar novos GPUs H200 ao seu sistema sem necessidade de qualquer alteração.
Aquilo que não diz é o preço. Mas, sabendo-se que o anterior H100 já tinha preço estimado de 25 mil a 40 mil dólares, não será de esperar que o H200 fique mais barato.
2023/11/13
Subscrever:
Enviar feedback (Atom)
Sem comentários:
Enviar um comentário (problemas a comentar?)