2022/10/01

Tesla revela o seu super-computador Dojo

A Tesla não escondeu detalhes sobre o hardware desenvolvido para criar o seu super-computador Dojo.

Além do robot Optimus, grande parte da apresentação AI Day 2022 foi dedicada ao Dojo.

Com cada vez maior aposta nos sistemas de Inteligência Artificial, a Tesla viu-se numa posição em que o processo de treino desses modelos podia demorar mais de um mês a ser feito, inviabilizando um sistema de rápido desenvolvimento e teste. Para soluccionar este problema, desenvolveu os seus próprios chips e todo o sistema em seu redor para obter o máximo desempenho com a máxima eficiência.

A apresentação foi extremamente detalhada a nível técnico (ao ponto de começar a fazer com que a audência se levantasse e abandonasse a plateia), mas replica aquilo que já tinha sido feito quando apresentaram o chip que potencia o processamento do Autopilot nos automóveis. Também aqui a Tesla fez algumas opções curiosas e diferentes do que tem sido feito nos GPUs e CPUs, como o recurso à memória SRAM em vez de DRAM (Static RAM / Dynamic RAM). A memória SRAM ocupa bastante mais espaço num chip (e como tal, é bastante mais dispendiosa) mas tem a grande vantagem de poder ser acedida de forma imediata e sem atrasos. Todo o resto do sistema foi desenvolvido a partir daí, com o objectivo de conseguir garantir que estes chips poderiam estar a funcionar a 100% durante o máximo de tempo, em vez de passarem o seu tempo à espera que os dados chegassem para serem processados.
A Tesla diz que os seus chips conseguem obter um desempenho 3 a 4 vezes superior aos do A100 da Nvidia. Têm também a vantagem adicional de ter todo o sistema de energia e dissipação totalmente integrado, criando um bastidor compacto que é capaz de substituir cerca de uma dezena de bastidores com hardware convencional. E, arquitecturalmente, a Tesla diz que o sistema pode ser facilmente escalado, bastando adicionar mais hardware para que todo o processamento seja acelerado de forma automática sem complexidade acrescida de lidar com o paralelismo das tarefas.

O processo de treino das redes neuronais que demorava um mês foi agora reduzido para menos de uma semana, e a Tesla está em processo de produzir mais bastidores para criar o seu primeiro computador "Exascale" que possibilitará processamento ainda mais avançado.

Sem comentários:

Enviar um comentário (problemas a comentar?)