Embora se vivam tempos excitantes no campo da tecnologia AI, estamos também habituados a que as respostas dos sistemas actuais possam demorar. Até perguntas simples podem demorar alguns segundos, e coisas mais complicadas podem demorar minutos, ou até dezenas de minutos. Mas, a Taalas oferece uma alternativa.
A aposta da Taalas passa em transferir um modelo AI directamente para um chip, fazendo com que todo o processamento ocorra directamente no hardware, sem necessitar de um GPU ou RAM. E os resultados falam por si: enquanto os chips da Nvidia podem gerar entre 200-300 tokens por segundo, e mega-chips como os da Cerebras possam chegar perto dos 2.000 tokens por segundo, o chip da Taalas atinge perto de 17.000(!) tokens por segundo!
O chip actual corre o modelo Llama 3.1 8B, que é um modelo bastante básico face aos modelos de refência, mas que permite ficar com uma ideia das potencialidades.24 dedicated people.
— Taalas Inc. (@taalas_inc) February 19, 2026
$30M spent on development.
Extreme specialization, speed, and power efficiency.
Today we launch Taalas’ first product. Check it out:
Details: https://t.co/88CA0XAL71
Demo chatbot: https://t.co/ec4ladcKnw
API: https://t.co/M3EkaxEqPj
O grande problema da Taalas é que cada chip tem que ser criado especificamente para um modelo AI e não pode ser actualizado para outros modelos. Cada novo modelo, ou até cada pequena actualização, significa criar um chip novo de raiz.
A viabilidade desta proposta dependerá do tempo de estabilização dos modelos AI. Se se assistir a uma rápida evolução em que os modelos AI mudam a cada poucos meses, será complicado para a Taalas acompanhar o ritmo (a produção de cada novo chip demora vários meses, arriscando-se a poder ficar desactualizado no momento em que chegar ao mercado); mas se assumirmos que os modelos começarão a estabilizar e a manter-se por mais tempo, com ritmos de actualização anual, então este chips tornar-se-ão mais atractivos. Isso também poderá acontecer com um chip que adopte um modelo AI mais capaz de que Llama 3.1 8B utilizado, e atinja um patamar de "utilidade".
Por agora, podem ver o que isto significa, brincando com o chatbot AI Jimmy, que pode não dar as respostas mais acertadas, mas as dá de forma instantânea.




















Sem comentários:
Enviar um comentário (problemas a comentar?)