2024/06/11

Flow promete acelerar CPUs até 100x

A startup finlandesa Flow Computing diz ter criado um sistema revolucionário que pode duplica o desempenho dos CPUs de forma imediata, e podendo chegar a 100x ou mais, com algumas afinações de software.

O truque da Flow Computing consiste na combinação de um PPU (Parallel Processing Unit), que promete optimizar o desempenho dos CPUs actuais sem necessidade de qualquer alteração do software existente. Mas com programas recompilados para tirar partido disso, os ganhos são imensamente superiores, podendo chegar aos 100x ou até mais, em casos específicos.

A parte curiosa é que isto é feito sem aumentar a frequência de funcionamento dos CPUs ou o seu consumo energético, tudo se limita a fazer um melhor aproveitamento do processo de funcionamento linear do CPU de modo a que possa maximizar o desempenho com processamento paralelo. Isto não é nada de novo, mas tradicionalmente obriga a que se crie software pensado de raiz para isso. Mas a Flow diz ter criado um método que permite que essa melhoria seja feita até mesmo sem alterações no software existente.
Tendo em conta a evolução cada vez mais lenta a nível de desempenho que se assiste a cada nova geração de CPUs (longe vão os tempos em que cada novo CPU tinha o dobro do desempenho do anterior - e algumas empresas até já recorrem a artimanhas como compararar os novos CPUs, não com os da geração anterior, mas os de duas gerações atrás, para que as melhorias pareçam ser mais substanciais), a perspectiva de duplicar o desempenho certamente irá atrair muitos interessados. E se essas melhorias efectivamente puderem chegar aos 100x com a simples adaptação de programas, ainda melhor.

Esperemos que a Flow em breve possa demonstrar a validade do seu PPU, e que não seja algo que se fique apenas pelo reino do vaporware.

2 comentários:

  1. Ver para crer! Todavia, as latência da maioria dos processos informáticos está presa à performance de I/O e não de processamento. Mesmo para tarefas de processamento mais intensivo, como é o caso do machine learning/Inteligência Artificial, a barreira não é a capacidade de computação mas sim a velocidade de leitura/escrita em memória. Tanto que muitos sistemas recorrem a batching para melhorar a sua performance (computar várias tarefas em simultâneo no GPU para que as operações de I/O na memória da GPU sejam minimizadas. No entanto, todo o progresso é bem vindo!

    ResponderEliminar
    Respostas
    1. Verdade, mas também às vezes é necessário um caso concreto para promover inovação no desenho de CPU cache a vários níveis. É provável que na maioria dos cenários seja mais vantajoso manter vários segmentos comuns na cache de núcleos distintos, para garantir a execução no primeiro que ficar livre.

      Eliminar