Tech

Flow afirma que pode 100x a potência de qualquer CPU com seu chip complementar e um pouco de esforço

Uma startup finlandesa chamada Computação de Fluxo está fazendo uma das afirmações mais loucas já ouvidas na engenharia de silício: ao adicionar seu chip proprietário, qualquer CPU pode dobrar instantaneamente seu desempenho, aumentando para até 100x com ajustes de software.

Se funcionar, poderá ajudar a indústria a acompanhar a insaciável demanda computacional dos fabricantes de IA.

O fluxo é um spinout de VTT, uma organização de pesquisa apoiada pelo estado da Finlândia que é um pouco como um laboratório nacional. A tecnologia de chip que comercializa, que chama de Unidade de Processamento Paralelo, é resultado de pesquisas realizadas naquele laboratório (embora a VTT seja um investidor, o IP é propriedade da Flow).

A afirmação, Flow é o primeiro a admitir, é ridícula à primeira vista. Você não pode simplesmente extrair magicamente o desempenho extra das CPUs em arquiteturas e bases de código. Se sim, a Intel ou a AMD ou quem quer que tenha feito isso anos atrás.

Mas Flow tem trabalhado em algo que tem sido teoricamente possível – só que ninguém foi capaz de realizá-lo.

As Unidades Centrais de Processamento percorreram um longo caminho desde os primeiros dias dos tubos de vácuo e dos cartões perfurados, mas em alguns aspectos fundamentais ainda são os mesmos. Sua principal limitação é que, como processadores seriais e não paralelos, eles só podem fazer uma coisa por vez. É claro que eles alternam essa coisa um bilhão de vezes por segundo em vários núcleos e caminhos – mas todas essas são maneiras de acomodar a natureza de pista única da CPU. (Uma GPU, por outro lado, faz muitos cálculos relacionados ao mesmo tempo, mas é especializada em determinadas operações.)

“A CPU é o elo mais fraco da computação”, disse o cofundador e CEO da Flow, Timo Valtonen. “Não está à altura da sua tarefa e isso terá de mudar.”

As CPUs ficaram muito rápidas, mas mesmo com capacidade de resposta em nível de nanossegundos, há um enorme desperdício na forma como as instruções são executadas, simplesmente por causa da limitação básica de que uma tarefa precisa ser concluída antes do início da próxima. (Estou simplificando aqui, não sendo um engenheiro de chips.)

O que Flow afirma ter feito é remover essa limitação, transformando a CPU de uma rua de pista única em uma rodovia de várias pistas. A CPU ainda está limitada a realizar uma tarefa por vez, mas a PPU do Flow, como eles a chamam, executa essencialmente gerenciamento de tráfego em escala de nanossegundos on-die para mover tarefas para dentro e para fora do processador mais rápido do que era possível anteriormente.

Pense na CPU como um chef trabalhando em uma cozinha. O chef só consegue trabalhar rápido, mas e se essa pessoa tivesse um assistente sobre-humano trocando facas e ferramentas das mãos do chef, limpando a comida preparada e colocando novos ingredientes, removendo todas as tarefas que não são do chef? O chef ainda tem apenas duas mãos, mas agora pode trabalhar dez vezes mais rápido.

Gráfico (no log, nota) mostrando melhorias em um chip FPGA aprimorado com PPU versus chips Intel não modificados. Aumentar o número de núcleos PPU melhora continuamente o desempenho.
Créditos da imagem: Computação de Fluxo

Não é uma analogia perfeita, mas dá uma ideia do que está acontecendo aqui, pelo menos de acordo com os testes internos e demonstrações da Flow com a indústria (e eles estão conversando com todo mundo). A PPU não aumenta a frequência do clock nem pressiona o sistema de outras maneiras que levariam a calor ou energia extra; em outras palavras, não se pede ao chef que corte duas vezes mais rápido. Ele apenas usa com mais eficiência os ciclos de CPU que já estão ocorrendo.

Esse tipo de coisa não é novidade, diz Valtonen. “Isso tem sido estudado e discutido no meio acadêmico de alto nível. Você já pode fazer paralelização, mas isso quebra o código legado e então é inútil.”

Então isso poderia ser feito. Isso simplesmente não poderia ser feito sem reescrever todo o código do mundo desde o início, o que o torna um fracasso. Um problema semelhante foi resolvido por outra empresa nórdica de computação, ZeroPointque alcançou altos níveis de compactação de memória, mantendo a transparência dos dados com o resto do sistema.

A grande conquista do Flow, em outras palavras, não é o gerenciamento de tráfego de alta velocidade, mas sim fazê-lo sem ter que modificar nenhum código em qualquer CPU ou arquitetura que tenha testado. Parece meio absurdo dizer que código arbitrário pode ser executado duas vezes mais rápido em qualquer chip, sem nenhuma modificação além da integração da PPU com a matriz.

É aí que reside o principal desafio para o sucesso do Flow como negócio: ao contrário de um produto de software, a tecnologia do Flow precisa ser incluída no nível de design do chip, o que significa que não funciona retroativamente, e o primeiro chip com uma PPU seria necessariamente um caminho bastante longo. na estrada. Flow mostrou que a tecnologia funciona em configurações de teste baseadas em FPGA, mas os fabricantes de chips teriam que comprometer muitos recursos para ver os ganhos em questão.

Equipe fundadora da Flow, a partir da esquerda: Jussi Roivainen, Martti Forsell e Timo Valtonen.
Créditos da imagem: Computação de Fluxo

A escala desses ganhos e o fato de que as melhorias da CPU têm sido iterativas e fracionárias nos últimos anos podem muito bem fazer com que esses fabricantes de chips batam na porta da Flow com bastante urgência. Se você realmente pode dobrar seu desempenho em uma geração com uma mudança de layout, isso é óbvio.

Ganhos adicionais de desempenho vêm da refatoração e recompilação de software para funcionar melhor com a combinação PPU-CPU. Flow diz que viu aumentos de até 100x com código que foi modificado (embora não necessariamente totalmente reescrito) para aproveitar as vantagens de sua tecnologia. A empresa está trabalhando para oferecer ferramentas de recompilação para tornar essa tarefa mais simples para fabricantes de software que desejam otimizar chips habilitados para Flow.

Analista Kevin Krewell de Pesquisa Tiriasque foi informado sobre a tecnologia da Flow e referido como uma perspectiva externa sobre estas questões, estava mais preocupado com a aceitação da indústria do que com os fundamentos.

Ele ressaltou, com razão, que a aceleração de IA é o maior mercado no momento, algo que pode ser almejado com silício especial como o popular H100 da Nvidia. Embora uma CPU acelerada por PPU levasse a ganhos gerais, os fabricantes de chips podem não querer balançar o barco com muita força. E há simplesmente a questão de saber se essas empresas estão dispostas a investir recursos significativos numa tecnologia em grande parte não comprovada, quando provavelmente têm um plano de cinco anos que seria perturbado por essa escolha.

A tecnologia da Flow se tornará um componente obrigatório para todos os fabricantes de chips, catapultando-os para a fortuna e o destaque? Ou será que os fabricantes de chips econômicos decidirão manter o rumo e continuar extraindo renda do mercado de computação em constante crescimento? Provavelmente algo no meio – mas é revelador que, mesmo que a Flow tenha alcançado um grande feito de engenharia aqui, como todas as startups, o futuro da empresa depende de seus clientes.

A Flow está agora emergindo do sigilo, com € 4 milhões (cerca de US$ 4,3 milhões) em financiamento pré-semente liderado pela Butterfly Ventures, com a participação da FOV Ventures, Sarsia, Stephen Industries, Superhero Capital e Business Finland.

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button