Ironwood é a mais recente unidade de processamento de tensores do Google
A posição da Nvidia como um importante fornecedor de chips de IA pode estar sob ameaça de um chip especializado desenvolvido pelo Google, com relatos de que várias empresas estão ameaçando a sua posição. como meta e humano Eles vão gastar bilhões de dólares em equipamentos de processamento de tensores do Google.
O que é TPU?
O sucesso da indústria de inteligência artificial baseia-se em grande parte em unidades de processamento gráfico (GPUs). Uma unidade de processamento gráfico (GPU) é um tipo de chip de computador que pode realizar muitos cálculos paralelos simultaneamente, em vez de executá-los um após o outro, como a unidade de processamento de computador (CPU) encontrada na maioria dos computadores.
As GPUs foram originalmente desenvolvidas para auxiliar em computação gráfica e jogos, como o nome sugere. “Se você tem muitos pixels no espaço e precisa girá-los para calcular uma nova visão da câmera, esta é uma operação que pode ser realizada em muitos pixels diferentes em paralelo”, diz ele. Francesco Conti Na Universidade de Bolonha, Itália.
Essa capacidade de computação paralela passou a ser útil para treinar e executar modelos de IA. Os modelos de IA costumam usar um cálculo chamado multiplicação de matrizes, que é executado em um grande número de grades simultaneamente. “As GPUs são uma arquitetura muito comum, mas são muito adequadas para aplicações que apresentam um alto grau de paralelismo”, diz Conti.
No entanto, como não foi originalmente projetado com IA em mente, pode haver ineficiências na forma como a GPU traduz os cálculos realizados no chip. Desenvolvidas pela primeira vez pelo Google em 2016, as Unidades de Processamento de Tensor (TPUs) são projetadas exclusivamente em torno da multiplicação de matrizes, o principal cálculo necessário para treinar e executar modelos de IA em grande escala, de acordo com Conti.
Este ano, o Google TPU de 7ª geração chamado IronwoodEle alimenta muitos dos modelos de IA da empresa, incluindo Gemini e modelagem de proteínas AlphaFold.
A TPU é muito melhor que a GPU para IA?
Tecnicamente, as TPUs são mais um subconjunto de GPUs do que um chip completamente diferente. Simon Mackintosh Smith Na Universidade de Bristol, Reino Unido. “Eles se concentram em recursos de GPU que são mais especificamente voltados para treinamento e inferência de IA, mas em alguns aspectos eles são mais parecidos com GPUs do que você imagina.” Mas como as TPUs são projetadas tendo em mente aplicações específicas de IA, elas podem melhorar significativamente a eficiência dessas tarefas, economizando potencialmente dezenas ou centenas de milhões de dólares, diz ele.
No entanto, esta especialização tem as suas desvantagens, diz Conti, uma vez que as TPUs podem tornar-se inflexíveis se os modelos de IA mudarem significativamente entre gerações. “Se o (TPU) não for flexível, (os cálculos) terão que ser feitos nas CPUs dos nós do data center, o que retarda significativamente o processamento”, disse Conti.
Uma vantagem que as GPUs Nvidia tradicionalmente têm é a disponibilidade de software simples para ajudar os designers de IA a executar código em chips Nvidia. Quando os TPUs foram lançados, isso não existia da mesma forma, mas Conti diz que os chips estão agora em um estágio em que podem ser usados com mais facilidade. “As TPUs permitem que você faça as mesmas coisas (que as GPUs)”, diz ele. “Agora que habilitamos isso, está claro que a disponibilidade será um fator chave”.
Quem desenvolve TPUs?
Embora o Google tenha lançado TPUs pela primeira vez, muitas grandes empresas de IA (conhecidas como hiperescaladores) e pequenas startups estão agora começando a desenvolver suas próprias TPUs especializadas. Isso inclui a Amazon, que usa seus próprios chips Trainium para treinar modelos de IA.
“A maioria dos hiperscaladores tem seus próprios programas internos, em parte porque as GPUs se tornaram muito caras porque a demanda ultrapassou a oferta, então poderia ser mais barato projetar e construir as suas próprias”, diz McIntosh-Smith.
Como a TPU impactará a indústria de IA?
O Google desenvolve TPUs há mais de uma década, usando principalmente esses chips para seus próprios modelos de IA. O que parece estar mudando agora é que outras grandes empresas, como a Meta e a Anthropic, estão comprando quantidades significativas de poder computacional das TPUs do Google. “Não ouvi falar de grandes clientes mudando, mas isso provavelmente está começando a acontecer agora”, disse McIntosh-Smith. “Eles são maduros o suficiente e há um número suficiente deles.”
Além de criar mais opções para as grandes empresas, diversificar também pode fazer sentido financeiramente, diz ele. “Isso pode significar um acordo melhor da Nvidia no futuro”, diz ele.
tópico:


