A AWS disse que seu novo chip tem custo mais baixo que os rivais e oferece quatro vezes o desempenho computacional de seu antecessor, usando 40% menos energia. Foto: RONNY HARTMANN/AFP
Fonte: AFP
A Amazon Web Services lançou seu chip Trainium3 AI desenvolvido internamente na terça-feira, marcando um impulso significativo para competir com a Nvidia no lucrativo mercado de poder de computação de inteligência artificial.
A mudança intensifica a concorrência no mercado de chips de IA, onde a Nvidia atualmente domina, com uma participação de mercado estimada de 80 a 90 por cento para produtos usados no treinamento de grandes modelos de linguagem que alimentam empresas como ChatGPT.
O Google causou tremores na indústria na semana passada quando foi relatado que a Meta, controladora do Facebook, empregaria chips de IA do Google em data centers, sinalizando uma nova competição para a Nvidia, atualmente a empresa mais valiosa do mundo e um indicador do frenesi de investimentos em IA.
Isso ocorreu após o lançamento do mais recente modelo de IA do Google no mês passado, que foi treinado usando os próprios chips internos da empresa, não os da Nvidia.
A AWS, que disponibilizará a tecnologia para seus clientes de computação em nuvem, disse que seu novo chip tem custo mais baixo que os rivais e oferece quatro vezes o desempenho computacional de seu antecessor, ao mesmo tempo que usa 40% menos energia.
Leia também
Chefe de IA da Apple sai enquanto fabricante do iPhone tenta se atualizar
“O Trainium3 oferece o melhor desempenho de preço do setor para treinamento e inferência de IA em larga escala”, disse Matt Garman, CEO da AWS, em um evento de lançamento em Las Vegas.
A inferência é a fase de execução da IA, onde o modelo para de vasculhar a internet em busca de treinamento e começa a executar tarefas em cenários do mundo real.
O consumo de energia é uma das principais preocupações sobre a revolução da IA, com as principais empresas tecnológicas a terem de reduzir ou suspender os seus compromissos de emissões líquidas zero enquanto correm para acompanhar a tecnologia.
A AWS disse que seu chip pode reduzir o custo de treinamento e operação de modelos de IA em até 50% em comparação com sistemas que usam unidades de processamento gráfico equivalentes, ou GPUs, principalmente da Nvidia.
“O treinamento de modelos de ponta agora requer investimentos em infraestrutura que apenas um punhado de organizações pode pagar”, disse AWS, posicionando o Trainium3 como uma forma de democratizar o acesso à computação de IA de alta potência.
A AWS disse que várias empresas já estão usando a tecnologia, incluindo a Anthropic, fabricante do assistente Claude AI e concorrente do OpenAI, fabricante do ChatGPT.
A AWS também anunciou que já está desenvolvendo o Trainium4, que deverá oferecer pelo menos três vezes o desempenho do Trainium3 para cargas de trabalho de IA padrão.
Leia também
Mercados asiáticos sobem à medida que apostas de corte de taxas dos EUA amenizam desconforto com títulos do Japão
O chip de próxima geração suportará a tecnologia da Nvidia, permitindo que funcione junto com os servidores e hardware da empresa.
O desenvolvimento interno de chips da Amazon reflete uma tendência mais ampla entre os provedores de nuvem que buscam reduzir a dependência de fornecedores externos e, ao mesmo tempo, oferecer aos clientes alternativas mais econômicas para cargas de trabalho de IA.
A Nvidia intrigou os observadores da indústria na semana passada quando respondeu aos sucessos do Google em uma postagem incomum no X, dizendo que a empresa estava “encantada” com a concorrência antes de acrescentar que a Nvidia “está uma geração à frente da indústria”.
Fonte: AFP







