Sábado, 07 de Março de 2026
22°

Parcialmente nublado

Caruaru, PE

Mercados Mercados

Nvidia cai forte após notícia de que Meta pode encomendar chips de IA do Google

Nvidia cai forte após notícia de que Meta pode encomendar chips de IA do Google

25/11/2025 às 09h21
Por: Redação Fonte: Bloomberg
Compartilhe:
Nvidia cai forte após notícia de que Meta pode encomendar chips de IA do Google

Nvidia cai forte após notícia de que Meta pode encomendar chips de IA do Google.

 

As ações da Nvidia chegaram a cair 3% no pré-mercado nesta terça-feira diante de possível acordo que reforça competição no segmento de semicondutores para IA.

As ações da Nvidia recuaram depois de uma reportagem apontar que a Meta negocia gastar bilhões nos chips de IA do Google, sinal de que a gigante das buscas pode estar avançando para competir com o acelerador de IA mais vendido do mercado.

Continua após a publicidade
Anúncio

Segundo o The Information, a Meta discute o uso dos chips do Google, chamados de TPUs, em seus data centers a partir de 2027, citando uma fonte não identificada. A empresa também pode alugar chips da divisão de nuvem do Google no próximo ano.

Um acordo ajudaria a consolidar as TPUs como alternativa aos chips da Nvidia, hoje padrão para big techs e startups, de Meta a OpenAI, que precisam de capacidade computacional para desenvolver e operar plataformas de inteligência artificial.

Continua após a publicidade
Anúncio

As ações da Nvidia chegaram a cair 3% no pré-mercado nesta terça-feira. A Alphabet, dona do Google, avançou 2,4%, ampliando a sequência de otimismo em torno da nova versão do modelo de IA Gemini.

O Google já havia fechado um acordo para fornecer até 1 milhão de chips à Anthropic PBC, levantando dúvidas sobre a posição dominante da Nvidia no longo prazo.

Após o anúncio do acordo com a Anthropic, o analista Jay Goldberg, da Seaport, classificou o movimento como uma “validação muito forte” das TPUs. “Muita gente já pensava nisso, e muita gente provavelmente está pensando agora”, disse.

A Meta não comentou. O Google não respondeu de imediato aos pedidos.

Para Mandeep Singh e Robert Biggar, analistas, o provável uso das TPUs do Google pela Meta, já empregadas pela Anthropic, indica que fornecedores de modelos de linguagem tendem a recorrer ao Google como segundo fornecedor de chips aceleradores para inferência no curto prazo.

“O capex da Meta, de pelo menos US$ 100 bilhões para 2026, sugere gastos de pelo menos US$ 40 bilhões a US$ 50 bilhões em capacidade de chips de inferência no próximo ano, segundo nossos cálculos”, diz. “O consumo e a expansão da carteira de pedidos do Google Cloud podem acelerar em relação a outros hyperscalers e concorrentes da neo-nuvem, impulsionados pela demanda de empresas que querem usar TPUs e os LLMs Gemini na plataforma”.

Ações de empresas asiáticas ligadas à Alphabet subiram no pregão desta terça-feira. Na Coreia do Sul, a IsuPetasys Co., fornecedora de placas multilaminadas para a Alphabet, avançou 18% e renovou máxima intradia. Em Taiwan, a MediaTek Inc. subiu quase 5%.

Um acordo com a Meta — uma das maiores investidoras do mundo em data centers e desenvolvimento de IA — seria uma vitória para o Google. Mas muito dependerá de as TPUs comprovarem eficiência energética e capacidade computacional suficientes para se tornarem uma opção viável no longo prazo.

Desenvolvido há mais de 10 anos para tarefas de inteligência artificial, o chip tensor ganha força fora do Google como ferramenta para treinar e operar modelos complexos de IA. A atratividade da alternativa cresce em meio ao receio global de excesso de dependência da Nvidia, em um mercado no qual até a Advanced Micro Devices (AMD) aparece distante.

As GPUs — segmento dominado pela Nvidia — foram criadas para acelerar gráficos de jogos eletrônicos e outras aplicações visuais, mas se mostraram ideais para treinar modelos de IA ao lidar com grandes volumes de dados e cálculos. Já as TPUs são circuitos integrados de aplicação específica (ASICs), projetados para uma função definida.

As TPUs também foram adaptadas como aceleradores de IA e machine learning nos próprios aplicativos do Google. Como o Google e o DeepMind desenvolvem modelos de ponta, como o Gemini, a empresa consegue levar aprendizados dessas equipes para os projetistas de chips — e a possibilidade de customização beneficia os dois lados.

 

* O conteúdo de cada comentário é de responsabilidade de quem realizá-lo. Nos reservamos ao direito de reprovar ou eliminar comentários em desacordo com o propósito do site ou que contenham palavras ofensivas.