Eletrônica e Informática

Investimentos dos oito principais provedores de serviços em nuvem (CSPs) devem ultrapassar US$ 710 bilhões em 2026

Os provedores de serviços em nuvem (CSPs) globais estão acelerando os investimentos em servidores e infraestrutura de Inteligência Artificial (IA) para suportar a expansão da implementação e das atualizações de IA, de acordo com a TrendForce. Os investimentos combinados dos oito principais CSPs do mundo – Google, AWS, Meta, Microsoft, Oracle, Tencent, Alibaba e Baidu – devem ultrapassar US$ 710 bilhões em 2026, representando um crescimento aproximado de 61% em relação ao ano anterior.

Além da aquisição contínua de plataformas de GPUs da Nvidia e da AMD, os provedores de serviços em nuvem (CSPs) estão investindo cada vez mais em ASICs para otimizar a adequação às cargas de trabalho de IA e melhorar a relação custo-benefício dos data centers.

A TrendForce estima que a Alphabet, empresa controladora do Google, verá seus gastos de capital em 2026 ultrapassarem US$ 178,3 bilhões, um aumento de 95% em relação ao ano anterior. O Google começou a desenvolver ASICs internamente antes de seus concorrentes e acumulou vantagens substanciais em pesquisa e desenvolvimento. Espera-se que seu roteiro de TPUs faça a transição para a plataforma v8 de próxima geração ainda este ano.

Impulsionadas pela demanda do Google Cloud Platform e dos aplicativos Gemini AI, as TPUs devem representar quase 78% dos servidores de IA enviados para o Google em 2026. Espera-se que isso amplie ainda mais a diferença em relação aos sistemas baseados em GPUs. O Google continua sendo o único provedor de serviços em nuvem (CSP) cuja infraestrutura de servidores de IA apresenta mais servidores baseados em ASICs do que em GPUs.

A Amazon aumentou recentemente a aquisição de sistemas Nvidia GB300 e V200 em escala de rack, refletindo a implantação acelerada de plataformas de GPU de maior potência e densidade para suportar a expansão dos serviços de treinamento e inferência de IA. Espera-se que as GPUs representem quase 60% da infraestrutura de servidores de IA da AWS em 2026.

No que diz respeito aos ASICs, espera-se que a próxima geração do Trainium 3 da Amazon entre em produção a partir do segundo trimestre de 2026, após o lançamento do Trainium 2/2.5. No entanto, o ritmo de vendas pode se intensificar no segundo semestre do ano, à medida que a maturidade do software e a validação do sistema progridem.

A TrendForce projeta que o investimento de capital (CapEx) da Meta em 2026 ultrapasse US$ 124,5 bilhões, um aumento de 77% em relação ao ano anterior. Os servidores de IA da Meta continuarão a depender principalmente de GPUs Nvidia e AMD, com sistemas baseados em GPU representando mais de 80% de sua expansão.

Embora a Meta busque aprimorar sua plataforma ASIC MTIA interna para reduzir os custos unitários de computação e a dependência de fornecedores, fontes da cadeia de suprimentos indicam que os desafios de ajuste de software e hardware podem limitar os volumes reais de remessa em relação às expectativas iniciais.

A Microsoft permanece otimista quanto à demanda de longo prazo por treinamento e inferência de modelos em larga escala e continua adquirindo sistemas Nvidia em escala de rack para dar suporte a implantações de servidores de IA. Ela também lançou seu chip Maia 200 interno, voltado para aplicações de inferência de IA de alta eficiência.

Enquanto isso, a Oracle está expandindo as implantações de GPUs em escala de rack para dar suporte a projetos de data centers de IA vinculados a iniciativas como Stargate e OpenAI.

Do lado chinês, embora a ByteDance não tenha divulgado publicamente planos detalhados de investimento de capital para 2026, a TrendForce estima que mais da metade de seu investimento será alocada para a aquisição de chips de IA. Espera-se que o Nvidia H200 seja uma solução fundamental para os servidores de IA da ByteDance, sujeito aos desdobramentos regulatórios entre os EUA e a China. A empresa também está expandindo a adoção de chips de IA nacionais, incluindo soluções da Cambricon.

A Tencent continua adquirindo GPUs Nvidia para dar suporte a serviços de nuvem e IA generativa, enquanto colabora com parceiros locais para desenvolver soluções ASIC internas em redes, infraestrutura de data center e aplicações de IA online, visando diversificar as fontes de computação e aumentar a flexibilidade de integração.

Alibaba e Baidu estão avançando ativamente no desenvolvimento de ASICs proprietários. A Alibaba, por meio do T-head e do Alibaba Cloud, oferece suporte a serviços de nuvem pública e infraestrutura de IA, enquanto desenvolve módulos Qwen LLM e softwares de aplicação para os mercados corporativo e de consumo.

A Baidu planeja lançar seus chips Kunlun de próxima geração após 2026, com foco em cargas de trabalho de treinamento e inferência de IA em larga escala. Paralelamente, está aprimorando sua plataforma de cluster de servidores de IA Tianchi, capaz de conectar centenas de chips de IA para aumentar o poder de computação em nível de sistema.

Mostrar mais

Artigos relacionados

Botão Voltar ao topo

Adblock detectado

Por favor, considere apoiar-nos, desativando o seu bloqueador de anúncios