Panorama Tech

Panorama Tech | 29 de Setembro de 2025

Pedro Carvalho

29 set 2025, 14:36 (Atualizado em 2 out 2025, 14:17)

Na última semana foi anunciada uma parceria estratégica de grande porte entre a OpenAI e a Nvidia. No entanto, a escala desse investimento trouxe à tona críticas pertinentes: o risco de round-tripping, ou receita circular, especialmente considerando a já relatada transação bilionária da OpenAI com a Oracle Cloud Infrastructure (OCI).

Veja mais a seguir:

📜🤝O Acordo entre Nvidia e OpenAI

A Nvidia, além do investimento bilionário, se tornará a parceira estratégica preferencial em computação e rede da OpenAI, com ambas as empresas atuando para co-otimizar seus roteiros de software de modelo e hardware da Nvidia. A primeira fase dessa implantação deve entrar em operação no segundo semestre de 2026, utilizando a plataforma NVIDIA Vera Rubin.

O acordo beneficia ambas as empresas em áreas fundamentais. Para a OpenAI, a vantagem principal é assegurar o acesso a uma quantidade gigantesca de capacidade computacional, considerada a “base para a economia do futuro” por seu CEO, Sam Altman. Esse poder de processamento é vital para suportar o crescimento exponencial de sua base de usuários, que já supera 700 milhões de usuários semanais, e a complexidade crescente de seus modelos, que agora demandam tempo de “raciocínio” antes de gerar uma resposta, multiplicando a necessidade de computação. 

Já para a Nvidia, a parceria representa uma estratégia de “duplo efeito”. Jensen Huang, CEO da Nvidia, acredita que a OpenAI se tornará a “próxima empresa hyperscale multibilionária de trilhões de dólares”, tornando o investimento acionário uma “oportunidade fantástica”. Além disso, ao financiar a expansão da infraestrutura, a Nvidia garante a demanda contínua por seus chips, que são vistos como praticamente insubstituíveis para o treinamento de modelos de IA de ponta, solidificando sua posição como a principal fornecedora do setor.

⚠️🔄Dúvidas sobre “Round Tripping”

Apesar do otimismo, a parceria levanta questões sobre circularidade de receitas, um conceito denominado “round-tripping”, entre OpenAI, Oracle o Nvidia. 

A OpenAI recentemente firmou um acordo de US$ 300 bilhões com a Oracle para serviços de cloud no âmbito do Projeto Stargate, visando desenvolver 4,5 GW de data center nos EUA. Para cumprir essa obrigação, a Oracle precisa adquirir quantidades maciças de hardware, sendo a Nvidia a fornecedora dominante desses chips. Em seguida, a Nvidia se compromete a investir até US$ 100 bilhões na OpenAI. Dessa forma, a OpenAI paga à Oracle, a Oracle compra da Nvidia e a Nvidia investe na OpenAI. 

O precedente histórico mais citado como advertência pelos críticos é o colapso da Nortel Networks Corp. e da Cisco Systems durante a bolha das “pontocom”, há cerca de 25 anos. A Nortel, que já representou 38% de toda a Bolsa de Valores de Toronto (TSE 300), faliu após um período de excesso de construção, onde as redes de fibra óptica eram utilizadas em apenas 7% a 15% de sua capacidade total. 

💪🔋Sobrecarga de Capacidade… Será?

Apesar das comparações com a crise da Nortel/Cisco, a Nvidia e os líderes de IA contestam a ideia de um excesso de oferta ou de que essa infraestrutura esteja sendo super construída. Jensen Huang argumenta que o mercado vive uma divergência maciça de crença entre as ambições dos desenvolvedores de IA, como Sam Altman, Satya Nadella e Sundar Pichai, e o ceticismo de Wall Street, que espera que o crescimento da Nvidia “se estabilize” a partir de 2027.

O argumento central contra o risco de sobrecapacidade é a demanda exponencial e crescente por IA, impulsionada por dois fatores exponenciais que se combinam: o crescimento do número de clientes e o aumento exponencial da computação por uso. O novo tipo de inferência de IA, que envolve “raciocínio” e o uso de ferramentas, requer um bilhão de vezes mais computação do que a inferência tradicional única. Essa necessidade massiva de poder computacional torna o risco de excesso de oferta “extremamente baixo”, até que toda a computação de propósito geral (CPUs)  seja convertida em computação acelerada (GPUs).

Além disso, Huang argumenta que a Lei de Moore está “morta”, e os custos dos tokens (a unidade de saída da IA) continuarão a subir, a menos que o desempenho dos chips por watt de energia melhore drasticamente. A Nvidia sustenta que, mesmo que seus concorrentes ofereçam chips gratuitamente, o cliente optaria pelo seu sistema devido à melhor performance por watt. Considerando que o custo total de operação é tão alto, girando em torno de US$ 15 bilhões por data center, não valeria a pena usar hardware inferior. 

Portanto, a infraestrutura não se trata de ter “capacidade extra”, mas sim de ter a capacidade mais eficiente para acompanhar o crescimento da inteligência artificial, que está a caminho de aumentar o PIB global ao criar “bilhões de colegas de trabalho”.

Conclusão

Apesar dos receios de round-tripping e das sombras da bolha “pontocom”, a corrida para erguer data centers de múltiplos gigawatts é vista como crucial para o futuro – Jensen Huang afirmou que a tecnologia de IA é o “tesouro nacional” dos Estados Unidos e que essa infraestrutura é tão vital para a segurança nacional e econômica quanto a energia nuclear foi na década de 1940. 

Por fim, a aliança entre OpenAI e Nvidia, juntamente com parcerias com outros hyperscalers como a Oracle, reforça o compromisso de construir a base necessária para que os EUA mantenham a liderança no desenvolvimento tecnológico nos próximos anos.

————————————————————-

Performance dos fundos (em 12M – até o dia 25/09/2025):

————————————————————- 

Além deste canal, não deixe de acompanhar as outras publicações da Empiricus Asset:
Podcast Tech Riders – https://emprc.us/BpjDQW
Cartas Trimestrais – https://emprc.us/RVnGof
Capital Pulse – https://emprc.us/10xxrY
Radar Crypto – https://emprc.us/gj2O0U

Receba conteúdos exclusivos diretamente em seu e-mail