Panorama Tech
Panorama Tech | 29 de Setembro de 2025

Na última semana foi anunciada uma parceria estratégica de grande porte entre a OpenAI e a Nvidia. No entanto, a escala desse investimento trouxe à tona críticas pertinentes: o risco de round-tripping, ou receita circular, especialmente considerando a já relatada transação bilionária da OpenAI com a Oracle Cloud Infrastructure (OCI).
Veja mais a seguir:
📜🤝O Acordo entre Nvidia e OpenAI
A Nvidia, além do investimento bilionário, se tornará a parceira estratégica preferencial em computação e rede da OpenAI, com ambas as empresas atuando para co-otimizar seus roteiros de software de modelo e hardware da Nvidia. A primeira fase dessa implantação deve entrar em operação no segundo semestre de 2026, utilizando a plataforma NVIDIA Vera Rubin.
O acordo beneficia ambas as empresas em áreas fundamentais. Para a OpenAI, a vantagem principal é assegurar o acesso a uma quantidade gigantesca de capacidade computacional, considerada a “base para a economia do futuro” por seu CEO, Sam Altman. Esse poder de processamento é vital para suportar o crescimento exponencial de sua base de usuários, que já supera 700 milhões de usuários semanais, e a complexidade crescente de seus modelos, que agora demandam tempo de “raciocínio” antes de gerar uma resposta, multiplicando a necessidade de computação.
Já para a Nvidia, a parceria representa uma estratégia de “duplo efeito”. Jensen Huang, CEO da Nvidia, acredita que a OpenAI se tornará a “próxima empresa hyperscale multibilionária de trilhões de dólares”, tornando o investimento acionário uma “oportunidade fantástica”. Além disso, ao financiar a expansão da infraestrutura, a Nvidia garante a demanda contínua por seus chips, que são vistos como praticamente insubstituíveis para o treinamento de modelos de IA de ponta, solidificando sua posição como a principal fornecedora do setor.
⚠️🔄Dúvidas sobre “Round Tripping”
Apesar do otimismo, a parceria levanta questões sobre circularidade de receitas, um conceito denominado “round-tripping”, entre OpenAI, Oracle o Nvidia.
A OpenAI recentemente firmou um acordo de US$ 300 bilhões com a Oracle para serviços de cloud no âmbito do Projeto Stargate, visando desenvolver 4,5 GW de data center nos EUA. Para cumprir essa obrigação, a Oracle precisa adquirir quantidades maciças de hardware, sendo a Nvidia a fornecedora dominante desses chips. Em seguida, a Nvidia se compromete a investir até US$ 100 bilhões na OpenAI. Dessa forma, a OpenAI paga à Oracle, a Oracle compra da Nvidia e a Nvidia investe na OpenAI.
O precedente histórico mais citado como advertência pelos críticos é o colapso da Nortel Networks Corp. e da Cisco Systems durante a bolha das “pontocom”, há cerca de 25 anos. A Nortel, que já representou 38% de toda a Bolsa de Valores de Toronto (TSE 300), faliu após um período de excesso de construção, onde as redes de fibra óptica eram utilizadas em apenas 7% a 15% de sua capacidade total.
💪🔋Sobrecarga de Capacidade… Será?
Apesar das comparações com a crise da Nortel/Cisco, a Nvidia e os líderes de IA contestam a ideia de um excesso de oferta ou de que essa infraestrutura esteja sendo super construída. Jensen Huang argumenta que o mercado vive uma divergência maciça de crença entre as ambições dos desenvolvedores de IA, como Sam Altman, Satya Nadella e Sundar Pichai, e o ceticismo de Wall Street, que espera que o crescimento da Nvidia “se estabilize” a partir de 2027.
O argumento central contra o risco de sobrecapacidade é a demanda exponencial e crescente por IA, impulsionada por dois fatores exponenciais que se combinam: o crescimento do número de clientes e o aumento exponencial da computação por uso. O novo tipo de inferência de IA, que envolve “raciocínio” e o uso de ferramentas, requer um bilhão de vezes mais computação do que a inferência tradicional única. Essa necessidade massiva de poder computacional torna o risco de excesso de oferta “extremamente baixo”, até que toda a computação de propósito geral (CPUs) seja convertida em computação acelerada (GPUs).
Além disso, Huang argumenta que a Lei de Moore está “morta”, e os custos dos tokens (a unidade de saída da IA) continuarão a subir, a menos que o desempenho dos chips por watt de energia melhore drasticamente. A Nvidia sustenta que, mesmo que seus concorrentes ofereçam chips gratuitamente, o cliente optaria pelo seu sistema devido à melhor performance por watt. Considerando que o custo total de operação é tão alto, girando em torno de US$ 15 bilhões por data center, não valeria a pena usar hardware inferior.
Portanto, a infraestrutura não se trata de ter “capacidade extra”, mas sim de ter a capacidade mais eficiente para acompanhar o crescimento da inteligência artificial, que está a caminho de aumentar o PIB global ao criar “bilhões de colegas de trabalho”.
✅ Conclusão
Apesar dos receios de round-tripping e das sombras da bolha “pontocom”, a corrida para erguer data centers de múltiplos gigawatts é vista como crucial para o futuro – Jensen Huang afirmou que a tecnologia de IA é o “tesouro nacional” dos Estados Unidos e que essa infraestrutura é tão vital para a segurança nacional e econômica quanto a energia nuclear foi na década de 1940.
Por fim, a aliança entre OpenAI e Nvidia, juntamente com parcerias com outros hyperscalers como a Oracle, reforça o compromisso de construir a base necessária para que os EUA mantenham a liderança no desenvolvimento tecnológico nos próximos anos.
————————————————————-
Performance dos fundos (em 12M – até o dia 25/09/2025):
- Empiricus Tech Select: +15,64%
- Empiricus Tech Growth (antigo Tech Bets): +18,88%
————————————————————-
Além deste canal, não deixe de acompanhar as outras publicações da Empiricus Asset:
Podcast Tech Riders – https://emprc.us/BpjDQW
Cartas Trimestrais – https://emprc.us/RVnGof
Capital Pulse – https://emprc.us/10xxrY
Radar Crypto – https://emprc.us/gj2O0U