O que este conteúdo fez por você?
- Atualmente, a fabricante de chips controla 90% do mercado
- Como fundador e CEO, Huang leva sua responsabilidade com os principais clientes de forma pessoal
- O CEO e fundador do gigante de semicondutores de $2,9 trilhões falou abertamente na quarta-feira sobre a tensão que está sentindo
O chefe da Nvidia, Jensen Huang, está começando a sentir o peso da Inteligência Artificial diretamente sobre seus ombros. O CEO e fundador do gigante de semicondutores de US$ 2,9 trilhões falou abertamente na quarta-feira (11) sobre a pressão que enfrenta para aumentar o fornecimento de chips de IA capazes de treinar os mais recentes sistemas de inteligência artificial, como o sucessor do GPT-4 da OpenAI.
Leia também
Os clientes veem seus produtos sob a perspectiva de um jogador em um jogo de soma zero — cada chip que recebem significa uma vantagem para eles, bem como uma desvantagem para os rivais que não conseguiram. O trabalho do CEO da Nvidia é caminhar nessa corda bamba, equilibrando a alocação de suprimentos da melhor forma possível para não colocar em risco as relações com os clientes.
Publicidade
Invista em oportunidades que combinam com seus objetivos. Faça seu cadastro na Ágora Investimentos
“A entrega de nossos componentes — e nossa tecnologia, infraestrutura e software — é realmente emocional para as pessoas, porque afeta diretamente suas receitas, impacta diretamente sua competitividade”, ele disse em uma conferência de tecnologia organizada pelo banco de investimentos Goldman Sachs.
O que exatamente Huang quis dizer com “emocional” não está claro, e a Nvidia recusou-se a comentar mais quando contatada pela Fortune. Mas uma coisa é certa: os clientes — especialmente os três principais hiperescaladores de nuvem, Microsoft, Google e Amazon, que cada um requer um vasto suprimento — realisticamente não têm para onde se virar. A Nvidia controla 90% do mercado.
Velocidade é tudo na corrida da IA
Como fundador e CEO, Jensen Huang leva sua responsabilidade com os principais clientes de forma pessoal. Em abril, ele entregou pessoalmente o primeiro servidor DGX do mundo equipado com seu chip de treinamento de IA da série Hopper atualizada, o novo H200, ao CEO da OpenAI, Sam Altman, e ao presidente Greg Brockman.
E em sua busca para desbancar a OpenAI do cume da indústria, Elon Musk revelou recentemente planos para comprar 50.000 H200s nos próximos meses para dobrar a computação em seu cluster de treinamento xAI em Memphis, onde seu modelo de IA rival, Grok-3, está atualmente em treinamento.
Leia mais: Inteligência artificial em alta: o que esperar das ações do setor no longo prazo
Publicidade
“Nossa competitividade fundamental depende de ser mais rápido do que qualquer outra empresa de IA. Esta é a única maneira de alcançar”, Musk explicou em uma recente postagem em mídia social. “Quando nosso destino depende de ser de longe o mais rápido, devemos ter nossas próprias mãos no volante, em vez de ser um motorista no banco de trás.”
É por isso que ele estava disposto a arriscar a ira dos acionistas da Tesla depois de alocar chips da Nvidia para xAI que deveriam ter ido para treinar o sistema de software de direção autônoma da montadora, FSD. Isso também explica como o xAI conseguiu colocar online o maior cluster de computação único do mundo, alimentado por 100.000 unidades de processamento gráfico Nvidia H100, em apenas três meses.
Não se sabe se Musk é um cliente preferencial, mas a Nvidia revelou que apenas quatro clientes de data center foram responsáveis por quase metade de sua receita de linha superior no segundo trimestre.
“Se pudéssemos atender às necessidades de todos, então a emoção desapareceria, mas é muito emocional, é realmente tenso”, Huang disse na conferência do Goldman na quarta-feira. “Temos muita responsabilidade sobre nossos ombros e tentamos fazer o melhor que podemos.”
Publicidade
Leia mais: Com aportes de US$ 200 bi, empresas de IA atraem novos investidores; veja recomendações
Restrições de fornecimento devem diminuir no futuro
Huang não está falando à toa. No final do mês passado, a Nvidia divulgou resultados do segundo trimestre fiscal que o analista de tecnologia da Wedbush, Dan Ives, chamou de nada menos que “os mais importantes ganhos de tecnologia em anos”.
Uma das principais preocupações que tanto investidores quanto clientes estavam mais ansiosos para ouvir incluíam qualquer informação adicional sobre o lançamento e aceleração do processador Blackwell, a próxima série de chips de IA após o Hopper, após relatos de atrasos.
Durante a chamada com investidores, Huang confirmou que mudanças tiveram de ser feitas no modelo de design de produção, ou “máscara”, para melhorar o rendimento dos chips impressos em cada wafer de silício. No entanto, ele insistiu que ainda seria capaz de enviar vários bilhões de dólares em processadores Blackwell antes que o quarto trimestre fiscal termine no final de janeiro.
Ao contrário dos fabricantes de dispositivos integrados como a Intel ou a Texas Instruments, a Nvidia terceiriza toda a fabricação de semicondutores para fundições dedicadas que se especializam em tecnologia de produção, principalmente a TSMC. O gigante taiwanês lidera a indústria quando se trata de miniaturizar transistores de forma eficiente, os blocos de construção dos chips lógicos impressos em cada wafer.
Publicidade
Isso significa, no entanto, que a Nvidia não pode responder rapidamente a picos de demanda, especialmente porque esses chips passam por meses de etapas de processo complicadas antes de serem totalmente fabricados.
Pressionado sobre a questão, Huang disse à Bloomberg Television no final do mês passado que as restrições estavam diminuindo.
“Estamos esperando que o terceiro trimestre tenha mais oferta do que o segundo, e que o quarto trimestre tenha mais oferta do que o terceiro. A ideia é que que o primeiro trimestre tenha mais oferta do que o quarto”, ele disse na entrevista. “Então, acho que nossa condição de oferta indo para o próximo ano será uma grande melhora em relação a este último ano.”
Se for verdade, então o CEO da Nvidia finalmente pode esperar por menos momentos tensos com “clientes emocionais” e apreensivos com a demanda por chips num futuro não muito distante.
Publicidade
Esta história foi originalmente publicada na Fortune.com
c.2024 Fortune Media IP Limited
Distribuído por The New York Times Licensing Group
*Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.