Você realmente precisa de todas essas GPUs?



Você realmente precisa de todas essas GPUs?

Durante anos, a narrativa em torno da inteligência synthetic centrou-se em GPU (unidades de processamento gráfico) e seu poder computacional. As empresas adotaram prontamente a ideia de que GPUs caras e de última geração são essenciais para treinamento e execução IA modelos. Os fornecedores de nuvens públicas e os fabricantes de {hardware} promoveram esta crença, comercializando chips mais novos e mais poderosos como cruciais para permanecerem competitivos na corrida pela inovação em IA.

A verdade surpreendente? As GPUs nunca foram tão críticas para o sucesso da IA ​​​​empresarial como fomos levados a acreditar. Muitas das cargas de trabalho de IA das quais as empresas dependem atualmente, como mecanismos de recomendação, análise preditivae chatbots não exigem acesso ao {hardware} mais avançado. GPUs mais antigas ou mesmo CPUs comuns muitas vezes podem ser suficientes por uma fração do custo.

À medida que aumenta a pressão para cortar custos e aumentar a eficiência, as empresas questionam o entusiasmo em torno das GPUs e encontram uma forma mais pragmática de avançar, mudando a forma como abordam a infraestrutura e os investimentos em IA.

Uma queda dramática nos preços da GPU

Relatórios recentes revelam que os preços das GPUs de alta demanda entregues na nuvem despencaram. Por exemplo, o custo de uma instância spot de GPU AWS H100 caiu até 88% em algumas regiões, passando de US$ 105,20 no início de 2024 para US$ 12,16 no ultimate de 2025. Quedas de preços semelhantes foram observadas em todos os principais provedores de nuvem.

Este declínio pode parecer positivo. As empresas economizam dinheiro e os provedores de nuvem ajustam a oferta. No entanto, há uma mudança crítica na tomada de decisões de negócios por trás desses números. As reduções de preços não resultaram de um excesso de oferta; eles refletem a mudança de prioridades. A demanda por GPUs de primeira linha está caindo à medida que as empresas questionam por que deveriam pagar por GPUs caras quando alternativas mais acessíveis oferecem resultados quase idênticos para a maioria das cargas de trabalho de IA.

Nem toda IA ​​requer GPUs de última geração

A ideia de que GPUs maiores e melhores são essenciais para o sucesso da IA ​​sempre foi falha. Claro, treinar modelos grandes como GPT-4 ou MidJourney precisa de muito poder de computação, incluindo GPUs ou TPUs de primeira linha. Mas estes casos representam uma pequena parcela das cargas de trabalho de IA no mundo dos negócios. A maioria das empresas se concentra em tarefas de inferência de IA que usam modelos pré-treinados para aplicações do mundo actual: classificação de e-mails, recomendações de compra, detecção de anomalias e geração de respostas de suporte ao cliente. Essas tarefas não requerem GPUs de última geração. Na verdade, muitos trabalhos de inferência funcionam perfeitamente em GPUs um pouco mais antigas, como as séries A100 ou H100 da Nvidia, que agora estão disponíveis a um custo muito mais baixo.

Ainda mais surpreendente? Algumas empresas descobrem que não precisam de GPUs para muitas operações relacionadas à IA. CPUs comuns podem lidar com modelos menores e menos complexos sem problemas. Um chatbot para consultas internas de RH ou um sistema projetado para prever o consumo de energia não requer o mesmo {hardware} que um projeto inovador de pesquisa de IA. Muitas empresas estão percebendo que aderir a GPUs caras tem mais a ver com prestígio do que com necessidade.

Quando a IA se tornou a próxima grande novidade, ela veio com requisitos de {hardware} exorbitantes. As empresas correram para obter as GPUs mais recentes para permanecerem competitivas, e os provedores de nuvem ficaram felizes em ajudar. O problema? Muitas dessas decisões foram motivadas pelo entusiasmo e pelo medo de perder (FOMO), em vez de um planejamento cuidadoso. Laurent Gil, CEO da Forged AI, observou como o comportamento do cliente é impulsionado pelo FOMO ao comprar novas GPUs.

À medida que as pressões económicas aumentam, muitas empresas estão a aperceber-se de que há anos que têm vindo a abastecer excessivamente a sua infraestrutura de IA. Bate-papoGPT foi construído em GPUs Nvidia mais antigas e teve um desempenho bom o suficiente para definir benchmarks de IA. Se grandes inovações poderiam ter sucesso sem o {hardware} mais recente, por que as empresas deveriam insistir nele para tarefas muito mais simples? É hora de reavaliar as escolhas de {hardware} e determinar se elas estão alinhadas com as cargas de trabalho reais. Cada vez mais, a resposta é não.

Provedores de nuvem pública se adaptam

Esta mudança é evidente nos inventários dos fornecedores de nuvem. GPUs de última geração, como os processadores GB200 Blackwell da Nvidia, permanecem extremamente escassos e isso não vai mudar tão cedo. Enquanto isso, modelos mais antigos, como o A100, ficam ociosos em information facilities enquanto as empresas evitam comprar o próximo grande sucesso.

Muitos fornecedores provavelmente superestimaram a demanda, presumindo que as empresas sempre desejariam chips mais novos e mais rápidos. Na realidade, as empresas concentram-se agora mais na eficiência de custos do que na inovação. Os preços spot agravaram ainda mais esta dinâmica do mercado, à medida que as empresas utilizam a automatização da carga de trabalho orientada pela IA para procurar as opções mais baratas disponíveis.

Gil também explicou que as empresas dispostas a mudar as cargas de trabalho de forma dinâmica podem economizar até 80% em comparação com aquelas que estão presas a acordos de preços estáticos. Este nível de agilidade não period plausível para muitas empresas no passado, mas com os sistemas autoajustáveis ​​cada vez mais disponíveis, está agora a tornar-se o padrão.

Um paradigma de bom senso

GPUs caras e de última geração podem continuar sendo uma ferramenta crítica para a inovação em IA de ponta, mas para a maioria das empresas, o caminho para o sucesso da IA ​​é pavimentado com GPUs mais antigas ou até mesmo CPUs comuns. O declínio nos preços das GPUs em nuvem mostra que mais empresas percebem que a IA não requer {hardware} de primeira linha para a maioria das aplicações. A correção do mercado devido a condições exageradas e excessivamente provisionadas agora enfatiza o ROI. Esta é uma correção saudável e necessária à trajetória insustentável de promessas e provisionamento excessivos da indústria de IA.

Se há uma conclusão, é que as empresas devem investir onde é importante: soluções pragmáticas que proporcionem valor ao negócio sem quebrar o banco. Em sua essência, a IA nunca foi uma questão de {hardware}. As empresas devem concentrar-se em fornecer insights, gerar eficiências e melhorar a tomada de decisões. O sucesso reside na forma como as empresas utilizam a IA, e não no {hardware} que a alimenta. Para as empresas que esperam prosperar num futuro impulsionado pela IA, é altura de abandonar suposições ultrapassadas e adotar uma abordagem mais inteligente aos investimentos em infraestruturas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *