Ao contrário das nuvens públicas tradicionais, essas abordagens são muitas vezes construídas desde o início para lidar com as demandas exclusivas da infraestrutura moderna de IA. Isso significa configurações de GPU de alta densidade, sistemas de refrigeração líquida e designs com eficiência energética. Mais importante ainda, permitem que as empresas mudem para modelos de propriedade ou recursos partilhados que reduzem custos a longo prazo.
Apostar no modelo de negócios errado
Os provedores de nuvem pública estão se posicionando como o native pure para a construção e implantação de cargas de trabalho de IA. Naturalmente, o foco na AWS re:Invent 2024 foi novamente sobre IA generativa e como a nuvem AWS oferece suporte a soluções de IA generativa. A experimentação e os pilotos de IA em estágio inicial geraram um aumento de curto prazo nas receitas da nuvem, à medida que as organizações migram para hiperescaladores para treinar modelos complexos e testar rapidamente novos casos de uso.
Treinar modelos de IA em infraestrutura de nuvem pública é uma coisa; implantar esses sistemas em escala é outra. Ao apostar na IA, os fornecedores de nuvens públicas dependem fortemente de modelos de preços baseados no consumo. Sim, é fácil gerar recursos na nuvem, mas as falhas nesse modelo estão se tornando mais difíceis de ignorar. À medida que as empresas passam da experimentação para a produção, as cargas de trabalho de IA com uso pesado de GPU não se traduzem em eficiência de custos.