2025 foi um ano essential no Armazenamento do Azure e estamos caminhando para 2026 com um foco claro em ajudar os clientes a transformar a IA em impacto actual.
2025 foi um ano essential para Armazenamento Azuree estamos caminhando para 2026 com um foco claro em ajudar os clientes a transformar a IA em impacto actual. Conforme descrito no relatório de dezembro passado Inovações do Armazenamento do Azure: Desbloqueando o futuro dos dadoso Armazenamento do Azure está evoluindo como uma plataforma inteligente unificada que dá suporte a todo o ciclo de vida da IA em escala empresarial com o desempenho que as cargas de trabalho modernas exigem.
Olhando para 2026, os nossos investimentos abrangem todo esse ciclo de vida, à medida que a IA se torna basic em todos os setores. Estamos aprimorando o desempenho do armazenamento para treinamento de modelos de fronteira, fornecendo soluções específicas para inferência de IA em larga escala e aplicativos de agentes emergentes, e capacitando aplicativos nativos da nuvem para operar em escala de agentes. Paralelamente, estamos simplificando a adoção de cargas de trabalho de missão crítica, reduzindo o TCO e aprofundando parcerias para a coengenharia de soluções otimizadas para IA com nossos clientes.
Estamos gratos aos nossos clientes e parceiros pela sua confiança e colaboração e estamos entusiasmados por moldarmos juntos o próximo capítulo do Armazenamento do Azure no próximo ano.
Estendendo do treinamento à inferência
As cargas de trabalho de IA vão desde o treinamento de modelos grandes e centralizados até a inferência em escala, onde os modelos são aplicados continuamente em produtos, fluxos de trabalho e tomadas de decisões no mundo actual. O treinamento LLM continua sendo executado no Azure, e estamos investindo para nos mantermos à frente, expandindo a escala, melhorando o rendimento e otimizando como arquivos de modelo, pontos de verificação e conjuntos de dados de treinamento fluem através do armazenamento.
As inovações que ajudaram a OpenAI a operar numa escala sem precedentes estão agora disponíveis para todas as empresas. Contas em escala de blob permitem que o armazenamento seja dimensionado em centenas de unidades de escala em uma região, manipulando milhões de objetos necessários para permitir que os dados corporativos sejam usados como conjuntos de dados de treinamento e ajuste para IA aplicada. Nosso parceria com NVIDIA DGX no Azure mostra que a escala se traduz em inferência no mundo actual. A nuvem DGX foi projetada em conjunto para ser executada no Azure, combinando computação acelerada com armazenamento de alto desempenho, Lustre gerenciado do Azure (AMLFS), para apoiar aplicações de pesquisa LLM, automotivas e robóticas. AMLFS oferece o melhor custo-benefício para manter as frotas de GPU alimentadas continuamente. Recentemente, lançamos suporte de visualização para namespaces de 25 PiB e até 512 GBps de taxa de transferência, tornando o AMLFS a melhor implantação gerenciada do Lustre na nuvem.
À medida que olhamos para o futuro, estamos aprofundando a integração entre estruturas populares de IA próprias e de terceiros, como Fundição MicrosoftRay, Qualquer escala e LangChainpermitindo conexões perfeitas com o Armazenamento do Azure prontos para uso. Nosso nativo Integração do Azure Blob Storage no Foundry permite a consolidação de dados corporativos no Foundry IQ, tornando o armazenamento de blobs a camada basic para fundamentar o conhecimento corporativo, ajustar modelos e fornecer contexto de baixa latência para inferência, tudo sob os controles de segurança e governança do locatário.
Desde o treinamento até a inferência em grande escala, o Armazenamento do Azure dá suporte a todo o ciclo de vida do agente: desde a distribuição eficiente de grandes arquivos de modelo, armazenamento e recuperação de contexto de longa duração, até o fornecimento de dados de armazenamentos de vetores RAG. Ao otimizar cada padrão de ponta a ponta, o Azure Storage tem soluções de alto desempenho para cada estágio da inferência de IA.
Evolução de aplicativos nativos da nuvem para escala de agente
À medida que a inferência se torna a carga de trabalho dominante da IA, os agentes autônomos estão remodelando a forma como os aplicativos nativos da nuvem interagem com os dados. Ao contrário dos sistemas controlados por humanos com padrões de consulta previsíveis, os agentes operam continuamente, emitindo uma ordem de grandeza de mais consultas do que os usuários tradicionais jamais fizeram. Esse aumento na simultaneidade sobrecarrega os bancos de dados e as camadas de armazenamento, levando as empresas a repensar como arquitetam novos aplicativos nativos da nuvem.
O Azure Storage está sendo desenvolvido com líderes de SaaS como Serviço agora, Blocos de dadose Elástico para otimizar a escala de agente aproveitando nosso portfólio de armazenamento em bloco. Esperando ansiosamente, SAN elástica torna-se um alicerce essencial para essas cargas de trabalho nativas da nuvem, começando com a transformação do soluções de banco de dados próprias. Ele oferece swimming pools de armazenamento em bloco totalmente gerenciados para diferentes cargas de trabalho para compartilhar recursos provisionados com proteções para hospedar dados de vários locatários. Estamos ultrapassando os limites das unidades de escala máxima para permitir pacotes e recursos mais densos para que os provedores de SaaS gerenciem padrões de tráfego de agentes.
À medida que as cargas de trabalho nativas da nuvem adotam o Kubernetes para escalar rapidamente, estamos simplificando o desenvolvimento de aplicações com estado por meio do nosso orquestrador de armazenamento nativo do Kubernetes, Armazenamento de contêineres do Azure (ACStor) junto com drivers CSI. Nosso lançamento recente do ACStor sinaliza duas mudanças direcionais que orientarão os próximos investimentos: a adoção do modelo de operador Kubernetes para realizar uma orquestração mais complexa e o código-fonte aberto da base de código para colaborar e inovar com a comunidade Kubernetes mais ampla.
Juntos, esses investimentos estabelecem uma base sólida para a próxima geração de aplicativos nativos da nuvem, onde o armazenamento deve ser dimensionado perfeitamente e oferecer alta eficiência para servir como plataforma de dados para sistemas em escala de agente.
Quebrando barreiras de desempenho de preço para cargas de trabalho de missão crítica
Além da evolução das cargas de trabalho de IA, as empresas continuam a aumentar as suas cargas de trabalho de missão crítica no Azure.
A SAP e a Microsoft estão formando uma parceria para expandir o desempenho central do SAP e, ao mesmo tempo, introduzir agentes orientados por IA, como o Joule, que enriquecem o Microsoft 365 Copilot com contexto empresarial. Os mais recentes avanços da série M do Azure adicionam espaço de expansão substancial para SAP HANA, aumentando o desempenho do armazenamento em disco para aproximadamente 780 mil IOPS e taxa de transferência de 16 GB/s. Para armazenamento compartilhado, o Azure NetApp Recordsdata (ANF) e o Azure Premium Recordsdata oferecem as bases NFS/SMB de alto rendimento nas quais os cenários SAP dependem, ao mesmo tempo que otimizam o TCO com o Nível de Serviço Flexível ANF e os Arquivos Azure Provisionados v2. Em breve, apresentaremos o nível de serviço de armazenamento Elastic ZRS no ANF, proporcionando alta disponibilidade com redundância de zona e desempenho consistente por meio da replicação síncrona entre zonas de disponibilidade, aproveitando a arquitetura ZRS do Azure, sem complexidade operacional adicional.
Da mesma forma, os Extremely Disks tornaram-se fundamentais para plataformas como Aladino da BlackRockque deve reagir instantaneamente às mudanças do mercado e manter o alto desempenho sob carga pesada. Com latência média bem abaixo de 500 microssegundos, suporte para 400 mil IOPS e taxa de transferência de 10 GB/s, os Extremely Disks permitem cálculo de risco mais rápido, gerenciamento de portfólio mais ágil e desempenho resiliente nos dias de negociação de maior quantity da BlackRock. Quando combinados com VMs Ebsv6, os Extremely Disks podem atingir 800 mil IOPS e 14 GB/s para as cargas de trabalho de missão crítica mais exigentes. E com o provisionamento flexível, os clientes podem ajustar o desempenho com precisão às suas necessidades e, ao mesmo tempo, otimizar o TCO.
Esses investimentos combinados proporcionam às empresas uma plataforma mais resiliente, escalável e econômica para suas cargas de trabalho mais críticas.
Projetando para novas realidades de energia e fornecimento
O aumento international da IA está a sobrecarregar as redes elétricas e as cadeias de fornecimento de {hardware}. O aumento dos custos de energia, os orçamentos apertados dos datacenters e a escassez de HDD/SSD em todo o setor significam que as organizações não podem dimensionar a infraestrutura simplesmente adicionando mais {hardware}. O armazenamento deve tornar-se mais eficiente e inteligente desde a concepção.
Estamos simplificando toda a pilha para maximizar o desempenho do {hardware} com sobrecarga mínima. Combinado com balanceamento de carga inteligente e classificação por níveis econômica, estamos em uma posição única para ajudar os clientes a dimensionar o armazenamento de forma sustentável, mesmo quando a disponibilidade de energia e {hardware} se torna uma restrição estratégica. Com inovações contínuas em Unidades de processamento de dados do Azure Enhance (DPUs), esperamos ganhos de função escalonada na velocidade de armazenamento e alimentações com consumo de energia por unidade ainda menor.
Os pipelines de IA podem abranger propriedades locais, clusters de GPU neo-cloud e nuvem, mas muitos desses ambientes são limitados pela capacidade de energia ou fornecimento de armazenamento. Quando esses limites se tornam um gargalo, facilitamos a transferência de cargas de trabalho para o Azure. Estamos investindo em integrações que tornam os conjuntos de dados externos cidadãos de primeira classe no Azure, permitindo acesso contínuo a dados de treinamento, ajuste fino e inferência onde quer que estejam. À medida que o armazenamento em nuvem evolui para conjuntos de dados prontos para IA, o Azure Storage está introduzindo experiências selecionadas e otimizadas para pipeline para simplificar a forma como os clientes alimentam dados em serviços de IA downstream.
Acelerando inovações por meio do ecossistema de parceiros de armazenamento
Não podemos fazer isso sozinhos. O Azure Storage estabelece parcerias estreitas com parceiros estratégicos para levar o desempenho de inferência para o próximo nível. Além dos recursos de autopublicação disponíveis no Azure Market, damos um passo além ao dedicar recursos com experiência para projetar soluções em conjunto com parceiros para construir serviços altamente otimizados e profundamente integrados.
Em 2026, você verá mais soluções de engenharia conjunta, como Commvault Cloud para Azure, Dell PowerScale, Qumulo nativo do Azure, Nuvem de armazenamento pura, Cofre de Nuvem Rubrike Nuvem de Dados Veeam. Vamos nos concentrar em soluções híbridas com parceiros como Dados VAST e Komprise para permitir a movimentação de dados que libera o poder dos serviços e da infraestrutura de IA do Azure, alimentando iniciativas impactantes de agentes e aplicativos de IA dos clientes.
Para um ano novo emocionante com o Azure Storage
À medida que avançamos para 2026, a nossa visão permanece simples: ajudar cada cliente a obter mais valor dos seus dados com um armazenamento mais rápido, mais inteligente e concebido para o futuro. Seja potencializando a IA, dimensionando aplicativos nativos da nuvem ou apoiando cargas de trabalho de missão crítica, o Azure Storage está aqui para ajudá-lo a inovar com confiança no próximo ano.