Resumindo os novos recursos deste mês no portfólio de IA do Azure que oferecem mais opções e flexibilidade para criar e dimensionar soluções de IA.
Mais de 60.000 clientes, incluindo AT&T, H&R Block, Volvo, Grammarly, Harvey, Leya e outros, utilizam a IA do Microsoft Azure para impulsionar a transformação da IA. Estamos entusiasmados em ver a crescente adoção da IA em setores e empresas de pequeno e grande porte. Este weblog resume novos recursos em Portfólio de IA do Azure que oferecem maior escolha e flexibilidade para criar e dimensionar soluções de IA. As principais atualizações incluem:
Zonas de dados Azure OpenAI para os Estados Unidos e a União Europeia
Estamos entusiasmados em anunciar Zonas de dados OpenAI do Azureuma nova opção de implantação que oferece às empresas ainda mais flexibilidade e controle sobre suas necessidades de privacidade e residência de dados. Adaptadas para organizações nos Estados Unidos e na União Europeia, as Zonas de Dados permitem que os clientes processem e armazenem os seus dados dentro de limites geográficos específicos, garantindo a conformidade com os requisitos regionais de residência de dados, mantendo ao mesmo tempo um desempenho excellent. Ao abranger múltiplas regiões dentro destas áreas, as Zonas de Dados oferecem um equilíbrio entre a relação custo-eficiência das implementações globais e o controlo das implementações regionais, facilitando às empresas a gestão das suas aplicações de IA sem sacrificar a segurança ou a velocidade.
Este novo recurso simplifica a tarefa muitas vezes complexa de gerenciar a residência de dados, oferecendo uma solução que permite maior rendimento e acesso mais rápido aos mais recentes modelos de IA, incluindo a mais recente inovação do Azure OpenAI Service. As empresas podem agora tirar partido da infraestrutura robusta do Azure para dimensionar com segurança as suas soluções de IA, ao mesmo tempo que cumprem requisitos rigorosos de residência de dados. As zonas de dados estão disponíveis para Normal (PayGo) e em breve para Provisioned.

Atualizações do serviço Azure OpenAI
No início deste mês, anunciamos disponibilidade geral da API do Azure OpenAI Batch para implantações globais. Com a API Azure OpenAI Batch, os desenvolvedores podem gerenciar tarefas de processamento em larga escala e de alto quantity de forma mais eficiente com cota separada, um tempo de resposta de 24 horas, a um custo 50% menor do que o Normal International. A Ontada, uma entidade da McKesson, já está aproveitando a Batch API para processar um grande quantity de dados de pacientes em centros de oncologia nos Estados Unidos de forma eficiente e econômica.
”A Ontada está em uma posição única para atender provedores, pacientes e parceiros de ciências biológicas com insights baseados em dados. Aproveitamos a API Azure OpenAI Batch para processar dezenas de milhões de documentos não estruturados de forma eficiente, melhorando a nossa capacidade de extrair informações clínicas valiosas. O que levaria meses para ser processado agora leva apenas uma semana. Isto melhora significativamente a prática da medicina baseada em evidências e acelera a pesquisa e desenvolvimento de produtos de ciências biológicas. Em parceria com a Microsoft, estamos avançando na pesquisa oncológica baseada em IA, visando avanços no tratamento personalizado do câncer e no desenvolvimento de medicamentos.” — Sagran Moodley, Diretor de Inovação e Tecnologia, Ontada
Também habilitamos Cache de immediate para modelos o1-preview, o1-mini, GPT-4o e GPT-4o-mini no serviço Azure OpenAI. Com o Immediate Caching, os desenvolvedores podem otimizar custos e latência reutilizando tokens de entrada vistos recentemente. Este recurso é particularmente útil para aplicações que usam o mesmo contexto repetidamente, como edição de código ou longas conversas com chatbots. O cache de immediate oferece um 50% de desconto em tokens de entrada em cache na oferta padrão e tempos de processamento mais rápidos.
Para a oferta de implantação international provisionada, estamos reduzindo a quantidade de implantação inicial para modelos GPT-4o para 15 unidades de rendimento provisionadas (PTUs) com incrementos adicionais de 5 PTUs. Também estamos reduzindo o preço do Provisioned International Hourly em 50% para ampliar o acesso ao serviço Azure OpenAI. Saiba mais aqui sobre o gerenciamento de custos para implantações de IA.
Além disso, estamos introduzindo um acordo de nível de serviço (SLA) de latência de 99% para geração de tokens. Este SLA de latência garante que os tokens sejam gerados em velocidades mais rápidas e consistentes, especialmente em grandes volumes.
Novos modelos e customização
Continuamos a expandir a escolha de modelos com a adição de novos modelos ao catálogo de modelos. Temos vários novos modelos disponíveis este mês, incluindo Modelos do setor de saúde e modelos da Mistral e Cohere. Também estamos anunciando recursos de personalização para a família de modelos Phi-3.5.
- Modelos do setor de saúdecomposto por modelos avançados de imagens médicas multimodais, incluindo MedImageInsight para análise de imagens, MedImageParse para segmentação de imagens entre modalidades de imagem e CXRReportGen que pode gerar relatórios estruturados detalhados. Desenvolvidos em colaboração com a Microsoft Analysis e parceiros do setor, esses modelos são projetados para serem ajustados e personalizados pelas organizações de saúde para atender a necessidades específicas, reduzindo os requisitos computacionais e de dados normalmente necessários para construir tais modelos do zero. Discover hoje em Catálogo de modelos de IA do Azure.
- Ministral 3B da Mistral AI: O Ministral 3B representa um avanço significativo na categoria sub-10B, com foco em conhecimento, raciocínio de bom senso, chamada de função e eficiência. Com suporte para comprimento de contexto de até 128 mil, esses modelos são adaptados para uma ampla variedade de aplicativos, desde a orquestração de fluxos de trabalho de agentes até o desenvolvimento de tarefas especializadas. Quando usado junto com modelos de linguagem maiores, como Mistral Giant, o Ministral 3B pode servir como intermediário eficiente para chamadas de funções em fluxos de trabalho de agência de várias etapas.
- Cohere Incorporar 3: O Embed 3, o modelo de pesquisa de IA líder do setor da Cohere, já está disponível no Catálogo de Modelos de IA do Azure — e é multimodal! Com a capacidade de gerar incorporações a partir de texto e imagens, o Embed 3 agrega um valor significativo para as empresas, permitindo-lhes pesquisar e analisar grandes quantidades de dados, independentemente do formato. Esta atualização posiciona o Embed 3 como o modelo de incorporação multimodal mais poderoso e capaz do mercado, transformando a forma como as empresas pesquisam ativos complexos, como relatórios, catálogos de produtos e arquivos de design.
- Ajustando a disponibilidade geral para a família Phi 3.5incluindo Phi-3.5-mini e Phi-3.5-MoE. Os modelos da família Phi são adequados para personalização para melhorar o desempenho do modelo básico em uma variedade de cenários, incluindo o aprendizado de uma nova habilidade ou tarefa ou o aprimoramento da consistência e qualidade da resposta. Dada a sua pequena área de computação, bem como a compatibilidade com a nuvem e a borda, os modelos Phi-3.5 oferecem uma alternativa econômica e sustentável quando comparados a modelos do mesmo tamanho ou do tamanho seguinte. Já estamos vendo a adoção da família Phi-3.5 para casos de uso, incluindo raciocínio de ponta, bem como cenários não conectados. Os desenvolvedores podem ajustar Phi-3.5-mini e Phi-3.5-MoE hoje por meio da oferta de modelo como uma plataforma e usando endpoint sem servidor.

Desenvolvimento de aplicativos de IA
Estamos construindo o Azure AI para ser uma plataforma aberta e modular, para que os desenvolvedores possam passar rapidamente da ideia ao código e à nuvem. Os desenvolvedores agora podem explorar e acessar modelos de IA do Azure diretamente por meio do GitHub Market por meio da API de inferência de modelos de IA do Azure. Os desenvolvedores podem experimentar modelos diferentes e comparar o desempenho do modelo no playground gratuitamente (aplicam-se limites de uso) e quando estiver pronto para personalizar e implantar, os desenvolvedores podem configurar e fazer login perfeitamente à sua conta do Azure para escalar desde o uso de token gratuito até pontos de extremidade pagos com segurança e monitoramento de nível empresarial, sem alterar mais nada no código.
Também anunciamos Modelos de aplicativos de IA para acelerar o desenvolvimento de aplicativos de IA. Os desenvolvedores podem usar esses modelos em GitHub Codespaces, VS Code e Visible Studio. Os modelos oferecem flexibilidade com vários modelos, estruturas, linguagens e soluções de fornecedores como Arize, LangChain, LlamaIndex e Pinecone. Os desenvolvedores podem implantar aplicativos completos ou começar com componentes, provisionando recursos no Azure e em serviços de parceiros.
Nossa missão é capacitar todos os desenvolvedores em todo o mundo para construir com IA. Com essas atualizações, os desenvolvedores podem começar rapidamente em seu ambiente preferido, escolher a opção de implantação que melhor atende às necessidades e dimensionar soluções de IA com confiança.
Novos recursos para criar aplicativos de IA seguros e prontos para empresas
Na Microsoft, estamos focados em ajudar os clientes a usar e criar IA que é confiávelsignificando IA que é segura, protegida e privada. Hoje, tenho o prazer de compartilhar dois novos recursos para criar e dimensionar soluções de IA com confiança.
O catálogo de modelos de IA do Azure oferece mais de 1.700 modelos para os desenvolvedores explorarem, avaliarem, personalizarem e implantarem. Embora esta vasta seleção capacite a inovação e a flexibilidade, também pode apresentar desafios significativos para as empresas que desejam garantir que todos os modelos implementados estejam alinhados com as suas políticas internas, padrões de segurança e requisitos de conformidade. Agora, os administradores de IA do Azure podem use as políticas do Azure para pré-aprovar modelos selecionados para implantação do catálogo de modelos de IA do Azure, simplificando os processos de seleção e governança de modelos. Isso inclui políticas pré-construídas para implantações de modelos como serviço (MaaS) e modelos como plataforma (MaaP), enquanto um guia detalhado facilita a criação de políticas personalizadas para o serviço Azure OpenAI e outros serviços de IA. Juntas, essas políticas fornecem cobertura completa para a criação de uma lista de modelos permitidos e sua aplicação em todos os países. Aprendizado de Máquina Azure e Estúdio de IA do Azure.
Para personalizar modelos e aplicações, os desenvolvedores podem precisar de acesso a recursos localizados no native, ou mesmo a recursos não suportados com pontos finais privados, mas ainda localizados na sua rede digital Azure personalizada (VNET). Gateway de Aplicativo é um balanceador de carga que toma decisões de roteamento com base na URL de uma solicitação HTTPS. O Software Gateway suportará uma ligação privada do VNET gerido a quaisquer recursos que utilizem o protocolo HTTP ou HTTPs. Hoje, foi verificado que ele oferece suporte a uma conexão privada com Jfrog Artifactory, Snowflake Database e APIs privadas. Com Gateway de Aplicativo no Azure Machine Studying e no Azure AI Studioagora disponível em versão prévia pública, os desenvolvedores podem acessar recursos VNET locais ou personalizados para seus cenários de treinamento, ajuste fino e inferência sem comprometer sua postura de segurança.
Comece hoje mesmo com a IA do Azure
Foram seis meses incríveis aqui na Azure AI, oferecendo inovação de ponta em IA, vendo os desenvolvedores criarem experiências transformadoras usando nossas ferramentas e aprendendo com nossos clientes e parceiros. Estou animado com o que vem a seguir. Junte-se a nós em Microsoft Ignite 2024 para ouvir sobre as últimas novidades IA do Azure.
Recursos adicionais: