Temos o prazer de anunciar diversas atualizações para ajudar os desenvolvedores a criar rapidamente soluções de IA personalizadas com mais opções e flexibilidade, aproveitando a cadeia de ferramentas de IA do Azure.
A IA está transformando todos os setores e criando novas oportunidades para inovação e crescimento. Mas, desenvolver e implementar aplicativos de IA em escala requer uma plataforma robusta e flexível que possa lidar com as necessidades complexas e diversas das empresas modernas e permitir que elas criem soluções baseadas em seus dados organizacionais. É por isso que estamos animados em anunciar várias atualizações para ajudar os desenvolvedores a criar rapidamente soluções de IA personalizadas com maior escolha e flexibilidade, aproveitando o IA do Azure cadeia de ferramentas:
- Ajuste fino sem servidor para modelos Phi-3-mini e Phi-3-medium permite que os desenvolvedores personalizem de forma rápida e fácil os modelos para cenários de nuvem e de ponta sem precisar providenciar computação.
- Atualizações para Phi-3-mini incluindo melhoria significativa na qualidade do núcleo, no seguimento de instruções e na produção estruturadapermitindo que os desenvolvedores criem um modelo com melhor desempenho sem custo adicional.
- Envio no mesmo dia no início deste mês dos modelos mais recentes da OpenAI (GPT-4o mini), Meta (Lhama 3.1 405B), Mistral (Grande 2) para o Azure AI para oferecer aos clientes mais opções e flexibilidade.
Desbloqueando valor por meio da inovação e personalização de modelos
Em abril, introduzimos o Família Phi-3 de modelos pequenos e abertos desenvolvidos pela Microsoft. Os modelos Phi-3 são nossos modelos de linguagem pequena (SLMs) mais capazes e econômicos disponíveis, superando modelos do mesmo tamanho e do tamanho seguinte. À medida que os desenvolvedores buscam adaptar soluções de IA para atender às necessidades comerciais específicas e melhorar a qualidade das respostas, o ajuste fino de um modelo pequeno é uma ótima alternativa sem sacrificar o desempenho. A partir de hoje, os desenvolvedores podem ajuste fino Phi-3-mini e Phi-3-medium com seus dados para criar experiências de IA mais relevantes para seus usuários, de forma segura e econômica.
Dada sua pequena pegada de computação, compatibilidade com nuvem e edge, os modelos Phi-3 são bem adequados para ajuste fino para melhorar o desempenho do modelo base em uma variedade de cenários, incluindo aprender uma nova habilidade ou tarefa (por exemplo, tutoria) ou melhorar a consistência e a qualidade da resposta (por exemplo, tom ou estilo de respostas em chat/perguntas e respostas). Já estamos vendo adaptações do Phi-3 para novos casos de uso.
A Microsoft e a Khan Academy estão trabalhando juntas para ajudar a melhorar soluções para professores e alunos em todo o mundo. Como parte da colaboração, a Khan Academy usa Serviço OpenAI do Azure para impulsionar o Khanmigo for Academics, um assistente de ensino piloto alimentado por IA para educadores em 44 países e está experimentando o Phi-3 para melhorar a tutoria de matemática. A Khan Academy publicou recentemente um artigo de pesquisa destacando como diferentes modelos de IA funcionam ao avaliar a precisão matemática em cenários de tutoria, incluindo benchmarks de uma versão ajustada do Phi-3. Dados iniciais mostra que quando um aluno comete um erro matemático, o Phi-3 supera a maioria dos outros modelos líderes de IA generativa na correção e identificação de erros dos alunos.
E nós também ajustamos o Phi-3 para o dispositivo. Em junho, nós introduzimos Sílica Phi para capacitar desenvolvedores com um modelo poderoso e confiável para criar aplicativos com experiências de IA seguras e protegidas. O Phi Silica se baseia na família de modelos Phi e é projetado especificamente para as NPUs em PCs Copilot+. O Microsoft Home windows é a primeira plataforma a ter um modelo de linguagem pequena (SLM) de última geração, personalizado para a Unidade de Processamento Neural (NPU) e caixa de entrada de remessa.
Você pode tentar o ajuste fino para modelos Phi-3 hoje em IA do Azure.
Também estou animado em compartilhar que nossa capacidade de Fashions-as-a-Service (endpoint sem servidor) no Azure AI agora está disponível para o público em geral. Além disso, Phi-3-small agora está disponível por meio de um endpoint sem servidor para que os desenvolvedores possam começar de forma rápida e fácil com o desenvolvimento de IA sem ter que gerenciar a infraestrutura subjacente. Phi-3-vision, o modelo multimodal da família Phi-3, foi anunciado na Microsoft Construct e está disponível por meio do catálogo de modelos de IA do Azure. Em breve, ele também estará disponível por meio de um ponto de extremidade sem servidor. Phi-3-small (parâmetro 7B) está disponível em dois comprimentos de contexto 128K e 8K, enquanto Phi-3-vision (parâmetro 4.2B) também foi otimizado para compreensão de gráficos e diagramas e pode ser usado para gerar insights e responder perguntas.
Estamos vendo uma ótima resposta da comunidade no Phi-3. Lançamos um atualização para Phi-3-mini mês passado que traz uma melhoria significativa na qualidade do núcleo e no acompanhamento de instruções. O modelo foi retreinado, levando a uma melhoria substancial no acompanhamento de instruções e suporte para saída estruturada. Também melhoramos a qualidade da conversação multi-turn, introduzimos suporte para prompts <|system|> e melhoramos significativamente a capacidade de raciocínio.
A tabela abaixo destaca melhorias no acompanhamento de instruções, na produção estruturada e no raciocínio.
Referências | Phi-3-mini-4k | Phi-3-mini-128k | ||
Lançamento de abril de 2024 | Atualização de junho de 2024 | Lançamento de abril de 2024 | Atualização de junho de 2024 | |
Instrução Additional Difícil | 5.7 | 6.0 | 5.7 | 5.9 |
Instrução Difícil | 4.9 | 5.1 | 5 | 5.2 |
Saída da estrutura JSON | 11,5 | 52,3 | 1.9 | 60.1 |
Saída da estrutura XML | 14.4 | 49,8 | 47,8 | 52,9 |
GPQA | 23,7 | 30,6 | 25,9 | 29,7 |
MLLU | 68,8 | 70,9 | 68,1 | 69,7 |
Média | 21,7 | 35,8 | 25,7 | 37,6 |
Continuamos a fazer melhorias na segurança do Phi-3 também. Um artigo de pesquisa recente destacou a abordagem iterativa “break-fix” da Microsoft para melhorar a segurança dos modelos Phi-3, que envolveu várias rodadas de testes e refinamento, pink teaming e identificação de vulnerabilidades. Este método reduziu significativamente o conteúdo prejudicial em 75% e melhorou o desempenho dos modelos em benchmarks de IA responsáveis.
Ampliando a escolha de modelos, agora com mais de 1600 modelos disponíveis no Azure AI
Com o Azure AI, estamos comprometidos em trazer a seleção mais abrangente de modelos abertos e de fronteira e ferramentas de última geração para ajudar a atender às necessidades exclusivas de custo, latência e design dos clientes. No ano passado, lançamos o catálogo de modelos do Azure AI, onde agora temos a mais ampla seleção de modelos com mais de 1.600 modelos de provedores, incluindo AI21, Cohere, Databricks, Hugging Face, Meta, Mistral, Microsoft Analysis, OpenAI, Snowflake, Stability AI e outros. Este mês, adicionamos — GPT-4o mini da OpenAI por meio do Azure OpenAI Service, Meta Llama 3.1 405B e Mistral Massive 2.
Dando continuidade ao momento atual, estamos animados em compartilhar que o Cohere Rerank agora está disponível no Azure. Acessar os modelos de linguagem prontos para empresas do Cohere na infraestrutura robusta do Azure AI permite que as empresas incorporem de forma integrada, confiável e segura a tecnologia de pesquisa semântica de ponta em seus aplicativos. Essa integração permite que os usuários aproveitem a flexibilidade e a escalabilidade do Azure, combinadas com os modelos de linguagem altamente eficientes e de alto desempenho do Cohere, para fornecer resultados de pesquisa superiores na produção.
O TD Financial institution Group, um dos maiores bancos da América do Norte, assinou recentemente um acordo com a Cohere para explorar seu conjunto completo de modelos de grandes linguagens (LLMs), incluindo o Cohere Rerank.
No TD, vimos o potencial transformador da IA para oferecer experiências mais personalizadas e intuitivas para nossos clientes, colegas e comunidades. Estamos animados em trabalhar junto com a Cohere para explorar como seus modelos de linguagem funcionam no Microsoft Azure para ajudar a dar suporte à nossa jornada de inovação no Banco.”
Kirsti Racine, vice-presidente, líder de tecnologia de IA, TD.
A Atomicwork, uma plataforma de experiência digital no native de trabalho e cliente de longa information do Azure, aprimorou significativamente sua plataforma de gerenciamento de serviços de TI com o Cohere Rerank. Ao integrar o modelo em seu assistente digital de IA, Atom AI, a Atomicwork melhorou a precisão e a relevância da pesquisa, fornecendo respostas mais rápidas e precisas a consultas complexas de suporte de TI. Essa integração simplificou as operações de TI e aumentou a produtividade em toda a empresa.
A força motriz por trás da solução de experiência de native de trabalho digital da Atomicwork é o modelo Rerank da Cohere e o Azure AI Studio, que capacita a Atom AI, nossa assistente digital, com a precisão e o desempenho necessários para entregar resultados do mundo actual. Essa colaboração estratégica ressalta nosso compromisso em fornecer às empresas recursos avançados, seguros e confiáveis de IA empresarial.”
Vijay Rayapati, CEO da Atomicwork
O Command R+, o principal modelo generativo da Cohere, que também está disponível no Azure AI, foi criado especificamente para funcionar bem com o Cohere Rerank em um sistema Retrieval Augmented Technology (RAG). Juntos, eles são capazes de atender a algumas das cargas de trabalho empresariais mais exigentes em produção.
No início desta semana, anunciamos que o Meta Llama 3.1 405B, juntamente com os modelos Llama 3.1 mais recentes e ajustados, incluindo 8B e 70B, agora estão disponíveis por meio de um ponto de extremidade sem servidor no Azure AI. O Llama 3.1 405B pode ser usado para geração e destilação avançadas de dados sintéticos, com o 405B-Instruct servindo como um modelo de professor e os modelos 8B-Instruct/70B-Instruct atuando como modelos de aluno. Saiba mais sobre este anúncio aqui.
O Mistral Massive 2 agora está disponível no Azure, tornando o Azure o primeiro provedor de nuvem líder a oferecer esse modelo de próxima geração. O Mistral Massive 2 supera versões anteriores em codificação, raciocínio e comportamento de agente, ficando no mesmo nível de outros modelos líderes. Além disso, o Mistral Nemo, desenvolvido em colaboração com a NVIDIA, traz um poderoso modelo 12B que expande os limites da compreensão e geração de linguagem. Saber mais.
E na semana passada, trouxemos o GPT-4o mini para o Azure AI juntamente com outras atualizações do Azure OpenAI Service, permitindo que os clientes expandam sua gama de aplicativos de IA a um custo e latência menores com opções aprimoradas de segurança e implantação de dados. Anunciaremos mais recursos para o GPT-4o mini nas próximas semanas. Também estamos felizes em apresentar um novo recurso para implantar chatbots criados com o Azure OpenAI Service no Microsoft Groups.
Habilitando a inovação da IA de forma segura e responsável
Construir soluções de IA de forma responsável está no cerne do desenvolvimento de IA na Microsoft. Temos um conjunto robusto de recursos para ajudar as organizações a medir, mitigar e gerenciar riscos de IA em todo o ciclo de vida de desenvolvimento de IA para aplicativos tradicionais de aprendizado de máquina e IA generativa. As avaliações de IA do Azure permitem que os desenvolvedores avaliem iterativamente a qualidade e a segurança de modelos e aplicativos usando métricas integradas e personalizadas para informar as mitigações. Adicional Segurança de conteúdo de IA do Azure recursos — incluindo escudos de immediate e detecção de materials protegido — agora estão “ativados por padrão” no Azure OpenAI Service. Esses recursos podem ser aproveitados como filtros de conteúdo com qualquer modelo de base incluído em nosso catálogo de modelos, incluindo Phi-3, Llama e Mistral. Os desenvolvedores também podem integrar esses recursos em seus aplicativos facilmente por meio de uma única API. Uma vez em produção, os desenvolvedores podem monitorar sua aplicação para qualidade e segurança, ataques rápidos adversários e integridade de dados, realizando intervenções oportunas com a ajuda de alertas em tempo actual.
Usos do Azure AI Scanner de modelo HiddenLayer para escanear modelos de terceiros e abertos em busca de ameaças emergentes, como vulnerabilidades de segurança cibernética, malware e outros sinais de adulteração, antes de integrá-los ao catálogo de modelos do Azure AI. As verificações resultantes do Mannequin Scanner, fornecidas em cada cartão de modelo, podem dar às equipes de desenvolvedores maior confiança à medida que selecionam, ajustam e implantam modelos abertos para seus aplicativos.
Continuamos investindo em toda a pilha de IA do Azure para levar inovação de ponta aos nossos clientes para que você possa criar, implantar e dimensionar suas soluções de IA com segurança e confiança. Mal podemos esperar para ver o que você criará em seguida.
Fique por dentro de mais notícias do Azure AI
- Assista isso vídeo para saber mais sobre o catálogo de modelos de IA do Azure.
- Ouça o podcast sobre Phi-3 com o pesquisador-chefe da Microsoft, Sebastien Bubeck.