Estamos empolgados em compartilhar os primeiros modelos no rebanho Llama 4 estão disponíveis hoje no Azure AI Foundry e no Azure Databricks.
Estamos empolgados em compartilhar os primeiros modelos no rebanho de 4 lhama 4 estão disponíveis hoje em Azure AI Foundry e Azure Databrickso que permite que as pessoas construam experiências multimodais mais personalizadas. Esses modelos da Meta são projetados para integrar perfeitamente os tokens de texto e visão em um spine de modelo unificado. Essa abordagem inovadora permite que os desenvolvedores aproveitem os modelos LLAMA 4 em aplicativos que exigem grandes quantidades de dados, imagem e vídeo não marcados, definindo um novo precedente no desenvolvimento da IA.
Hoje, estamos trazendo modelos Scout 4 Scout e Maverick da Meta Llama para o Azure AI como ofertas de computação gerenciada:
- Modelos de Escoteiros de Lhama 4
- LLAMA-4-SCOUT-17B-16E
- LLAMA-4-SCOUT-17B-16E-INSTRUTA
- LLAMA 4 MODELOS MAVERICOS
- LLAMA 4-MAVERICK-17B-128E-INSTRUCT-FP8
A Azure AI Foundry foi projetada para casos de uso multi-agente, permitindo a colaboração perfeita entre diferentes agentes de IA. Isso abre novas fronteiras em aplicativos de IA, da solução complexa de problemas a gerenciamento dinâmico de tarefas. Think about uma equipe de agentes de IA trabalhando juntos para analisar vastos conjuntos de dados, gerar conteúdo criativo e fornecer informações em tempo actual em vários domínios. As possibilidades são infinitas.

Para acomodar uma variedade de casos de uso e necessidades de desenvolvedores, os modelos LLAMA 4 vêm em opções menores e maiores. Esses modelos integram mitigações em todas as camadas de desenvolvimento, do pré-treinamento a pós-treinamento. As mitigações no nível do sistema ajustáveis protegem os desenvolvedores de usuários adversários, capacitando-os a criar experiências úteis, seguras e adaptáveis para suas aplicações apoiadas pelo LLAMA.
Modelos de escoteiros LLAMA 4: Poder e precisão
Estamos compartilhando os primeiros modelos no rebanho Llama 4, o que permitirá que as pessoas construam experiências multimodais mais personalizadas. De acordo com a Meta, o Llama 4 Scout é um dos melhores modelos multimodais em sua classe e é mais poderoso que os modelos Llama 3 da Meta, enquanto se encaixa em uma única GPU H100. E o escoteiro llama4 aumenta o comprimento do contexto suportado de 128k em llama 3 para 10 milhões de tokens líderes do setor. Isso abre um mundo de possibilidades, incluindo resumo de vários documentos, analisando extensa atividade do usuário para tarefas personalizadas e raciocínio sobre vastas bases de código.
Os casos de uso direcionados incluem resumo, personalização e raciocínio. Graças ao seu longo contexto e tamanho eficiente, o Llama 4 Scout brilha em tarefas que exigem condensação ou análise de informações extensas. Ele pode gerar resumos ou relatórios de insumos extremamente longos, personalizar suas respostas usando dados detalhados específicos do usuário (sem esquecer os detalhes anteriores) e executar um raciocínio complexo em grandes conjuntos de conhecimento.
Por exemplo, o Scout pode analisar todos os documentos em uma biblioteca do SharePoint da empresa para responder a uma consulta específica ou ler um handbook técnico de milhares de milhares de páginas para fornecer conselhos de solução de problemas. Ele foi projetado para ser um “escoteiro” diligente que atravessa vastas informações e retorna os destaques ou respostas necessárias.
LLAMA 4 MODELOS MAVERICOS: Inovação em escala
Como LLM de uso geral, o LLAMA 4 Maverick contém 17 bilhões de parâmetros ativos, 128 especialistas e 400 bilhões de parâmetros totais, oferecendo alta qualidade a um preço mais baixo em comparação com a llama 3,3 70b. O Maverick se destaca no entendimento de imagem e texto com suporte para 12 idiomas, permitindo a criação de aplicativos sofisticados de IA que preenchem as barreiras do idioma. O Maverick é perfect para compreensão precisa da imagem e escrita criativa, tornando-a adequada para os casos de assistente geral e de uso de bate-papo. Para os desenvolvedores, oferece inteligência de ponta com alta velocidade, otimizada para obter a melhor qualidade e tom de resposta.
Os casos de uso direcionados incluem cenários de bate-papo otimizados que requerem respostas de alta qualidade. META FINED LLAMA 4 MAVERICK para ser um excelente agente de conversação. É o modelo de bate-papo principal da família Meta Llama 4-pense em ele como a contraparte multilíngue multilíngue para um assistente do tipo ChatGPT.
É particularmente adequado para aplicativos interativos:
- Bots de suporte ao cliente que precisam entender as imagens que os usuários fazem do add.
- Parceiros criativos da IA que podem discutir e gerar conteúdo em vários idiomas.
- Assistentes internos de empresas que podem ajudar os funcionários respondendo a perguntas e lidando com a contribuição da mídia rica.
Com o Maverick, as empresas podem criar assistentes de IA de alta qualidade que conversam naturalmente (e educadamente) com uma base world de usuários e alavancam o contexto visible quando necessário.

Inovações arquitetônicas em llama 4: multimodal precoce e moe
De acordo com a Meta, duas inovações principais separaram o LLAMA 4: suporte multimodal nativo com fusão precoce e uma mistura esparsa de especialistas (MOE) para eficiência e escala.
- Transformador multimodal precoce: O LLAMA 4 usa uma abordagem de fusão inicial, tratar o texto, imagens e quadros de vídeo como uma única sequência de tokens desde o início. Isso permite que o modelo compreenda e gerar vários meios juntos. Ele se destaca em tarefas que envolvem várias modalidades, como analisar documentos com diagramas ou responder a perguntas sobre a transcrição e o visible de um vídeo. Para as empresas, isso permite que os assistentes de IA processem relatórios completos (texto + gráficos + trechos de vídeo) e forneçam resumos ou respostas integradas.
- Mistura de ponta de arquitetura de especialistas (MOE): Para alcançar um bom desempenho sem incorrer em despesas de computação proibitiva, o LLAMA 4 utiliza uma mistura escassa da arquitetura de especialistas (MOE). Essencialmente, isso significa que o modelo compreende inúmeros submodelos especializados, referidos como “especialistas”, com apenas um pequeno subconjunto ativo para qualquer token de entrada. Esse design não apenas melhora a eficiência do treinamento, mas também melhora a escalabilidade da inferência. Consequentemente, o modelo pode lidar com mais consultas simultaneamente, distribuindo a carga computacional em vários especialistas, permitindo a implantação em ambientes de produção sem necessidade de grandes GPUs de instância única. A arquitetura MOE permite que o LLAMA 4 expanda sua capacidade sem aumentar os custos, oferecendo uma vantagem significativa para as implementações corporativas.
Compromisso com a segurança e as melhores práticas
Meta construído lhama 4 com as melhores práticas descritas em seus Guia de uso do desenvolvedor: proteções de IA. Isso inclui a integração de mitigações em cada camada de desenvolvimento de modelos, do pré-treinamento a mitigações no nível do sistema pós-treinamento e ajustáveis que protegem os desenvolvedores de ataques adversários. E, ao disponibilizar esses modelos na Azure AI Foundry, eles vêm com os desenvolvedores de segurança de segurança e segurança comprovados que os desenvolvedores esperam do Azure.
Capacitamos os desenvolvedores a criar experiências úteis, seguras e adaptáveis para suas aplicações apoiadas pela LLAMA. Discover os modelos Llama 4 agora no Catálogo do modelo de fundição do Azure AI e em Azure Databricks E comece a construir com o mais recente IA multimodal e moe-apoiado pela pesquisa da Meta e pela força da plataforma do Azure.
A disponibilidade de meta llama 4 em Azure AI Foundry e através Azure Databricks Oferece aos clientes flexibilidade incomparável na escolha da plataforma que melhor atenda às suas necessidades. Essa integração perfeita permite que os usuários aproveitem os recursos avançados de IA, aprimorando seus aplicativos com soluções poderosas, seguras e adaptáveis. Estamos empolgados em ver o que você constrói a seguir.