Apresentando a Llama 4 da Meta na plataforma de inteligência de dados Databricks


Milhares de empresas já usam modelos de llama na plataforma de inteligência de dados Databricks para alimentar aplicativos, agentes e fluxos de trabalho. Hoje, estamos empolgados em fazer parceria com a Meta para trazer a você a última série de modelos –LLAMA 4– disponível hoje em muitos espaços de trabalho de Databricks e Rolando através da AWS, Azure e GCP.

O LLAMA 4 marca um grande salto em frente em IA multimodal aberta-distribuindo desempenho líder da indústria, maior qualidade, janelas de contexto maior e maior eficiência de custos da arquitetura da mistura de especialistas (MOE). Tudo isso é acessível através da mesma interfaces unificadas de API REST, SDK e SQL, facilitando o uso de todos os seus modelos em um ambiente seguro e totalmente governado.

Apresentando a Llama 4 da Meta na plataforma de inteligência de dados Databricks

LLAMA 4 é de maior qualidade, mais rápido e mais eficiente

Os modelos Llama 4 elevam a fasquia para os modelos de fundação aberta –fornecendo qualidade significativamente maior e inferência mais rápida em comparação com qualquer modelo de lhama anterior.

No lançamento, estamos apresentando Lhama 4 Mavericko maior e maior modelo de qualidade do lançamento de hoje da Meta. O Maverick é criado para os desenvolvedores que constroem produtos sofisticados de IA-combinando fluência multilíngue, entendimento preciso da imagem e comportamento seguro para assistente. Permite:

  • Agentes corporativos esse motivo e responda com segurança entre ferramentas e fluxos de trabalho
  • Documentar sistemas de compreensão que extraem dados estruturados de PDFs, varreduras e formulários
  • Agentes de suporte multilíngue que respondem com fluência cultural e respostas de alta qualidade
  • Assistentes criativos Para redação de histórias, cópia de advertising ou conteúdo personalizado

E agora você pode construir tudo isso com desempenho significativamente melhor. Comparado ao LLAMA 3.3 (70B), o Maverick entrega:

  • Maior qualidade de produção em benchmarks padrão
  • > 40% de inferência mais rápida, Graças à sua mistura de arquitetura de especialistas (MOE), que ativa apenas um subconjunto de pesos do modelo por token para computação mais inteligente e mais eficiente.
  • Home windows de contexto mais longo (suportará até 1 milhão de tokens)permitindo conversas mais longas, documentos maiores e contexto mais profundo.
  • Suporte para 12 idiomas (acima de 8 em lhama 3.3)

Em breve, o Databricks é o Llama 4 Scout-um modelo multimodal compacto e melhor da categoria que funde texto, imagem e vídeo desde o início. Com até 10 milhões de tokens de contexto, o Scout é construído para um raciocínio avançado de formato longo, resumo e entendimento visible.

“Com os bancos de dados, poderíamos automatizar tarefas manuais tediosas usando LLMs para processar um milhão de arquivos+ diariamente para extrair dados de transações e entidades dos registros de propriedades. Excedemos nossas metas de precisão ao ajustar a meta lhama e, usando o modelo de Mosaic AI, que escalamos essa operação maciçamente, sem a necessidade de gerenciar uma grande e cara FLET.

– Prabhu Narsina, VP Knowledge e AI, primeiro americano

Construir agentes de IA específicos para domínio com llama 4 e Mosaic AI

Conecte o LLAMA 4 aos seus dados corporativos

Conecte o LLAMA 4 aos seus dados corporativos usando ferramentas governadas pelo catálogo da Unity para criar agentes com reconhecimento de contexto. Recupere o conteúdo não estruturado, ligue para APIs externas ou execute a lógica personalizada em copilotes de energia, pipelines de raio e automação do fluxo de trabalho. A IA em mosaico facilita a iteração, avaliação e melhoria esses agentes com ferramentas de monitoramento e colaboração internas-do protótipo até a produção.

Execute a inferência escalável com seus pipelines de dados

Aplique o LLAMA 4 em escala – documentos de verão, classificando os ingressos de suporte ou analisando milhares de relatórios – sem precisar gerenciar qualquer infraestrutura. Inferência em lote é profundamente integrado aos fluxos de trabalho do Databricks, para que você possa usar o SQL ou o Python em seu pipeline existente para executar o LLMS como o LLAMA 4 diretamente em dados governados com o mínimo de sobrecarga.

Personalizar para precisão e alinhamento

Personalize o LLAMA 4 para melhor se ajustar ao seu caso de uso – seja resumo, comportamento assistente ou tom de marca. Use conjuntos de dados rotulados ou adaptar modelos usando técnicas como Otimização adaptativa no tempo de teste (TAO) Para uma iteração mais rápida sem a sobrecarga da anotação. Entre em contato com a equipe da conta do Databricks para obter acesso antecipado.

“Com os bancos de dados, conseguimos ajustar rapidamente e implantar modelos de lhama rapidamente para criar vários casos de uso de genai, como um simulador de conversa para treinamento de conselheiros e um classificador de fase para manter a qualidade da resposta. Essas inovações melhoraram nossas intervenções em tempo actual, ajudando-nos a dimensionar e fornecer um apoio à saúde psychological crítica para aqueles na crise” ”

– Matthew Vanderzee, CTO, linha de texto de crise

Governar o uso da IA ​​com a gateway de Mosaic AI

Garanta o uso seguro e compatível com o Gateway de AI em mosaico, que adiciona madeira de extração interno, limitação de taxa, detecção de PII e corrimões de políticas-para que as equipes possam escalar llama 4 com segurança como qualquer outro modelo em bancos de dados.

O que está por vir

Estamos lançando Llama 4 em fases, começando com Maverick no Azure, AWS e GCP. Em breve:

  • LLAMA 4 Scout-Perfect para raciocínio de longo contexto com até 10 milhões de tokens
  • Inferência em lote de escala mais alta – Execute trabalhos em lote hoje, com maior suporte de taxa de transferência em breve
  • Suporte multimodal – os recursos de visão nativa estão a caminho

À medida que expandimos o suporte, você poderá escolher o melhor modelo de lhama para sua carga de trabalho-seja contexto ultra-longo, trabalhos de alto rendimento ou entendimento unificado de texto e visão.

Put together -se para o LLAMA 4 no Databricks

O LLAMA 4 estará sendo lançado em seus espaços de trabalho de Databricks nos próximos dias.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *