Meta libera Llama 4, uma nova safra de modelos de IA da principal


Meta tem lançou uma nova coleção de modelos de IALlama 4, em sua família Llama – em um sábado, nada menos.

Existem quatro novos modelos no complete: Llama 4 Scout, Llama 4 Maverick e Llama 4 Behemoth. Todos foram treinados em “grandes quantidades de dados, imagem e vídeo não marcados” para dar a eles “amplo entendimento visible”, diz Meta.

O sucesso de modelos abertos do laboratório de IA chinês Deepseekque se apresenta no par ou melhor do que os principais modelos de lhama da Meta, supostamente chutou o desenvolvimento de Llama em overdrive. Diz -se que a meta tem salas de guerra embaralhadas para decifrar como o DeepSeek reduziu o custo de executar e implantar modelos como R1 e V3.

Scout e Maverick estão disponíveis abertamente Llama.com E dos parceiros da Meta, incluindo a plataforma de dev, abravando o rosto, enquanto Behemoth ainda está em treinamento. A Meta diz que a Meta AI, seu assistente de IA em aplicativos, incluindo WhatsApp, Messenger e Instagram, foi atualizado para usar o LLAMA 4 em 40 países. Os recursos multimodais são limitados aos EUA em inglês por enquanto.

Alguns desenvolvedores podem discordar da licença LLAMA 4.

Usuários e empresas “domiciliados” ou com um “principal native de negócios” na UE são proibido de usar ou distribuir os modelosprovavelmente o resultado dos requisitos de governança impostos pelas leis de privacidade de IA e dados da região. (No passado, Meta tem criticou essas leis como excessivamente oneroso.) Além disso, como nos lançamentos anteriores de llama, empresas com mais de 700 milhões de usuários ativos mensais devem solicitar uma licença especial da Meta, que a Meta pode conceder ou negar a seu exclusivo critério.

“Esses modelos Llama 4 marcam o início de uma nova period para o ecossistema de llama”, Meta escreveu em uma postagem no weblog. “Este é apenas o começo da coleção Llama 4”.

Meta libera Llama 4, uma nova safra de modelos de IA da principal
Créditos da imagem:Meta

A Meta diz que o LLAMA 4 é sua primeira coorte de modelos a usar uma mistura de arquitetura de especialistas (MOE), que é mais eficiente em termos computacionalmente para treinamento e resposta a perguntas. As arquiteturas MOE basicamente dividem as tarefas de processamento de dados em subtarefas e depois as delegam a modelos menores e especializados de “especialistas”.

Maverick, por exemplo, tem 400 bilhões de parâmetros totais, mas apenas 17 bilhões ativo Parâmetros em 128 “especialistas”. (Os parâmetros correspondem aproximadamente às habilidades de solução de problemas de um modelo.) O escoteiro possui 17 bilhões de parâmetros ativos, 16 especialistas e 109 bilhões de parâmetros totais.

De acordo com os testes internos da Meta, Maverick, que a empresa diz ser melhor para casos de uso de “assistente geral e bate -papo”, como a escrita criativa, excede modelos como o OpenAI’s GPT-4O e Google’s Gemini 2.0 Em certas codificações, raciocínio, multilíngues, de longo prazo e benchmarks de imagem. No entanto, o Maverick não compara a modelos recentes mais capazes como o Google’s Gemini 2.5 ProfessionalAntrópico Claude 3,7 sonetoe o Openai’s GPT-4.5.

Os pontos fortes de Scout estão em tarefas como resumo de documentos e raciocínio em grandes bases de código. Exclusivamente, tem uma janela de contexto muito grande: 10 milhões de tokens. (“Tokens” representam pedaços de texto bruto – por exemplo, a palavra “fantástica” dividida em “fã”, “tas” e “tic”.) Em inglês simples, os escoteiros podem receber imagens e até milhões de palavras, permitindo que ele processe e trabalhe com documentos extremamente longos.

O Scout pode ser executado em uma única GPU NVIDIA H100, enquanto o Maverick requer um sistema DGX NVIDIA H100 ou equivalente, de acordo com os cálculos da Meta.

O gigante não lançado da Meta precisará de um {hardware} mais robusto. Segundo a empresa, Behemoth possui 288 bilhões de parâmetros ativos, 16 especialistas e quase dois trilhões de parâmetros totais. O benchmarking interno da Meta tem o melhor desempenho do GPT-4.5, Claude 3,7 sonetos e Gemini 2.0 Professional (mas não 2.5 Professional) em várias avaliações que medem habilidades STEM, como a solução de problemas de matemática.

De notar, nenhum dos modelos LLama 4 é um modelo de “raciocínio” adequado ao longo das linhas de OpenAI’s O1 e O3-mini. Modelos de raciocínio Verifique suas respostas e geralmente responde a perguntas de maneira mais confiável, mas, como conseqüência, demoram mais do que os modelos tradicionais e “não raciocinadores” para fornecer respostas.

Meta llama 4
Créditos da imagem:Meta

Curiosamente, a Meta diz que sintonizou todos os seus modelos LLAMA 4 para se recusar a responder a perguntas “controversas” com menos frequência. Segundo a empresa, o LLama 4 responde aos tópicos políticos e sociais “debatidos” que a safra anterior de modelos de lhama não o faria. Além disso, diz a empresa, o LLAMA 4 é “dramaticamente mais equilibrado” com o qual o solicita não se divertir.

“(Y) a OU pode contar com (Lllama 4) para fornecer respostas factuais e úteis sem julgamento”, disse um porta -voz da TechCrunch. “(W) continuando a tornar a lhama mais receptiva para que responda mais perguntas, possa responder a uma variedade de pontos de vista diferentes (…) e não favorecem algumas opiniões sobre outras.”

Esses ajustes vêm quando alguns aliados da Casa Branca acusam a IA Chatbots de serem politicamente muito “acordaram”.

Muitos dos confidentes íntimos do presidente Donald Trump, incluindo o bilionário Elon Musk e a Crypto e a AI “Czar” David Sacks, alegaram que a preferred AI Chatbots Visões conservadoras censuradas. Sacks tem historicamente destacado O Chatgpt da OpenAI como “programado para ser acordado” e mentira sobre o assunto político.

Na realidade, o viés na IA é um problema técnico intratável. A própria empresa de IA de Musk, Xai, tem lutou Para criar um chatbot que não endossa algumas opiniões políticas sobre outras.

Isso não impediu empresas, incluindo o OpenAi de ajuste Seus modelos de IA para responder a mais perguntas do que teriam anteriormente, em questões particulares relacionadas a assuntos controversos.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *