Atualmente, a família de modelos da Meta Llama está atualmente governando o mundo sempre avançado da IA. Esses modelos estão revolucionando como construímos sistemas inteligentes com seus recursos multimodais nativos. Quando LLAMA 4 Combina com o Autogen, desbloqueia todo o potencial de construção de agentes dinâmicos, responsivos e robustos. Aproveitando a integração entre Llama 4 e Autogênicoos desenvolvedores podem criar agentes inovadores de IA que podem raciocinar, colaborar e se adaptar com eficiência. Neste artigo, aprenderemos a construir agentes de IA com LLAMA 4 e Autogen para aplicações específicas.
Por que devemos considerar usar o LLAMA 4?
A família modelo LLAMA 4, incluindo variantes de escoteiros e Maverick, representa um salto significativo para a frente na tecnologia de IA de código aberto. Esses modelos oferecem várias vantagens importantes:
- Inteligência multimodal: O LLAMA 4 apresenta recursos multimodais nativos que integram diferentes tipos de entrada em uma arquitetura unificada. Isso permite um raciocínio mais sofisticado em diferentes tipos de mídia.
- Grande duração do contexto: Ele suporta até 10 milhões de tokens, expandindo LLAMA 3Limite de 128k de 128k. Permite lidar com contextos excepcionalmente longos. Isso possibilita aplicativos avançados, como análise abrangente de vários documentos, personalização extensa com base no histórico do usuário e navegação de grandes bases de código.
- Desempenho eficiente: A LLAMA 4 emprega uma mistura de arquitetura especializada que ativa apenas partes específicas do modelo para cada token processado. Essa abordagem torna os modelos altamente eficientes. O Llama 4 Maverick, por exemplo, usa apenas 17 bilhões de 400 bilhões de parâmetros durante a operação. Isso permite que ele seja executado em um único host H100 DGX.
- Desempenho e recursos superiores: Os testes de referência mostram o lhama 4 Maverick superando modelos comparáveis como GPT-4O e Gemini 2.0 entre codificação, raciocínio, recursos multilíngues e entendimento da imagem.
- Código aberto e acessível: Meta está disponibilizando modelos para obtain. Isso incentiva a inovação aberta, permitindo que os desenvolvedores personalizem e implantem a tecnologia em diversos aplicativos e plataformas.
Leia também: Deepseek V3 vs. Llama 4: Escolhendo o modelo de IA certo para você
Efficiency de benchmark llama 4
Para entender o quão bom é esse modelo, aqui está uma comparação do LLAMA 4 com outros modelos de topo em vários benchmarks padrão.


Leia também: LLAMA 4 vs. GPT-4O: O que é melhor para trapos?
Construindo um agente de IA usando LLAMA 4
Nesta seção, vou orientá-lo no processo de construção de agentes específicos de tarefas usando o LLAMA 4 e o Autogen. Criaremos um sistema multi-agente que analisa os requisitos do cliente para um trabalho, encontre freelancers para o trabalho específico com base em sua experiência e detalhes e, em seguida, gera propostas de trabalho personalizadas para o usuário enviar. Então, vamos começar.
Leia também: Guia prático para criar chatbots com vários agentes com Autogen
Etapa 0: Configurando o ambiente
Antes de construir o agente, primeiro cobriremos os pré -requisitos necessários e configuraremos o meio ambiente.
Pré -requisitos
Acessando a API
Usaremos a API juntas aqui para acessar o modelo LLAMA 4. Crie uma conta em AI juntos e visite esta página para criar sua chave secreta: https://api.collectively.xyz/

Etapa 1: Configurando bibliotecas e ferramentas para orientar os agentes da IA
Primeiro, importaremos todas as bibliotecas e ferramentas necessárias que precisaremos aqui.
import os
import autogen
from IPython.show import show, Markdown
Etapa 2: chamando a API
Para usar o LLAMA 4, temos que carregar a API juntos. O bloco de código abaixo nos ajudará a carregar as APIs e configurá -las para o meio ambiente.
with open("together_ai_api.txt") as file:
LLAMA_API_KEY = file.learn().strip()
os.environ("LLAMA_API_KEY") = LLAMA_API_KEY
Etapa 3: Criando agentes e definir tarefas
Agora, vamos criar os agentes necessários e definir suas tarefas, ou seja, o que eles farão.
1. Agente de entrada do cliente
O agente de entrada do cliente atua como a interface principal entre o usuário humano e o sistema de agentes. Ele coleta detalhes do projeto, como requisitos do cliente, linha do tempo e orçamento do usuário, e os passa para o arquiteto do escopo. Ele também transmite perguntas e respostas de acompanhamento e sinaliza o término quando a proposta ultimate é aceita.
Saída esperada:
- Transmissão clara da descrição do projeto do usuário e perfil freelancer (habilidades, experiência, estimativa de tempo).
- Termina a sessão assim que uma proposta satisfatória for entregue, ou o usuário encerrará explicitamente.
# Agent 1: Handles Human Enter for Shopper Necessities
client_agent = autogen.UserProxyAgent(
title="Client_Input_Agent",
human_input_mode="ALWAYS", # asks the human for enter
max_consecutive_auto_reply=1, # Solely reply as soon as
is_termination_msg=lambda x: x.get("content material", "").rstrip().endswith("TERMINATE"),
system_message="""You're the main level of contact for the person.
Your first activity is to offer the preliminary undertaking particulars obtained from the human person (shopper necessities, product particulars, timeline, finances) to the group chat.
After the Scope Architect asks questions, relay the human person's solutions about their expertise, expertise, instruments, and time estimate again to the chat.
Reply TERMINATE when the ultimate proposal is generated and passable, or if the person needs to cease. In any other case, relay the person's enter.
""",
)
2. Agente de arquiteto de escopo
O agente do arquiteto de escopo é responsável pelos detalhes do projeto inicial do agente de entrada do cliente. Depois disso, faz perguntas específicas para reunir as habilidades, ferramentas, experiência anterior do projeto e tempo estimado para concluir o trabalho. Ele não prossegue para a própria geração da proposta, mas garante que todo o contexto necessário seja coletado antes de entregá -lo ao próximo agente.
Saída esperada:
- Resumo bem estruturado combinando as necessidades do projeto do cliente e as capacidades do freelancer.
- Aciona o agente recomendador de taxa depois que todos os dados necessários forem coletados e resumidos.
# Agent 2: Gathers Person's Profile and Estimates
scope_architect_agent = autogen.AssistantAgent(
title="Scope_Architect",
llm_config=llm_config,
human_input_mode="ALWAYS",
max_consecutive_auto_reply=1, # Solely reply as soon as
is_termination_msg=lambda x: x.get("content material", "").rstrip().endswith("TERMINATE"),
system_message="""You're a Scope Architect. Your position is to grasp the undertaking necessities supplied initially after which collect essential particulars *from the Client_Input_Agent (representing the person/freelancer)*.
1. Anticipate the preliminary undertaking particulars from Client_Input_Agent.
2. After you have the undertaking particulars, formulate clear questions for the Client_Input_Agent to ask the human person about their:
- Related previous work/initiatives and collaborations.
- Key expertise and instruments relevant to this undertaking.
- Their estimated time to finish the outlined work.
3. Do NOT proceed to proposal era. Anticipate the Client_Input_Agent to offer the person's solutions.
4. After you have each the shopper necessities AND the person's particulars (expertise, expertise, time estimate), summarize this data clearly for the Fee Recommender. Sign that you've all essential information.
""",
)
3.
O agente recomendador de taxa usa as informações coletadas para gerar uma proposta detalhada do projeto. Ele aguarda o resumo completo do arquiteto do escopo. Em seguida, analisa os detalhes do escopo do projeto e do freelancer para gerar um documento de proposta profissional. Isso inclui uma introdução personalizada, uma linha do tempo, várias camadas de preços e uma chamada à ação.
Saída esperada:
- Documento de proposta de projeto formatado profissionalmente com escopo, preços e próximas etapas.
- A saída ultimate está pronta para ser entregue ao cliente para aprovação ou discussão adicional.
rate_recommender_agent = autogen.AssistantAgent(
title="Rate_Recommender",
llm_config=llm_config,
max_consecutive_auto_reply=1, # Solely reply as soon as
system_message=f"""
You're a Proposal Generator and Fee Recommender. Your activity is to create a structured undertaking proposal.
Wait till the Scope_Architect shares a abstract containing BOTH the shopper's undertaking necessities AND the person's profile (expertise, expertise, time estimate, previous work if obtainable).
Analyze all obtained knowledge: shopper wants, person experience, estimated time, and any prior price insights.
Generate a well-structured proposal addressed to the shopper, together with the next sections:
Customized Introduction: Professionally introduce the person's companies and reference the shopper's firm and undertaking.
Undertaking Scope & Timeline: Clearly define the deliverables with estimated timelines primarily based on person enter.
Advised Pricing Tiers: Present 1–3 pricing choices (hourly, fastened payment, retainer) with justifications primarily based on scope, person expertise, or complexity.
Subsequent Steps (CTA): Advocate scheduling a quick kickoff name to finalize and make clear particulars.
Current ONLY the ultimate formatted proposal. Don't embrace further commentary until clarification is requested.""",)
4. Agente de proxy do usuário
Esse agente atua como um ponto de entrada ou ajudante para iniciar a interação. Embora não desempenhe um papel central nesse fluxo (com base no código fornecido), ele pode ser usado para iniciar ou ajudar nas tarefas voltadas para o usuário.
user_proxy = autogen.UserProxyAgent(
title="user_proxy",
max_consecutive_auto_reply=1,
# is_termination_msg=lambda x: x.get("content material", "").rstrip().endswith("TERMINATE"),
llm_config=llm_config,
system_message="""you might be an useful assistant and initate the dialog"""
)
Etapa 4: Criando o gerente do grupo
Esta etapa configura o coordenador central que gerencia a comunicação e o trabalho em equipe entre todos os agentes especializados.
1. Configurando o bate -papo em grupo
O bate -papo em grupo estabelece um ambiente de conversa estruturado para três agentes especializados. Estes são o agente do cliente, o agente do arquiteto do escopo e o agente de recomendação de taxa. Ele gerencia o fluxo de conversas através de limites redondos e seleção de alto -falantes ordenados.
Pontos -chave:
- Abriga três agentes especializados que trabalham para a criação de propostas
- Quatro rodadas máximas para manter o foco
- O padrão de fala “Round_robin” garante a participação ordenada
- Cria um ambiente controlado para obter informações
# --- Group Chat Setup ---
groupchat = autogen.GroupChat(
brokers=(client_agent, scope_architect_agent, rate_recommender_agent),
messages=(),
max_round=4,
speaker_selection_method="round_robin",
)
2. Criando o gerente de bate -papo em grupo
O gerente de bate -papo em grupo orquestra toda a conversa, orientando as interações através de uma progressão lógica dos detalhes do projeto para a geração de propostas. Sua mensagem do sistema fornece instruções passo a passo para interações do agente e outline condições claras de terminação.
Pontos -chave:
- Direciona o fluxo de conversas entre todos os agentes
- Hyperlinks para o objeto de bate -papo em grupo
- Mantém a configuração consistente do LLM
- Contém instruções detalhadas do processo
- Termina após a conclusão da proposta ou com o comando de rescisão
supervisor = autogen.GroupChatManager(
groupchat=groupchat,
llm_config=llm_config,
# System message for the supervisor guiding the general circulation
system_message="""Handle the dialog circulation between the brokers.
1. Begin with the Client_Input_Agent offering undertaking particulars.
2. Make sure the Scope_Architect asks the required questions in regards to the person's background.
3. Make sure the Client_Input_Agent relays the person's solutions.
4. Make sure the Rate_Recommender waits for all information earlier than producing the ultimate proposal within the specified format.
The dialog finishes when the ultimate proposal is generated or the Client_Input_Agent says TERMINATE."""
)
Etapa 5: Iniciando o bate -papo
Agora que temos os agentes em vigor, vamos iniciar o fluxo de trabalho colaborativo entre os agentes. Para isso, enviaremos um immediate de instruções claras para o GroupChatManager do agente user_proxy.
Pontos -chave:
- Desencadeia a conversa usando user_proxy.iniciate_chat (), que inicia o bate -papo em grupo e envia a mensagem para o GroupChatManager.
- Delegados controle do gerente, que segue o fluxo passo a passo usando o método Spherical-Robin e suas instruções de mensagem interna do sistema para coordenar os agentes.
# --- Provoke Chat ---
print("Beginning the proposal era course of...")
print("Please present the preliminary shopper and undertaking particulars when prompted.")
initial_prompt_message = """
Begin the method. First, I would like the shopper/undertaking particulars from the person (by way of Client_Input_Agent).
Then, Scope_Architect ought to ask the person (by way of Client_Input_Agent) about their background.
Lastly, Rate_Recommender ought to generate the proposal.
"""
user_proxy.initiate_chat(
supervisor,
message=initial_prompt_message
)
Etapa 6: formatando a saída
Este código nos ajudará a apresentar a saída em um formato de marcação (.md).
chat_history = supervisor.chat_messages(client_agent) # Or doubtlessly simply supervisor.chat_messages if construction differs barely
# Discover the final message from the Rate_Recommender agent
final_proposal_message = None
for msg in reversed(chat_history):
if msg.get("position") == "assistant" and msg.get("title") == rate_recommender_agent.title:
if "Customized Introduction:" in msg.get("content material", ""):
final_proposal_message = msg
break
if final_proposal_message:
final_proposal_string = final_proposal_message.get("content material", "Proposal content material not discovered.")
attempt:
show(Markdown(final_proposal_string))
besides NameError:
print("n(Displaying uncooked Markdown textual content as wealthy output is unavailable)n")
print(final_proposal_string)
else:
print("nCould not routinely extract the ultimate proposal from the chat historical past.")
print("You could have to evaluation the total chat historical past above.")
Saída de amostra


Conclusão
Neste artigo, construímos um agente da proposta de projeto usando o LLAMA 4 e o Autogen. O agente reuniu efetivamente os requisitos do cliente, estruturou a proposta e entregou um documento profissional com preços claros e quebras da linha do tempo. A Autogen lidou com o fluxo de conversas, enquanto o Llama 4 garantiu respostas naturais e com reconhecimento de contexto por toda parte. Essa colaboração simplificou a comunicação do cliente, oferecendo uma solução simplificada para freelancers e consultores automatizar a geração de propostas com uma entrada handbook mínima.
O LLAMA 4 aprimorou o desempenho do agente com suas instruções aprimoradas a seguir, melhor retenção de contexto e aprendizado eficiente de poucos tiros. Sua capacidade de manter a coerência em diálogos de várias turnos tornou o processo de geração de propostas mais inteligente e receptiva. Além disso, a rápida inferência e baixo custo do modelo o tornaram adequado para aplicações em tempo actual. Juntos, o LLAMA 4 e o Autogen permitem poderosos fluxos de trabalho de agentes que aumentam a produtividade e o profissionalismo nas tarefas voltadas para o cliente.
Perguntas frequentes
A. LLAMA 4 é um modelo de linguagem de ponta conhecido por sua eficiência, precisão e forte desempenho no raciocínio e na geração de diálogo de várias turnos.
R. Autogen é uma estrutura que simplifica a construção de fluxos de trabalho com vários agentes. Ele gerencia interações e coordenação de tarefas entre diferentes agentes de IA.
A. Sim, a arquitetura é modular. Você pode adaptá-lo para domínios como assistência médica, comércio eletrônico, finanças ou desenvolvimento de software program.
A. absolutamente. O LLAMA 4 oferece respostas de baixa latência e pode lidar com instruções complexas, tornando-o ótimo para aplicativos interativos ou em tempo actual.
A. não necessariamente. Com o conhecimento básico do Python e o entendimento do LLMS, você pode configurar e executar fluxos de trabalho de agentes semelhantes.
Faça login para continuar lendo e desfrutar de conteúdo com curado especialista.