Hoje estamos adicionando Modelos Qwen de Alibaba in Amazon Bedrock. Com este lançamento, a Amazon Bedrock continua a Expanda a escolha do modelo Adicionando acesso ao QWEN3 Open Weight Modelos de fundação (FMS) de uma maneira completa gerenciada e sem servidor. Esta versão inclui quatro modelos: QWEN3-CODER-480B-A35B-INSTRUTAAssim, QWEN3-CODER-30B-A3B-INSTRUTAAssim, QWEN3-235B-A22B-INSTRUCT-2507e QWEN3-32B (denso). Juntos, esses modelos apresentam mixagem de especialistas (MOE) e arquiteturas densas, fornecendo opções flexíveis para diferentes requisitos de aplicativos.
A Amazon Bedrock fornece acesso a FMs líderes do setor por meio de uma API unificada sem a necessidade de gerenciamento de infraestrutura. Você pode acessar modelos de vários provedores de modelos, integrar modelos em seus aplicativos e dimensionar o uso com base nos requisitos de carga de trabalho. Com a Amazon Bedrock, os dados do cliente nunca são usados para treinar os modelos subjacentes. Com a adição de modelos QWEN3, a Amazon Bedrock oferece ainda mais opções para casos de uso como:
- Geração de código e análise de repositório com compreensão do contexto estendido
- Construindo fluxos de trabalho agênticos que orquestram várias ferramentas e APIs para automação de negócios
- Equilibrando custos e desempenho da IA usando modos de pensamento híbrido para raciocínio adaptativo
Modelos QWEN3 na Amazon Bedrock
Esses quatro modelos QWEN3 já estão disponíveis no Amazon Bedrock, cada um otimizado para diferentes requisitos de desempenho e custo:
- QWEN3-CODER-480B-A35B-INSTRUTA -Este é um modelo de mistura de especialistas (MOE) com 480B parâmetros totais e parâmetros ativos de 35b. Ele é otimizado para tarefas de codificação e agitação e atinge fortes resultados em benchmarks, como codificação agêntica, uso do navegador e uso de ferramentas. Esses recursos o tornam adequado para análise de código em escala de repositório e automação de fluxo de trabalho em várias etapas.
- QWEN3-CODER-30B-A3B-INSTRUTA – Este é um modelo MOE com parâmetros totais de 30b e parâmetros ativos 3B. Especificamente otimizado para tarefas de codificação e cenários de seguidores de instruções, este modelo demonstra um forte desempenho na geração, análise e depuração de códigos em várias linguagens de programação.
- QWEN3-235B-A22B-INSTRUCT-2507 -Este é um modelo MOE ajustado por instrução com parâmetros totais de 235b e 22b parâmetros ativos. Ele oferece desempenho competitivo nas tarefas de codificação, matemática e raciocínio geral, equilibrando a capacidade de eficiência.
- QWEN3-32B (denso) – Este é um modelo denso com 32b parâmetros. É adequado para ambientes em tempo actual ou com restrições de recursos, como dispositivos móveis e implantações de computação de borda, onde o desempenho consistente é crítico.
Recursos arquitetônicos e funcionais em Qwen3
Os modelos QWEN3 introduzem vários recursos arquitetônicos e funcionais:
Moe comparado com arquiteturas densas – Modelos MOE como QWEN3-Coder-480B-A35B, QWEN3-CODER-30B-A3B-Instrut e QWEN3-235B-A22B-Instrut-2507, ativam apenas parte dos parâmetros para cada solicitação, fornecendo alto desempenho com inferência eficiente. O denso QWEN3-32B ativa todos os parâmetros, oferecendo desempenho mais consistente e previsível.
Capacidades agênticas – Os modelos QWEN3 podem lidar com o raciocínio em várias etapas e o planejamento estruturado em uma invocação de modelo. Eles podem gerar saídas que chamam ferramentas externas ou APIs quando integradas em uma estrutura de agente. Os modelos também mantêm o contexto estendido em sessões longas. Além disso, eles suportam a chamada de ferramentas para permitir uma comunicação padronizada com ambientes externos.
Modos de pensamento híbrido – A QWEN3 apresenta uma abordagem híbrida para a solução de problemas, que suporta dois modos: pensamento e não pensamento. O modo de pensamento aplica o raciocínio passo a passo antes de fornecer a resposta ultimate. Isso é splendid para problemas complexos que exigem pensamento mais profundo. Enquanto o modo de não pensar fornece respostas rápidas e próximas a tarefas menos complexas, onde a velocidade é mais importante que a profundidade. Isso ajuda os desenvolvedores a gerenciar o desempenho e os trocas de custos com mais eficiência.
Manuseio de longo prazo- Os modelos QWEN3-Coder suportam janelas de contexto estendidas, com até 256 mil tokens nativamente e até 1 milhão de tokens com métodos de extrapolação. Isso permite que o modelo processe repositórios inteiros, documentos técnicos grandes ou histórias de conversação longas em uma única tarefa.
Quando usar cada modelo
Os quatro modelos QWEN3 servem casos de uso distintos. O QWEN3-Coder-480B-A35B-Instruct foi projetado para cenários complexos de engenharia de software program. É adequado para geração avançada de código, processamento de longo contexto, como análise no nível do repositório e integração com ferramentas externas. A instrução QWEN3-CODER-30B-A3B é particularmente eficaz para tarefas como conclusão de código, refatoração e resposta às consultas relacionadas à programação. Se você precisar de desempenho versátil em vários domínios, o QWEN3-235B-A22B-Instruct-2507 oferece um equilíbrio, oferecendo fortes recursos de raciocínio e seguinte a seguir, alavancando as vantagens de eficiência de sua arquitetura MOE. O QWEN3-32B (denso) é apropriado para cenários em que o desempenho consistente, a baixa latência e a otimização de custos são importantes.
Introdução aos modelos Qwen na Amazon Bedrock
Para começar a usar os modelos Qwen, no Console da Amazon BedrockEu posso usar o Playground de bate -papo/texto Seção do painel de navegação para testar rapidamente os novos modelos QWEN com alguns avisos.
Para integrar modelos QWEN3 em meus aplicativos, posso usar qualquer AWS SDKS. Os SDKs da AWS incluem acesso à Amazon Bedrock Invokemodel e Conversar API. Também posso usar esse modelo com qualquer estrutura Agentic que suporta a Amazon Bedrock e implante os agentes usando Amazon Bedrock Agentcore. Por exemplo, aqui está o código python de um agente simples com acesso à ferramenta construído usando Agentes fios:
from strands import Agent from strands_tools import calculator agent = Agent( mannequin="qwen.qwen3-coder-480b-a35b-v1:0", instruments=(calculator) ) agent("Inform me the sq. root of 42 ^ 9") with open("perform.py", 'r') as f: my_function_code = f.learn() agent(f"Assist me optimize this Python perform for higher efficiency:nn{my_function_code}")
Agora disponível
Os modelos Qwen estão disponíveis hoje no seguinte Regiões da AWS:
- A instrução QWEN3-CODER-480B-A35B está disponível nas regiões do oeste dos EUA (Oregon), Ásia-Pacífico (Mumbai, Tóquio) e Europa (Londres, Estocolmo).
- Qwen3-Coder-30B-A3B-Instruct, Qwen3-235B-A22B-Instruct-2507, and Qwen3-32B can be found within the US East (N. Virginia), US West (Oregon), Asia Pacific (Mumbai, Tokyo), Europe (Eire, London, Milan, Stockholm), and South America (São Paulo) Areas.
Verifique o Lista de região completa Para atualizações futuras. Você pode começar a testar e criar imediatamente sem configuração de infraestrutura ou planejamento de capacidade. Para saber mais, visite o Qwen em Página do produto Amazon Bedrock e o Preços da Amazon Bedrock página.
Experimente os modelos Qwen no Console da Amazon Bedrock agora, e ofereça suggestions através AWS Re: Publish for Amazon Bedrock ou seus canais de suporte típicos da AWS.
– Danilo