AWS anuncia o modelo Pixtral Massive 25.02 na Amazon Bedrocklessless sem servidor


AWS anuncia o modelo Pixtral Massive 25.02 na Amazon Bedrocklessless sem servidor

Hoje, anunciamos que o Modelo pixtral grande 25.02 agora está disponível em Amazon Bedrock como uma oferta sem servidor e totalmente gerenciada. A AWS é o primeiro grande provedor de nuvem a fornecer um modelo pixtral grande como um modelo sem servidor e totalmente gerenciado.

Trabalhando com Grandes modelos de fundação (FMS) Muitas vezes, requer planejamento significativo de infraestrutura, experiência especializada e otimização contínua para lidar com as demandas computacionais de maneira eficaz. Muitos clientes se vêem gerenciando ambientes complexos ou fazendo trade-offs entre desempenho e custo ao implantar esses modelos sofisticados.

O modelo grande pixtral, desenvolvido por Ai Mistralrepresenta seu primeiro modelo multimodal que combina recursos avançados de visão com um poderoso entendimento da linguagem. Uma janela de contexto de 128k o torna best para tarefas complexas de raciocínio visible. O modelo oferece desempenho excepcional em benchmarks -chave, incluindo MathvistaAssim, Docvqae VQAV2demonstrando sua eficácia na análise de documentos, interpretação de gráficos e entendimento de imagem pure.

Um dos aspectos mais poderosos do grande pixtral é sua capacidade multilíngue. O modelo suporta dezenas de idiomas, incluindo inglês, francês, alemão, espanhol, italiano, chinês, japonês, coreano, português, holandês e polonês, tornando -o acessível a equipes e aplicativos globais. Também é treinado em mais de 80 linguagens de programação, incluindo Python, Java, C, C ++, JavaScript, Bash, Swift e Fortran, fornecendo recursos robustos de geração e interpretação de código.

Os desenvolvedores apreciarão o design centrado no agente do modelo com chamadas de funções internas e formatação de saída JSON, o que simplifica a integração com os sistemas existentes. Seu forte sistema imediato a adesão melhora a confiabilidade ao trabalhar com Geração Aumentada Recuperação (RAG) Aplicativos e grandes cenários de contexto.

Com o Pixtral Massive na Amazon Bedrock, agora você pode acessar esse modelo avançado sem precisar provisionar ou gerenciar qualquer infraestrutura. A abordagem sem servidor permite dimensionar o uso com base na demanda actual sem compromissos iniciais ou planejamento de capacidade. Você paga apenas pelo que usa, sem recursos ociosos.

Inferência de região cruzada
Pixtral Massive agora está disponível na Amazon Bedrock em vários Regiões da AWS Através da inferência entre região.

Com inferência de região da Amazon Bedrockvocê pode acessar um único FM em várias regiões geográficas, mantendo alta disponibilidade e baixa latência para aplicações globais. Por exemplo, quando um modelo é implantado nas regiões européias e americanas, você pode acessá-lo por meio de terminais de API específicos da região usando prefixos distintos: eu.model-id para regiões européias e us.model-id para nós regiões. Essa abordagem permite que a Amazon Bedrock para rotear solicitações de inferência para o terminal geograficamente próximo, reduzindo a latência e ajudando a atender à conformidade regulatória, mantendo o processamento de dados dentro dos limites geográficos desejados. O sistema lida automaticamente no roteamento de tráfego e no balanceamento de carga nessas implantações regionais, fornecendo escalabilidade e redundância perfeitas sem exigir que você acompanhe regiões individuais onde o modelo é realmente implantado.

Veja em ação
Como advogado de desenvolvedor, estou constantemente explorando como nossos recursos mais recentes podem resolver problemas reais. Recentemente, tive uma oportunidade perfeita para testar as novas capacidades multimodais no API Amazon Bedrock Converse Quando minha filha pediu ajuda com a preparação do exame de física.

No fim de semana passado, minha mesa de cozinha foi coberta com exames de prática cheios de diagramas complexos, vetores de força e equações. Minha filha estava lutando para conceituar como abordar esses problemas. Foi quando percebi que esse period o caso de uso perfeito para os recursos multimodais que acabamos de lançar. Tirei fotos de uma folha de problemas particularmente desafiadora, contendo vários gráficos e notação matemática e, em seguida, usei a API Converse para criar um aplicativo simples que pudesse analisar as imagens. Juntos, enviamos os materiais do exame de física e pedimos ao modelo que explique a abordagem da solução.

Problema de física em francês

O que aconteceu a seguir impressionou a nós dois-o modelo interpretou os diagramas, reconheceu o idioma francês e a notação matemática e forneceu uma explicação passo a passo de como resolver cada problema. Ao fazer perguntas de acompanhamento sobre conceitos específicos, o modelo manteve o contexto em toda a nossa conversa, criando uma experiência de tutoria que parecia notavelmente pure.

# Effet Doppler avec une Supply Sonore en Rotation

## Analyse du problème

Ce problème concerne l'effet Doppler produit par une supply sonore en rotation. Une supply émettant un son à 1500 Hz tourne sur une desk tournante dans le sens antihoraire, et nous devons déterminer remark les fréquences sont perçues par un microphone fixe.

## Ideas clés

L'effet Doppler se produit lorsqu'il y a un mouvement relatif entre une supply sonore et un observateur. La fréquence perçue dépend de si la supply se rapproche ou s'éloigne de l'observateur.

La formule de l'effet Doppler est:
- Pour une supply qui se rapproche: $f_{observée} = f_{supply} cdot frac{v_{son}}{v_{son} - v_{supply}}$
- Pour une supply qui s'éloigne: $f_{observée} = f_{supply} cdot frac{v_{son}}{v_{son} + v_{supply}}$

## Answer étape par étape

### Étape 1: Analyser le mouvement de la supply
La supply tourne sur un cercle et le microphone est fixe à 40 cm du centre de rotation. Aux différentes positions (a, b, c), la supply a des vitesses radiales différentes par rapport au microphone:

- Place a: La supply se déplace perpendiculairement à la ligne source-microphone (vitesse radiale nulle)
- Place b: La supply s'éloigne du microphone (vitesse radiale optimistic)
- Place c: La supply se rapproche du microphone (vitesse radiale négative)

### Étape 2: Déterminer l'effet sur les fréquences perçues

- À la place a: Pas d'effet Doppler automotive la vitesse radiale est nulle, donc $f_a = f_{supply} = 1500$ Hz
- À la place b: La supply s'éloigne, donc $f_b < f_{supply}$, donc $f_b < 1500$ Hz
- À la place c: La supply se rapproche, donc $f_c > f_{supply}$, donc $f_c > 1500$ Hz

### Étape 3: Comparer les fréquences

D'après notre analyse:
- $f_a = 1500$ Hz
- $f_b < 1500$ Hz
- $f_c > 1500$ Hz

Donc: $f_c > f_a > f_b$

## Conclusion

La proposition correcte est: $f_c > f_a > f_b$

Cette réponse correspond à la troisième proposition dans l'énoncé. Lorsque la supply tourne, la fréquence perçue est plus élevée quand la supply se rapproche (place c), égale à la fréquence émise quand la supply se déplace perpendiculairement (place a), et plus basse quand la supply s'éloigne (place b).

O modelo usa a linguagem da pergunta para responder. Após uma análise atenciosa, diz que a resposta correta é f_c> f_a> f_b (e está certo!)

A beleza dessa interação foi quão perfeitamente a API Converse lidou com as entradas multimodais. Como construtor, não precisava me preocupar com a complexidade de processar imagens ao lado do texto – a API conseguiu essa complexidade e retornou respostas estruturadas que meu aplicativo simples poderia apresentar diretamente à minha filha.

Aqui está o código que escrevi. Eu usei a linguagem de programação rápida, apenas para mostrar que o Python não é a única opção que você tem 😇.

personal let modelId = "us.mistral.pixtral-large-2502-v1:0"

// Outline the system immediate that instructs Claude learn how to reply
let systemPrompt = """
You're a math and physics tutor. Your process is to:
1. Learn and perceive the maths or physics drawback within the picture
2. Present a transparent, step-by-step resolution to the issue
3. Briefly clarify any related ideas utilized in fixing the issue
4. Be exact and correct in your calculations
5. Use mathematical notation when applicable

Format your response with clear part headings and numbered steps.
"""
let system: BedrockRuntimeClientTypes.SystemContentBlock = .textual content(systemPrompt)

// Create the consumer message with textual content immediate and picture
let userPrompt = "Please remedy this math or physics drawback. Present all steps and clarify the ideas concerned."
let immediate: BedrockRuntimeClientTypes.ContentBlock = .textual content(userPrompt)
let picture: BedrockRuntimeClientTypes.ContentBlock = .picture(.init(format: .jpeg, supply: .bytes(finalImageData)))

// Create the consumer message with each textual content and picture content material
let userMessage = BedrockRuntimeClientTypes.Message(
    content material: (immediate, picture),
    function: .consumer
)

// Initialize the messages array with the consumer message
var messages: (BedrockRuntimeClientTypes.Message) = ()
messages.append(userMessage)

// Configure the inference parameters
let inferenceConfig: BedrockRuntimeClientTypes.InferenceConfiguration = .init(maxTokens: 4096, temperature: 0.0)

// Create the enter for the Converse API with streaming
let enter = ConverseStreamInput(inferenceConfig: inferenceConfig, messages: messages, modelId: modelId, system: (system))

// Make the streaming request
do {
    // Course of the stream
    let response = strive await bedrockClient.converseStream(enter: enter)

    // Iterate by the stream occasions
    for strive await occasion in stream {
        change occasion {
        case .messagestart:
            print("AI-assistant began to stream")

        case let .contentblockdelta(deltaEvent):
            // Deal with textual content content material because it arrives
            if case let .textual content(textual content) = deltaEvent.delta {
                DispatchQueue.most important.async {
                    self.streamedResponse += textual content
                }
            }

        case .messagestop:
            print("Stream ended")
            // Create a whole assistant message from the streamed response
            let assistantMessage = BedrockRuntimeClientTypes.Message(
                content material: (.textual content(self.streamedResponse)),
                function: .assistant
            )
            messages.append(assistantMessage)

        default:
            break
        }
    }

E o resultado no aplicativo é impressionante.

resolvedor de problemas de física do iOS

Quando o exame dela chegou, ela se sentiu confiante e preparada-e eu tive um exemplo convincente do mundo actual de como nossos recursos multimodais no Amazon Bedrock podem criar experiências significativas para os usuários.

Comece hoje
O novo modelo está disponível nesses pontos de extremidade da API regional: US East (Ohio, N. Virginia), US West (Oregon) e Europa (Frankfurt, Irlanda, Paris, Estocolmo). Essa disponibilidade regional ajuda a atender aos requisitos de residência de dados e minimizar a latência.

Você pode começar a usar o modelo através do Console de gerenciamento da AWS ou programaticamente através do Interface da linha de comando da AWS (AWS CLI) e AWS SDK Usando o ID do modelo mistral.pixtral-large-2502-v1:0.

Este lançamento representa um passo significativo para tornar a IA multimodal avançada acessível a desenvolvedores e organizações de todos os tamanhos. Ao combinar o modelo de ponta da AI com infraestrutura sem servidor da AWS, agora você pode se concentrar na criação de aplicativos inovadores sem se preocupar com a complexidade subjacente.

Visite o Console da Amazon Bedrock Hoje, para começar a experimentar o Pixtral Massive 25.02 e descubra como ele pode aprimorar seus aplicativos movidos a IA.

– seb


Como está o weblog de notícias? Pegue isso 1 minuto de pesquisa!

(Esse enquete é hospedado por uma empresa externa. AWS lida com suas informações conforme descrito no Aviso de privacidade da AWS. A AWS possuirá os dados coletados por meio desta pesquisa e não compartilharão as informações coletadas com os entrevistados.)

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *