Amazon Bedrock Guardrails agora oferece suporte à detecção de toxicidade multimodal com suporte de imagem (visualização)


Amazon Bedrock Guardrails agora oferece suporte à detecção de toxicidade multimodal com suporte de imagem (visualização)

Hoje, estamos anunciando a prévia da detecção de toxicidade multimodal com suporte de imagem em Guarda-corpos de rocha amazônica. Esse novo recurso detecta e filtra conteúdo de imagem indesejável além de texto, ajudando você a melhorar as experiências do usuário e a gerenciar os resultados do modelo em seu IA generativa aplicações.

O Amazon Bedrock Guardrails ajuda você a implementar proteções para aplicações generativas de IA, filtrando conteúdo indesejável, redigindo informações de identificação pessoal (PII) e melhorando a segurança e a privacidade do conteúdo. Você pode configurar políticas para tópicos negados, filtros de conteúdo, filtros de palavras, redação de PII, verificações de fundamentação contextual e verificações de raciocínio automatizado (pré-visualização) para adaptar as proteções aos seus casos de uso específicos e políticas de IA responsáveis.

Com este lançamento, agora você pode usar a política de filtro de conteúdo existente no Amazon Bedrock Guardrails para detectar e bloquear conteúdo de imagem prejudicial em categorias como ódio, insultos, sexual e violência. Você pode configurar limites de baixo a alto para atender às necessidades do seu aplicativo.

Este novo suporte de imagem funciona com todos modelos de fundação (FMs) no Amazon Bedrock que oferece suporte a dados de imagem, bem como a quaisquer modelos personalizados e ajustados que você trouxer. Ele fornece uma camada consistente de proteção em modalidades de texto e imagem, facilitando a criação de aplicativos de IA responsáveis.

Tero Hottinenvice-presidente e chefe de parcerias estratégicas da KONEprevê o seguinte caso de uso:

Na sua avaliação contínua, a KONE reconhece o potencial dos Amazon Bedrock Guardrails como um componente chave na proteção de aplicações de geração de IA, particularmente para verificações de relevância e de aterramento contextuais, bem como para as salvaguardas multimodais. A empresa prevê a integração de diagramas e manuais de design de produtos em suas aplicações, com o Amazon Bedrock Guardrails desempenhando um papel essential ao permitir diagnósticos e análises mais precisos de conteúdo multimodal.

Veja como funciona.

Detecção de toxicidade multimodal em ação
Para começar, crie um guarda-corpo no Console de gerenciamento da AWS e configure os filtros de conteúdo para dados de texto ou imagem, ou ambos. Você também pode usar SDKs da AWS para integrar esse recurso em seus aplicativos.

Criar guarda-corpo
No consolenavegue até Base Amazônica e selecione Guarda-corpos. A partir daí, você pode criar uma nova proteção e usar os filtros de conteúdo existentes para detectar e bloquear dados de imagem, além de dados de texto. As categorias para Odiar, Insultos, Sexuale Violência sob Configurar filtros de conteúdo pode ser configurado para conteúdo de texto ou imagem ou ambos. O Má conduta e Ataques imediatos as categorias podem ser configuradas apenas para conteúdo de texto.

Suporte multimodal Amazon Bedrock Guardrails

Depois de selecionar e configurar os filtros de conteúdo que deseja usar, você pode salvar o guardrail e começar a usá-lo para criar aplicativos de IA generativos seguros e responsáveis.

Para testar o novo guarda-corpo no console, selecione o guarda-corpo e escolha Teste. Você tem duas opções: testar o guardrail escolhendo e invocando um modelo ou testar o guardrail sem invocar um modelo usando o Amazon Bedrock Guardrails independente ApplyGuardail API.

Com o ApplyGuardrail API, você pode validar o conteúdo em qualquer ponto do fluxo do aplicativo antes de processar ou fornecer resultados ao usuário. Você também pode usar a API para avaliar entradas e saídas de qualquer FM autogerenciado (personalizado) ou de terceiros, independentemente da infraestrutura subjacente. Por exemplo, você poderia usar a API para avaliar um Meta Lhama 3.2 modelo hospedado em Amazon Sage Maker ou um Mistral NeMo modelo em execução no seu laptop computer.

Teste o guardrail escolhendo e invocando um modelo
Selecione um modelo que suporte entradas ou saídas de imagem, por exemplo, Claude 3.5 Sonnet da Anthropic. Verifique se os filtros de immediate e resposta estão ativados para conteúdo de imagem. Em seguida, forneça um immediate, carregue um arquivo de imagem e escolha Correr.

Suporte multimodal Amazon Bedrock Guardrails

No meu exemplo, o Amazon Bedrock Guardrails interveio. Escolher Ver rastreamento para mais detalhes.

O rastreamento do guardrail fornece um registro de como as medidas de segurança foram aplicadas durante uma interação. Ele mostra se o Amazon Bedrock Guardrails interveio ou não e quais avaliações foram feitas tanto na entrada (immediate) quanto na saída (resposta do modelo). No meu exemplo, os filtros de conteúdo bloquearam o immediate de entrada porque detectaram insultos na imagem com alta confiança.

Suporte multimodal Amazon Bedrock Guardrails

Testar guardrail sem invocar um modelo
No console, escolha Use API independente do Guardrails para testar o guardrail sem invocar um modelo. Escolha se deseja validar um immediate de entrada ou um exemplo de saída gerada por modelo. Em seguida, repita os passos anteriores. Verifique se os filtros de immediate e resposta estão habilitados para conteúdo de imagem, forneça o conteúdo para validação e escolha Correr.

Suporte multimodal Amazon Bedrock Guardrails

Reutilizei a mesma imagem e immediate de entrada para minha demonstração, e o Amazon Bedrock Guardrails interveio novamente. Escolher Ver rastreamento novamente para mais detalhes.

Suporte multimodal Amazon Bedrock Guardrails

Participe da prévia
A detecção de toxicidade multimodal com suporte de imagem está disponível hoje em versão prévia no Amazon Bedrock Guardrails no Leste dos EUA (Norte da Virgínia, Ohio), Oeste dos EUA (Oregon), Ásia-Pacífico (Mumbai, Seul, Cingapura, Tóquio), Europa (Frankfurt, Irlanda , Londres) e AWS GovCloud (Oeste dos EUA) Regiões da AWS. Para saber mais, visite Guarda-corpos de rocha amazônica.

Experimente hoje mesmo o filtro de conteúdo de detecção de toxicidade multimodal no Console Amazon Bedrock e deixe-nos saber o que você pensa! Envie comentários para AWS re:Publish para Amazon Bedrock ou por meio de seus contatos habituais do AWS Assist.

Antje

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *