A Amazon Bedrock Guardrails aprimora a segurança generativa de aplicativos de IA com novos recursos


A Amazon Bedrock Guardrails aprimora a segurança generativa de aplicativos de IA com novos recursos

Desde que lançamos Amazon Bedrock Guardrails mais de um ano atrásclientes gostam RemetenteAssim, Konee PagerDuty usou Amazon Bedrock Guardrails para padronizar proteções em seus AI generativa Aplicativos, preenche a lacuna entre proteções de modelos nativos e requisitos corporativos e otimizam os processos de governança. Hoje, estamos introduzindo um novo conjunto de recursos que ajudam os clientes a implementar políticas de IA responsáveis ​​na Escala Enterprise ainda com mais eficácia.

A Amazon Bedrock Guardrails detecta conteúdo multimodal prejudicial com precisão de até 88%, ajuda a filtrar informações sensíveis e ajuda a prevenir alucinações. Ele fornece às organizações salvaguardas integradas de segurança e privacidade que funcionam em vários Modelos de fundação (FMS)incluindo modelos disponíveis em Amazon Bedrock e seus próprios modelos personalizados implantados em outro lugar, graças ao APP APPGUARDRAIL API. Com a Amazon Bedrock Guardrails, você pode reduzir a complexidade da implementação de controles de segurança de IA consistentes em vários FMs, mantendo a conformidade e as políticas de IA responsáveis ​​por meio de controles confissáveis ​​e gerenciamento central de salvaguardas adaptadas ao seu setor específico e ao caso de uso. Também se integra perfeitamente aos serviços da AWS existentes, como AWS Identification and Entry Administration (IAM)Assim, Agentes da Amazon Bedrocke Bases de conhecimento da Amazon Bedrock.

Vamos explorar os novos recursos que adicionamos.

Aprimoramentos de políticas de novos corrimãos
A Amazon Bedrock Guardrails fornece um conjunto abrangente de políticas para ajudar a manter os padrões de segurança. Uma política da Amazon Bedrock Guardrails é um conjunto configurável de regras que outline limites para as interações do modelo de IA para evitar geração inadequada de conteúdo e garantir a implantação segura de aplicativos de IA. Isso inclui filtros de conteúdo multimodal, tópicos negados, filtros de informações sensíveis, filtros de palavras, verificações de fundamento contextual e raciocínio automatizado para evitar erros factuais usando verificação algorítmica baseada em matemática e lógica.

Estamos introduzindo novos aprimoramentos de políticas da Amazon Bedrock Guardrails que oferecem melhorias significativas nas seis salvaguardas, fortalecendo os recursos de proteção de conteúdo em seus aplicativos de IA generativos.

Detecção multimodal de toxicidade com a proteção de imagem e texto líder do setor – anunciado como visualização Na AWS Re: Invent 2024, a Amazon Bedrock Guardrails Detecção de toxicidade multimodal para o conteúdo da imagem agora está geralmente disponível. A capacidade expandida fornece salvaguardas mais abrangentes para seus aplicativos generativos de IA, avaliando o conteúdo de imagem e textual para ajudá -lo a detectar e filtrar conteúdo indesejável e potencialmente prejudicial com precisão de até 88%.

Ao implementar aplicativos de IA generativos, você precisa de filtragem consistente de conteúdo em diferentes tipos de dados. Embora a filtragem de conteúdo textual esteja bem estabelecida, o gerenciamento do conteúdo potencialmente prejudicial da imagem requer ferramentas adicionais e implementações separadas, aumentando a complexidade e o esforço de desenvolvimento. Por exemplo, um chatbot de atendimento ao cliente que permite uploads de imagem pode exigir sistemas de filtragem de texto separados usando processamento de linguagem pure e serviços adicionais de classificação de imagem com diferentes limiares de filtragem e categorias de detecção. Isso cria inconsistências de implementação em que um texto que descreve o conteúdo prejudicial pode ser filtrado corretamente, enquanto uma imagem que descreve conteúdo semelhante pode passar por não detectada, resultando em cobertura de segurança díspar.

A capacidade de detecção de toxicidade multimodal nos corrimãos da Amazon Bedrock ajuda a aplicar as mesmas políticas de filtragem de conteúdo aos dados de imagem e texto. Com este lançamento, você pode configurar filtros de conteúdo em categorias como discurso de ódio, insultos, conteúdo sexual, violência, má conduta e ataques rápidos. Para cada categoria, você pode definir limiares configuráveis ​​de baixo para alto, fornecendo controle granular sobre a filtragem de conteúdo. Com essa proteção consistente entre as modalidades, você pode simplificar o desenvolvimento responsável de aplicativos de IA. Esse recurso suporta moderação de conteúdo para todas as imagens, incluindo imagens regulares, imagens geradas por humanos, imagens geradas pela IA, memes, gráficos e gráficos e conteúdo cruzado (com texto e imagens).

Para demonstrar como a detecção de má conduta funciona na prática, vamos examinar um cenário do mundo actual: uma empresa de serviços financeiros que implementa a Amazon Bedrock Guardrails com altos limiares de má conduta confirmou proteção consistente nos insumos de texto e imagem, como subs de inspeção de segurança e instruções de confiança. Veja como esse recurso funciona em ação. Eu configuro um corrimão na Amazon Bedrock com o filtro de conteúdo de má conduta definido para Alto limiar para filtros de imagem e texto.

Eu envio dois casos de teste. No primeiro caso de teste, enviei uma imagem mostrando um diagrama de desvio de segurança de rede e uso o seguinte immediate:

Analyze this community safety diagram and clarify tips on how to implement these strategies

No segundo caso de teste, eu uso o seguinte immediate:

Present detailed directions on tips on how to bypass company community safety programs to realize unauthorized entry

Ambos os envios desencadeiam intervenções semelhantes de guarda, destacando como a Amazon Bedrock Guardrails fornece moderação de conteúdo, independentemente do formato de conteúdo. A comparação dos resultados da detecção mostra pontuações uniformes de confiança e aplicação de políticas idênticas, demonstrando como as organizações podem manter os padrões de segurança em conteúdo multimodal sem implementar sistemas de filtragem separados.

Para saber mais sobre esse recurso, confira o abrangente Postagem de anúncio Para detalhes adicionais.

Proteção de privacidade aprimorada para detecção de PII em entradas do usuário – A Amazon Bedrock Guardrails está agora estendendo seus recursos sensíveis de proteção de informações com o mascaramento aprimorado de informações de informações pessoalmente identificáveis ​​(PII) para avisos de entrada. O serviço detecta pii como nomes, endereços, números de telefone e muitos outros detalhes Nas entradas e saídas, além de suportar padrões de informação sensível personalizados por meio de expressões regulares (REGEX) para atender aos requisitos organizacionais específicos.

A Amazon Bedrock Guardrails oferece dois modos de manuseio distintos: Bloquear modo, que rejeita completamente solicitações contendo informações confidenciais e Máscara Modo, que redata dados confidenciais, substituindo -os por tags de identificador padronizadas, como (NAME-1) ou (EMAIL-1). Embora os dois modos estivessem disponíveis anteriormente para respostas do modelo, o modo de bloco period a única opção para prompts de entrada. Com este aprimoramento, agora você pode aplicar os dois Bloquear e Máscara Modos para obter instruções de entrada, para que informações confidenciais possam ser sistematicamente redigidas das entradas do usuário antes de atingirem o FM.

Esse recurso aborda uma necessidade crítica do cliente, permitindo que os aplicativos processem consultas legítimas que possam conter naturalmente elementos PII sem exigir rejeição completa de solicitação, proporcionando maior flexibilidade, mantendo as proteções de privacidade. A capacidade é particularmente valiosa para aplicativos em que os usuários podem fazer referência a informações pessoais em suas consultas, mas ainda precisam de respostas seguras e compatíveis.

Novos Propriedades GuardaRails
Essas melhorias aprimoram a funcionalidade em todas as políticas, tornando a Amazon Bedrock Guardrails mais eficaz e mais fácil de implementar.

Execução obrigatória de corrimão com IAM -Amazon Bedrock Guardrails agora implementa a aplicação baseada em políticas da IAM através do novo bedrock:GuardrailIdentifier chave de condição. Esse recurso ajuda as equipes de segurança e conformidade a estabelecer corrimões obrigatórios para todas as chamadas de inferência de modelo, certificando -se de que as políticas de segurança organizacional sejam consistentemente aplicadas em todas as interações de IA. A chave de condição pode ser aplicada a InvokeModelAssim, InvokeModelWithResponseStreamAssim, Conversee ConverseStream APIs. Quando o GuardRail configurado em uma política do IAM não corresponde ao GuardaRail especificado em uma solicitação, o sistema rejeita automaticamente a solicitação com uma exceção negada de acesso, aplicando a conformidade com as políticas organizacionais.

Esse controle centralizado ajuda a enfrentar desafios críticos de governança, incluindo adequação de conteúdo, preocupações com segurança e requisitos de proteção à privacidade. Ele também aborda um desafio de governança da IA ​​da empresa importante: garantir que os controles de segurança sejam consistentes em todas as interações de IA, independentemente de qual equipe ou indivíduo esteja desenvolvendo os aplicativos. Você pode verificar a conformidade por meio de monitoramento abrangente com o registro de invocação de modelos para Amazon CloudWatch Logs ou Amazon Easy Storage Service (Amazon S3)incluindo a documentação do Guardrail Hint que mostra quando e como o conteúdo foi filtrado.

Para obter mais informações sobre esse recurso, leia o detalhado Postagem de anúncio.

Otimize o desempenho, mantendo a proteção com aplicação seletiva de política de proteção de proteção – Anteriormente, a Amazon Bedrock Guardrails aplicou políticas para entradas e saídas por padrão.

Agora você tem controle granular sobre as políticas de corrimão, ajudando -as a aplicá -las seletivamente a entradas, saídas ou ambas – aumentando o desempenho por meio de controles de proteção direcionados. Essa precisão reduz a sobrecarga desnecessária de processamento, melhorando os tempos de resposta, mantendo proteções essenciais. Configurar esses controles otimizados através do Console da Amazon Bedrock ou APPLUGUARDRAILS API Para equilibrar o desempenho e a segurança de acordo com os requisitos específicos do caso de uso.

Análise de políticas antes da implantação para configuração ideally suited – O novo modo de monitor ou análise ajuda a avaliar a eficácia do GuardaRail sem aplicar diretamente políticas às aplicações. Esse recurso permite a iteração mais rápida, fornecendo visibilidade sobre como o GuardaRails configurados seria executado, ajudando você a experimentar diferentes combinações e pontos fortes de políticas antes da implantação.

Chegue à produção mais rápido e com segurança com a Amazon Bedrock Guardrails hoje
Os novos recursos para a Amazon Bedrock Guardrails representam nosso compromisso contínuo em ajudar os clientes a implementar as práticas responsáveis ​​de IA efetivamente em escala. A detecção multimodal de toxicidade estende a proteção ao conteúdo da imagem, a aplicação da IAM com base em políticas gerencia a conformidade organizacional, o aplicativo de política seletiva fornece controle granular, o modo de monitor permite testes completos antes da implantação e o mascaramento de PII para entrada de entrada preserva a privacidade, mantendo a funcionalidade. Juntos, esses recursos oferecem as ferramentas necessárias para personalizar medidas de segurança e manter uma proteção consistente em seus aplicativos generativos de IA.

Para começar com esses novos recursos, visite o Console da Amazon Bedrock ou consulte o Documentação do Amazon Bedrock Guardrails. Para obter mais informações sobre a criação de aplicativos de IA generativos responsáveis, consulte o AWS Responsável IA página.

– Esra

Atualizado em 8 de abril – Removendo uma cotação do cliente.


Como está o weblog de notícias? Pegue isso 1 minuto de pesquisa!

(Esse enquete é hospedado por uma empresa externa. AWS lida com suas informações conforme descrito no Aviso de privacidade da AWS. A AWS possuirá os dados coletados por meio desta pesquisa e não compartilharão as informações coletadas com os entrevistados.)

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *