O Google expande o Accountable Generative AI Toolkit com suporte para SynthID, uma nova biblioteca de alinhamento de modelo e muito mais


O Google expande o Accountable Generative AI Toolkit com suporte para SynthID, uma nova biblioteca de alinhamento de modelo e muito maisO Google expande o Accountable Generative AI Toolkit com suporte para SynthID, uma nova biblioteca de alinhamento de modelo e muito mais

O Google está facilitando para as empresas a construção responsável de IA generativa, adicionando novas ferramentas e bibliotecas aos seus Package de ferramentas de IA generativa responsável.

O Toolkit fornece ferramentas para design responsável de aplicações, alinhamento de segurança, avaliação de modelos e salvaguardas, que trabalham em conjunto para melhorar a capacidade de desenvolver IA generativa de forma responsável e segura.

O Google está adicionando a capacidade de colocar marca d’água e detectar texto gerado por um produto de IA usando a tecnologia SynthID do Google DeepMind. As marcas d’água não são visíveis para os humanos que visualizam o conteúdo, mas podem ser vistas por modelos de detecção para determinar se o conteúdo foi gerado por uma ferramenta de IA específica.

“Ser capaz de identificar conteúdo gerado por IA é basic para promover a confiança nas informações. Embora não seja uma solução mágica para resolver problemas como desinformação ou atribuição incorreta, o SynthID é um conjunto de soluções técnicas promissoras para esse problema urgente de segurança de IA”, Web site do SynthID estados.

A próxima adição ao Toolkit é o Biblioteca de alinhamento de modeloo que permite que o LLM refine as solicitações de um usuário com base em critérios e comentários específicos.

“Forneça suggestions sobre como você deseja que os resultados do seu modelo mudem como uma crítica holística ou um conjunto de diretrizes. Use o Gemini ou seu LLM preferido para transformar seu suggestions em um immediate que alinhe o comportamento do seu modelo com as necessidades e políticas de conteúdo do seu aplicativo”, escreveu Ryan Mullins, engenheiro de pesquisa e líder de tecnologia do RAI Toolkit no Google, em um postagem no weblog.

E, finalmente, a última atualização é uma experiência aprimorada para desenvolvedores no Ferramenta de Interpretabilidade de Aprendizagem (LIT) no Google Cloud, que é uma ferramenta que fornece insights sobre “como o usuário, o modelo e o conteúdo do sistema influenciam o comportamento de geração”.

Agora inclui um contêiner de servidor modelo, permitindo que os desenvolvedores implantem Hugging Face ou Keras LLMs em GPUs Google Cloud Run com suporte para geração, tokenização e pontuação de saliência. Os usuários agora também podem se conectar a modelos auto-hospedados ou modelos Gemini usando a API Vertex.

“Construir IA de forma responsável é essential. É por isso que criamos o Accountable GenAI Toolkit, que fornece recursos para projetar, construir e avaliar modelos abertos de IA. E não paramos por aí! Agora estamos expandindo o equipment de ferramentas com novos recursos projetados para funcionar com qualquer LLM, seja Gemma, Gemini ou qualquer outro modelo. Este conjunto de ferramentas e recursos capacita todos a construir IA de forma responsável, independentemente do modelo que escolherem”, escreveu Mullins.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *