As diretrizes de segurança fornecem a primeira camada necessária de proteção de dados na corrida do ouro da IA


As diretrizes de segurança fornecem a primeira camada necessária de proteção de dados na corrida do ouro da IA

da-kuk/Getty Pictures

As estruturas de segurança fornecerão uma primeira camada necessária de proteção de dados, especialmente à medida que as conversas em torno inteligência synthetic (IA) tornam-se cada vez mais complexas.

Esses estruturas e princípios ajudará a mitigar riscos potenciais ao mesmo tempo que aproveita as oportunidades das tecnologias emergentes, incluindo IA generativa (Gen AI), disse Denise Wong, vice-comissária da Private Information Safety Fee (PDPC), que supervisiona o Private Information Safety Act (PDPA) de Cingapura. Ela também é assistente executiva-chefe do regulador da indústria, Infocomm Media Growth Authority (IMDA).

Também: Package de ferramentas de ética de IA atualizado para incluir mais componentes de avaliação

As conversas sobre implementações de tecnologia tornaram-se mais complexo com IA generativadisse Wong, durante um painel de discussão na conferência Private Information Safety Week 2024 realizada em Cingapura esta semana. As organizações precisam descobrir, entre outras questões, o que a tecnologia envolve, o que ela significa para seus negócios e as proteções necessárias.

Fornecer as estruturas básicas pode ajudar a minimizar o impacto, disse ela. Os kits de ferramentas podem fornecer um ponto de partida a partir do qual as empresas podem experimentar e testar aplicações de IA generativas, incluindo kits de ferramentas de código aberto que são gratuitas e estão disponíveis no GitHub. Ela acrescentou que o governo de Cingapura continuará a trabalhar com parceiros da indústria para fornecer tais ferramentas.

Essas colaborações também apoiarão a experimentação com IA generativa, para que o país possa descobrir o que a segurança da IA ​​implica, disse Wong. Os esforços aqui incluem testando e agrupando modelos de linguagem grandes em red-teaming (LLMs) para contexto native e regional, como idioma e cultura.

Ela disse que os insights dessas parcerias serão úteis para organizações e reguladores, como PDPC e IMDA, para entender como os diferentes LLMs funcionam e a eficácia das medidas de segurança.

Singapura assinou acordos com IBM e Google para testar, avaliar e ajustar LLM do Sudeste Asiático da AI Singapore, chamado SEA-LIONdurante o ano passado. As iniciativas visam ajudar os desenvolvedores a construir aplicativos de IA personalizados no SEA-LION e melhorar a conscientização do contexto cultural dos LLMs criados para a região.

Também: À medida que os modelos de IA generativos evoluem, os benchmarks de teste personalizados e a abertura são cruciais

Com o número de LLMs crescendo em todo o mundo, incluindo os principais da OpenAI e modelos de código aberto, as organizações podem achar desafiador entender as diferentes plataformas. Cada LLM vem com paradigmas e maneiras de acessar o modelo de IA, disse Jason Tamara Widjaja, diretor executivo de IA, Singapore Tech Middle na empresa farmacêutica MSD, que estava falando no mesmo painel.

Ele disse que as empresas devem entender como esses modelos de IA pré-treinados operam para identificar os riscos potenciais relacionados aos dados. As coisas ficam mais complicadas quando as organizações adicionam seus dados aos LLMs e trabalham para ajustar os modelos de treinamento. Aproveitar a tecnologia, como geração aumentada de recuperação (RAG), ressalta ainda mais a necessidade de as empresas garantirem que os dados corretos sejam alimentados ao modelo e que os controles de acesso a dados baseados em funções sejam mantidos, ele acrescentou.

Ao mesmo tempo, ele disse que as empresas também precisam avaliar as medidas de filtragem de conteúdo nas quais os modelos de IA podem operar, pois elas podem impactar os resultados gerados. Por exemplo, dados relacionados à saúde das mulheres podem ser bloqueados, mesmo que as informações forneçam conhecimento básico essencial para pesquisa médica.

Widjaja disse que administrar essas questões envolve um equilíbrio delicado e é desafiador. A estudo de F5 revelou que 72% das organizações que implantam IA citaram problemas de qualidade de dados e a incapacidade de expandir as práticas de dados como principais desafios para dimensionar suas implementações de IA.

Também: 7 maneiras de garantir que seus dados estejam prontos para IA generativa

Cerca de 77% das organizações disseram que não tinham uma única fonte de verdade para seus conjuntos de dados, de acordo com o relatório, que analisou dados de mais de 700 tomadores de decisão de TI globalmente. Apenas 24% disseram que implementaram IA em escala, com outros 53% apontando a falta de IA e conjuntos de habilidades de dados como uma grande barreira.

Cingapura está buscando ajudar a aliviar alguns desses desafios com novas iniciativas para governança de IA e geração de dados.

“As empresas continuarão a precisar de dados para implementar aplicativos sobre os LLMs existentes”, disse a Ministra do Desenvolvimento Digital e Informação Josephine Teo, durante seu discurso de abertura na conferência. “Os modelos devem ser ajustados para ter melhor desempenho e produzir resultados de maior qualidade para aplicativos específicos. Isso requer conjuntos de dados de qualidade.”

E embora técnicas como RAG possam ser usadas, essas abordagens só funcionam com fontes de dados adicionais que não foram usadas para treinar o modelo base, disse Teo. Bons conjuntos de dados também são necessários para avaliar e comparar o desempenho dos modelos, ela acrescentou.

Também: Treine modelos de IA com seus próprios dados para mitigar riscos

“No entanto, conjuntos de dados de qualidade podem não estar prontamente disponíveis ou acessíveis para todo o desenvolvimento de IA. Mesmo se estivessem, há riscos envolvidos (nos quais) conjuntos de dados podem não ser representativos, (onde) modelos construídos sobre eles podem produzir resultados tendenciosos”, disse ela. Além disso, Teo disse que conjuntos de dados podem conter informações pessoalmente identificáveis, resultando potencialmente em modelos de IA generativos regurgitando tais informações quando solicitados.

Colocar um rótulo de segurança na IA

Teo disse que Cingapura irá liberar diretrizes de segurança para modelos de IA generativos e desenvolvedores de aplicativos para resolver os problemas. Essas diretrizes serão estacionadas sob o estrutura de verificação de IA do paísque visa oferecer padrões básicos e comuns por meio de transparência e testes.

“Nossas diretrizes recomendarão que desenvolvedores e implantadores sejam transparentes com os usuários, fornecendo informações sobre como os modelos e aplicativos Gen AI funcionam, como os dados usados, os resultados dos testes e avaliações e os riscos e limitações residuais que o modelo ou aplicativo pode ter”, explicou ela.

As diretrizes delinearão ainda mais os atributos de segurança e confiabilidade que devem ser testados antes da implantação de modelos ou aplicativos de IA, e abordarão questões como alucinação, declarações tóxicas e conteúdo tendencioso, disse ela. “É como quando compramos eletrodomésticos. Haverá um rótulo que diz que foi testado, mas o que deve ser testado para que o desenvolvedor do produto ganhe esse rótulo?”

O PDPC também lançou um guia proposto sobre geração de dados sintéticosincluindo apoio a tecnologias que melhoram a privacidadeou PETs, para abordar preocupações sobre o uso de dados pessoais e confidenciais em IA generativa.

Também: A transparência está extremamente ausente em meio ao crescente interesse pela IA

Observando que a geração de dados sintéticos está surgindo como um PET, Teo disse que o guia proposto deve ajudar as empresas a “entender os dados sintéticos”, incluindo como eles podem ser usados.

“Ao remover ou proteger informações de identificação pessoal, os PETs podem ajudar as empresas a otimizar o uso de dados sem comprometer os dados pessoais”, observou ela.

“Os PETs abordam muitas das limitações no trabalho com dados pessoais e confidenciais e abrem novas possibilidades ao tornar o acesso, o compartilhamento e a análise coletiva de dados mais seguros.”



Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *