IA confiável da Microsoft: desbloquear o potencial humano começa com confiança


Vídeo do YouTube

À medida que a IA avança, todos temos um papel a desempenhar para desbloquear o impacto positivo da IA ​​nas organizações e comunidades em todo o mundo. É por isso que estamos focados em ajudar os clientes a usar e construir IA que seja confiávelsignificando IA que é seguro, seguro e privado.

Na Microsoft, temos o compromisso de garantir uma IA confiável e estamos construindo tecnologia de suporte líder do setor. Nossos compromissos e capacidades andam de mãos dadas para garantir que nossos clientes e desenvolvedores estejam protegidos em todas as camadas.

Com base nos nossos compromissos, hoje estamos anunciando um novo produto capacidades para fortalecer a segurança, a proteção e a privacidade dos sistemas de IA.

Segurança. A segurança é a nossa principal prioridade na Microsoft e a nossa expansão Iniciativa para o Futuro Seguro (SFI) destaca os compromissos de toda a empresa e a responsabilidade que sentimos em tornar nossos clientes mais seguro. Esta semana anunciamos nosso primeiro Relatório de progresso do SFIdestacando atualizações que abrangem cultura, governança, tecnologia e operações. Isto cumpre o nosso compromisso de dar prioridade à segurança acima de tudo e é guiado por três princípios: segurança desde a concepção, segurança por defeito e operações seguras. Além de nossas ofertas originais, Microsoft Defender e alcancenossos serviços de IA vêm com controles de segurança básicos, como funções integradas para ajudar a evitar injeções imediatas e violações de direitos autorais. Com base nisso, hoje estamos anunciando dois novos recursos:

  • Avaliaçãoé no Azure AI Studio para apoiar avaliações de risco proativas.
  • O Microsoft 365 Copilot fornecerá transparência em consultas na net para ajudar administradores e usuários a entender melhor como a pesquisa na Internet aprimora a resposta do Copilot. Em breve.

Nossos recursos de segurança já estão sendo usados ​​pelos clientes. Cumminsuma empresa de 105 anos conhecida por sua fabricação de motores e desenvolvimento de tecnologias de energia limpa, recorreu ao Microsoft Purview reforçar a segurança e a governação dos dados, automatizando a classificação, etiquetagem e rotulagem dos dados. Sistemas EPAMuma empresa de engenharia de software program e consultoria de negócios, implantada Copiloto do Microsoft 365 para 300 usuários devido à proteção de dados que recebem da Microsoft. JT Sodano, Diretor Sênior de TI, compartilhou que “estávamos muito mais confiantes com o Copilot para Microsoft 365, em comparação com outros modelos de linguagem grande (LLMs), porque sabemos que as mesmas políticas de informações e proteção de dados que configuramos em Visão da Microsoft inscreva-se no Copilot.

Segurança. Incluindo segurança e privacidade, a visão mais ampla da Microsoft Princípios de IA responsávelcriada em 2018, continua a orientar a forma como construímos e implantamos IA com segurança em toda a empresa. Na prática, isto significa construir, testar e monitorizar adequadamente sistemas para evitar comportamentos indesejáveis, tais como conteúdos nocivos, preconceitos, utilização indevida e outros riscos não intencionais. Ao longo dos anos, fizemos investimentos significativos na construção da estrutura de governação, políticas, ferramentas e processos necessários para defender estes princípios e construir e implementar IA com segurança. Na Microsoft, temos o compromisso de compartilhar nossos aprendizados nesta jornada de defender nossos princípios de IA Responsável com nossos clientes. Usamos nossas melhores práticas e aprendizados para fornecer às pessoas e organizações recursos e ferramentas para criar aplicações de IA que compartilhem os mesmos padrões elevados que buscamos.

Hoje, estamos compartilhando novos recursos para ajudar os clientes a buscar os benefícios da IA ​​e, ao mesmo tempo, mitigar os riscos:

  • UM Correção capacidade no recurso de detecção de aterramento do Microsoft Azure AI Content material Security que ajuda a corrigir problemas de alucinação em tempo actual antes que os usuários os vejam.
  • Segurança de conteúdo incorporadoque permite aos clientes incorporar o Azure AI Content material Security em dispositivos. Isto é importante para cenários no dispositivo onde a conectividade na nuvem pode ser intermitente ou indisponível.
  • Novas avaliações no Azure AI Studio para ajudar os clientes a avaliar a qualidade e a relevância dos resultados e a frequência com que o aplicativo de IA gera materials protegido.
  • Detecção de materials protegido para código agora está em versão prévia no Azure AI Content material Security para ajudar a detectar conteúdo e código pré-existentes. Esse recurso ajuda os desenvolvedores a explorar o código-fonte público nos repositórios GitHub, promovendo a colaboração e a transparência, ao mesmo tempo que permite decisões de codificação mais informadas.

É incrível ver como os clientes de todos os setores já estão usando soluções da Microsoft para criar aplicativos de IA mais seguros e confiáveis. Por exemplo, Unidade, uma plataforma para jogos 3D, usou o Microsoft Azure OpenAI Service para construir o Muse Chat, um assistente de IA que facilita o desenvolvimento de jogos. O Muse Chat usa modelos de filtragem de conteúdo em Segurança de conteúdo de IA do Azure para garantir o uso responsável do software program. Adicionalmente, ASOSum varejista de moda sediado no Reino Unido com quase 900 marcas parceiras, usou os mesmos filtros de conteúdo integrados no Azure AI Content material Security para oferecer suporte a interações de alta qualidade por meio de um aplicativo de IA que ajuda os clientes a encontrar novos appears to be like.

Estamos vendo o impacto no espaço educacional também. Escolas Públicas da Cidade de Nova York fizeram parceria com a Microsoft para desenvolver um sistema de bate-papo seguro e apropriado para o contexto educacional, que agora estão testando nas escolas. O Departamento de Educação da Austrália do Sul da mesma forma, trouxe a IA generativa para a sala de aula com o EdChat, contando com a mesma infraestrutura para garantir o uso seguro para alunos e professores.

Privacidade. Os dados estão na base da IA, e a prioridade da Microsoft é ajudar a garantir que os dados dos clientes estejam protegidos e em conformidade por meio de nossa parceria de longa information princípios de privacidadeque incluem controle do usuário, transparência e proteções legais e regulatórias. Para desenvolver isso, hoje estamos anunciando:

  • Inferência confidencial em visualização em nosso modelo Azure OpenAI Service Whisper, para que os clientes possam desenvolver aplicativos generativos de IA que ofereçam suporte à privacidade verificável de ponta a ponta. Inferência confidencial garante que os dados confidenciais do cliente permaneçam seguros e privados durante o processo de inferência, que ocorre quando um modelo de IA treinado faz previsões ou decisões com base em novos dados. Isto é especialmente importante para setores altamente regulamentados, como saúde, serviços financeiros, varejo, manufatura e energia.
  • A disponibilidade geral do Azure VMs confidenciais com GPUs NVIDIA H100 Tensor Coreque permite aos clientes proteger os dados diretamente na GPU. Isto baseia-se nas nossas soluções de computação confidencial, que garantem que os dados dos clientes permaneçam criptografados e protegidos em um ambiente seguro para que ninguém obtenha acesso às informações ou ao sistema sem permissão.
  • Zonas de dados OpenAI do Azure para a UE e os EUA chegarão em breve e aproveitarão a residência de dados existente fornecida pelo Azure OpenAI Service, facilitando o gerenciamento do processamento e armazenamento de dados de aplicativos generativos de IA. Esta nova funcionalidade oferece aos clientes a flexibilidade de dimensionar aplicações generativas de IA em todas as regiões do Azure dentro de uma geografia, ao mesmo tempo que lhes dá o controlo do processamento e armazenamento de dados na UE ou nos EUA.

Temos observado um interesse crescente dos clientes em computação confidencial e entusiasmo por GPUs confidenciais, inclusive de fornecedores de segurança de aplicativos F5que usa VMs confidenciais do Azure com GPUs NVIDIA H100 Tensor Core para criar soluções avançadas de segurança baseadas em IA, garantindo ao mesmo tempo a confidencialidade dos dados que seus modelos estão analisando. E corporação bancária multinacional Banco Actual do Canadá (RBC) integrou a computação confidencial do Azure em sua própria plataforma para analisar dados criptografados e, ao mesmo tempo, preservar a privacidade do cliente. Com a disponibilidade geral de VMs confidenciais do Azure com GPUs NVIDIA H100 Tensor Core, o RBC agora pode usar essas ferramentas avançadas de IA para trabalhar com mais eficiência e desenvolver modelos de IA mais poderosos.

IA confiável da Microsoft: desbloquear o potencial humano começa com confiança

Alcance mais com IA confiável

Todos nós precisamos e esperamos uma IA em que possamos confiar. Vimos o que é possível quando as pessoas são capacitadas para usar IA de forma confiável, desde experiências enriquecedoras dos funcionários e remodelando processos de negócios para reinventando o envolvimento do cliente e reimaginando nossa vida cotidiana. Com novas capacidades que melhoram a segurança, a proteção e a privacidade, continuamos a permitir que os clientes utilizem e construam soluções de IA confiáveis ​​que ajudam todas as pessoas e organizações no planeta a alcançar mais. Em última análise, a IA confiável abrange tudo o que fazemos na Microsoft e é essencial para a nossa missão à medida que trabalhamos para expandir as oportunidades, ganhar confiança, proteger os direitos fundamentais e promover a sustentabilidade em tudo o que fazemos.

Relacionado:

Compromissos

Capacidades

Etiquetas: , , , , , , , , , , , , ,



Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *