A Microsoft alcançou a certificação ISO/IEC 42001: 2023 – um padrão reconhecido globalmente para sistemas de gerenciamento de inteligência synthetic para os modelos Azure AI Foundry e o Microsoft Safety Copilot.
A Microsoft alcançou a certificação ISO/IEC 42001: 2023 – um padrão reconhecido globalmente para sistemas de gerenciamento de inteligência synthetic (AIMs) para ambos Azure AI Foundry Fashions e Microsoft Safety Copilot. Essa certificação ressalta o compromisso da Microsoft em criar e operar sistemas de IA de forma responsável, segura e transparente. Como a IA responsável está se tornando rapidamente um negócio e imperativo regulatório, essa certificação reflete como a Microsoft permite que os clientes inovem com confiança.
Aumentando a barra para a IA responsável com ISO/IEC 42001
ISO/IEC 42001desenvolvido pela Organização Internacional de Padronização (ISO) e pela Comissão Eletrotécnica Internacional (IEC), estabelece uma estrutura reconhecida globalmente para o gerenciamento dos sistemas de IA. Ele aborda uma ampla gama de requisitos, desde gerenciamento de riscos e mitigação de viés até transparência, supervisão humana e responsabilidade organizacional. Esse padrão internacional fornece uma estrutura certificável para estabelecer, implementar, manter e melhorar um sistema de gerenciamento de IA, apoiando organizações no tratamento de riscos e oportunidades ao longo do ciclo de vida da IA.
Ao alcançar essa certificação, a Microsoft demonstra que os modelos de fundição do Azure AI, incluindo modelos do Azure OpenAi, e o Microsoft Safety Copilot priorizam a inovação responsável e são validados por terceiros independentes. Ele fornece aos nossos clientes garantir que a aplicação do Microsoft Azure de governança robusta, gerenciamento de riscos e práticas de conformidade nos modelos Azure AI Foundry e Microsoft Safety Copilot sejam desenvolvidos e operados em alinhamento com Padrão AI responsável da Microsoft.
Apoiando clientes em todos os setores
Esteja você implantando IA em indústrias regulamentadas, incorporando a IA generativa em produtos ou explorando novos casos de uso de IA, essa certificação ajuda os clientes:
- Acelere sua própria jornada de conformidade Aproveitando os serviços certificados de IA e herdando controles de governança alinhados com regulamentos emergentes.
- Construir confiança Com seus próprios usuários, parceiros e reguladores por meio de governança transparente e audível, evidenciada com a certificação AIMS para esses serviços.
- Ganhe transparência sobre como a Microsoft gerencia o risco de IA e governa o desenvolvimento responsável da IA, dando aos usuários mais confiança nos serviços que eles desenvolvem.
Confiança de engenharia e IA responsável na plataforma do Azure
Microsoft’s Programa de IA responsável (RAI) é a espinha dorsal de nossa abordagem à IA confiável e inclui quatro pilares principais –Governar, mapear, medir e gerenciar– que orienta como projetamos, personalizamos e gerenciamos aplicativos e agentes de IA. Esses princípios são incorporados nos modelos de fundição da AIA do Azure e no Microsoft Safety Copilot, resultando em serviços projetados para serem inovadores, seguros e responsáveis.
Estamos comprometidos em cumprir nossa promessa de IA responsável e continuar a construir em nosso trabalho existente, que inclui:
- Nosso Compromissos de clientes da IA para ajudar nossos clientes em sua jornada de IA responsável.
- Nossa inauguração Relatório de transparência da IA Responsável Isso nos permite gravar e compartilhar nossas práticas de amadurecimento, refletir sobre o que aprendemos, traçar nossos objetivos, nos responsabilizar e ganhar a confiança do público.
- Nossas notas de transparência para Azure AI Foundry Fashions e Microsoft Safety Copilot Ajude os clientes a entender como nossa tecnologia de IA funciona, suas capacidades e limitações e os proprietários de sistemas de escolhas podem fazer com que isso influencie o desempenho e o comportamento do sistema.
- Nosso AI ResponsávelOurces sITE que fornece ferramentas, práticas, modelos e informações que acreditamos ajudar muitos de nossos clientes a estabelecer suas práticas responsáveis de IA.
Apoiando sua jornada de IA responsável com confiança
Reconhecemos que a IA responsável exige mais do que tecnologia; Requer processos operacionais, gerenciamento de riscos e responsabilidade clara. A Microsoft suporta clientes nesses esforços, fornecendo a plataforma e a experiência para a confiança e a conformidade operacionais. A Microsoft permanece firme em nosso compromisso com o seguinte:
- Melhorando continuamente nosso sistema de gerenciamento de IA.
- Compreendendo as necessidades e expectativas de nossos clientes.
- Construindo no programa da Microsoft RAI e no gerenciamento de riscos de IA.
- Identificando e acionando as oportunidades que nos permitem construir e manter a confiança em nossos produtos e serviços de IA.
- Colaborar com a crescente comunidade de profissionais, reguladores e pesquisadores responsáveis de IA sobre o avanço da nossa abordagem responsável de IA.
ISO/IEC 42001: 2023 Junta -se às extensas certificações de conformidade da Microsoft, refletindo nossa dedicação ao rigor operacional e à transparência, ajudando os clientes a construir com responsabilidade em uma plataforma em nuvem projetada para confiança. De uma organização de saúde que se esforça para a justiça a uma instituição financeira que supervisiona o risco de IA ou uma agência governamental que promove práticas éticas de IA, as certificações da Microsoft permitem a adoção da IA em escala enquanto alinham o cumprimento dos padrões globais em evolução de segurança, privacidade e responsabilidade responsável.
A Fundação da Microsoft em Segurança e Privacidade de Dados e nossos investimentos em resiliência operacional e IA responsável mostra nossa dedicação a ganhar e preservar a confiança em todas as camadas. O Azure é projetado para a confiança, alimentando a inovação em uma base segura, resiliente e transparente que oferece aos clientes a confiança para escalar a IA com responsabilidade, navegar nas necessidades de conformidade em evolução e permanecer no controle de seus dados e operações.
Saiba mais com a Microsoft
À medida que os regulamentos e expectativas da IA continuam evoluindo, a Microsoft continua focada em fornecer uma plataforma confiável para a IA Innovation, construída com resiliência, segurança e transparência em seu núcleo. A certificação ISO/IEC 42001: 2023 é uma etapa crítica nesse caminho, e a Microsoft continuará investindo no excedente de padrões globais e impulsionando inovações responsáveis para ajudar os clientes a ficarem adiante – secamente, ética e em escala.
Discover como confiamos no centro da inovação em nuvem com nossa abordagem de segurança, privacidade e conformidade no Microsoft Belief Middle. Veja esta certificação e relatório, bem como outros documentos de conformidade no Microsoft Service Belief Portal.
A certificação ISO/IEC 42001: 2023 para Azure AI Foundry: Azure AI Foundry Fashions e Microsoft Safety Copilot foram emitidos por Mentorum órgão de certificação iso-credenciado pelo Worldwide Acreditation Service (IAS).