Estamos entusiasmados em anunciar a segunda edição do Databricks AI Safety Framework (DASF 2.0 –baixar agora)! Organizações correndo para aproveitar o potencial de Ai Precisa do ‘gás’ da inovação e dos ‘freios’ da governança e gerenciamento de riscos. O DASF preenche essa lacuna, permitindo implantações seguras e impactantes de IA para sua organização, atuando como um guia abrangente sobre gerenciamento de riscos de IA.
Este weblog fornecerá uma visão geral do DASF, explorar as principais idéias obtidas desde que a versão unique foi lançada, introduzir novos recursos para aprofundar sua compreensão da segurança da IA e fornecer atualizações sobre nossos colaboradores do setor.
O que é o Databricks AI Safety Framework e o que há de novo na versão 2.0?
O DASF é uma estrutura e whitepaper para gerenciar riscos de segurança e governança da IA. Ele enumera os 12 componentes canônicos do sistema de IA, seus respectivos riscos e controles acionáveis para mitigar cada risco. Criados pelas equipes de segurança e ML da Databricks em parceria com especialistas do setor, ele preenche a lacuna entre as equipes de negócios, dados, governança e segurança com ferramentas práticas e estratégias acionáveis para desmistificar a IA, promover a colaboração e garantir uma implementação eficaz.
Ao contrário de outras estruturas, o DASF 2.0 se baseia nos padrões existentes para fornecer um perfil de risco de ponta a ponta para implantações de IA. Ele oferece controles de defesa em profundidade para simplificar o gerenciamento de riscos de IA para sua organização operacionalizar e pode ser aplicado aos dados escolhidos e à plataforma de IA.
No DASF 2.0, identificamos 62 riscos de segurança técnica e mapeou -os para 64 controles recomendados para gerenciar o risco de modelos de IA. Também expandimos os mapeamentos para as principais estruturas e padrões de risco da IA da indústria, incluindo Mitre AtlasOwasp Llm & Ml Prime 10, NIST 800-53Assim, NIST CSFAssim, HitrustAssim, Algoritmos de ML protegindo de ENISAAssim, ISO 42001Assim, ISO 27001: 2022e o Ato da UE AI.
Operacionalizando o DASF – Confira o novo compêndio e o vídeo instrucional complementar!
Recebemos suggestions valioso ao compartilhar o DASF em eventos do setor, workshops e reuniões de clientes. Muitos de vocês pediram mais recursos para facilitar a navegação do DASF, operacionalizando -o e mapeando seus controles de maneira eficaz.
Em resposta, estamos entusiasmados em anunciar o lançamento do documento do DASF Compêndio (Folha do GoogleAssim, Excel). Esse recurso foi projetado para ajudar a operacionalizar o DASF, organizando e aplicando seus riscos, ameaças, controles e mapeamentos a padrões reconhecidos pela indústria de organizações como Mitre, OWASP, NIST, ISO, HITRUST e muito mais. Nós também criamos um Vídeo de instrução complementar Isso fornece um passo a passo guiado do DASF e seu compêndio.
Nosso objetivo com essas atualizações é facilitar a adoção do DASF, capacitando as organizações a implementar os sistemas de IA com segurança e confiança. Se você está ansioso para mergulhar, nossa equipe recomenda a seguinte abordagem:
- Entenda seus stakeholders, modelos de implantação e casos de uso de IA: Comece com um caso de uso comercial, aproveitando o Whitepaper DASF para identificar o modelo de implantação da AI com melhor ajuste. Escolha entre Mais de 80 aceleradores de solução de banco de dados Para orientar sua jornada. Os modelos de implantação incluem modelos preditivos de ML, APIs de modelo de fundação, LLMs de ajuste fino e pré-treinado, RAG, agentes de IA com LLMS e modelos externos. Garanta clareza sobre o desenvolvimento de IA em sua organização, incluindo casos de uso, conjuntos de dados, necessidades de conformidade, processos, aplicativos e partes interessadas responsáveis.
- Revise os 12 componentes do sistema de IA e 62 riscos: Entenda os 12 componentes de sistemas de IA, a segurança cibernética tradicional e os novos riscos de segurança da IA associados a cada componente e às partes interessadas responsáveis (por exemplo, engenheiros de dados, cientistas, oficiais de governança e equipes de segurança). Use o DASF para promover a colaboração nesses grupos ao longo do ciclo de vida da IA.
- Revise os 64 controles de mitigação disponíveis: Cada risco é mapeado para controles de mitigação priorizados, começando com perímetro e segurança de dados. Esses riscos e controles estão alinhados com 10 padrões do setor, fornecendo detalhes e clareza adicionais.
- Use o compêndio DASF para localizar riscos, controlar a aplicabilidade e impactos de risco: Comece usando a guia “Aplicabilidade de risco do DASF” para identificar riscos relevantes para o seu caso de uso, selecionando um ou mais modelos de implantação de IA. Em seguida, revise os impactos de risco associados, os requisitos de conformidade e os controles de mitigação. Por fim, documente detalhes -chave para o seu caso de uso, incluindo a descrição do caso de uso da IA, conjuntos de dados, partes interessadas, considerações de conformidade e aplicativos.
- Implementar os controles priorizados: Use a guia “Aplicabilidade de controle do DASF” do compêndio para revisar os controles do DASF aplicável e implementar os controles de mitigação em sua plataforma de dados em 12 componentes da IA. Se você estiver usando o Databricks, incluímos hyperlinks com instruções detalhadas sobre como implantar cada controle em nossa plataforma.
Implemente o DASF em sua organização com novos recursos de operação da AI da Databricks
De acordo com um recente Estudo de Impacto EconomistaDados pesquisados e líderes de IA identificaram o aumento e promove uma mentalidade de crescimento como as principais prioridades para impulsionar a adoção da IA em 2025. Como parte do lançamento do DASF 2.0, temos recursos para ajudá -lo a entender os conceitos de IA e ML e aplicar as práticas recomendadas de segurança da IA para sua organização.
- Treinamento da Academia de Databricks: Recomendamos levar o novo Curso de Fundamentos de Segurança da AIque agora está disponível na Academia de Databricks. Antes de mergulhar no whitepaper, este percurso de 1 hora é uma ótima cartilha para os tópicos de segurança da IA destacados no DASF. Você também receberá um credenciamento pelo seu perfil do LinkedIn após a conclusão. Se você é novo em conceitos de IA e ML, comece com nosso Curso de Fundamentos da IA generativa.
- Vídeos de instruções: Registramos a visão geral do DASF e os vídeos de instruções para consumo rápido. Você pode encontrar esses vídeos em nosso Melhores práticas de segurança do canal do youtube.
- Oficina pessoal ou digital: Nossa equipe oferece um Oficina de risco de IA Como um passo a passo ao vivo dos conceitos descritos no DASF, concentrando -se em superar obstáculos à operacionalização do gerenciamento de riscos de IA. Este evento de meio dia tem como alvo o diretor+ líderes em governança, dados, privacidade, funções legais, de TI e segurança.
- Suporte de implantação: O Ferramenta de análise de segurança (SAT) monitora a adesão às melhores práticas de segurança nos espaços de trabalho do Databricks continuamente. Recentemente, atualizamos o SAT para otimizar a configuração e aprimorar as verificações, alinhando -as com o DASF para melhorar a cobertura dos riscos de segurança da IA.
- Dasf AI Assistente: Os clientes do Databricks podem configurar Databricks AI Safety Framework (DASF) Assistente de AI Direito em seu próprio espaço de trabalho sem habilidades anteriores de banco de dados, interaja com o conteúdo do DASF em linguagem humana simples e obtenha respostas.
Construindo uma comunidade com grupos, clientes e parceiros da indústria de IA
Garantir que o DASF evoluir em passo com o atual ambiente regulatório de IA e o cenário emergente de ameaças é uma prioridade. Desde o lançamento do 1.0, formamos um grupo de trabalho de IA de colegas, clientes e parceiros da indústria para permanecer intimamente alinhado com esses desenvolvimentos. Queremos agradecer aos nossos colegas do grupo de trabalho e de nossos pré-revisores como o Complyleft, o Honest Institute, Ethriva Inc, Arhasi AI, Carnegie Mellon College e Rakesh Patil da JPMC. Você pode encontrar a lista completa de colaboradores na seção Agradecimentos do DASF. Se você quiser participar do grupo de trabalho do DASF AI, entre em contato com nossa equipe em (E-mail protegido).
Aqui está o que alguns dos nossos principais advogados têm a dizer:
“A IA está revolucionando a prestação de cuidados de saúde por meio de inovações como o Intelligent Genai Pipeline, que processa mais de 1,5 milhão de notas clínicas diariamente para classificar os principais determinantes sociais e impactar os cuidados veteranos. Este pipeline é construído com uma forte base de segurança, incorporando o NIST 800-53 Controls e a aproveitando A estrutura de segurança da IA do banco de dados para garantir a conformidade e mitigar os riscos. – Joseph Raetano, líder de inteligência synthetic, Summit Information Analytics & AI Platform, Departamento de Assuntos Veteranos dos EUA
“O DASF é a ferramenta essencial para transformar a quantificação de risco de IA em uma realidade operacional. Com a abordagem de risco de Honest-AI agora em seu segundo ano, o DASF 2.0 permite que os CISOs preencham a lacuna entre segurança cibernética e estratégia de negócios-falando de um idioma comum fundamentado em impacto financeiro mensurável. ” – Jacqueline Lebo, Grupo de Trabalho do Fundador AI, o Honest Institute e Threat Advisory Supervisor, Segurança Segura
“Como a IA continua a transformar as indústrias, garantir esses sistemas de ataques sofisticados e únicos de segurança cibernética é mais crítica do que nunca. O Databricks AI Safety Framework é um grande trunfo para as empresas liderarem de frente para a inovação e a segurança. Com o DASF, as empresas estão equipadas para entender melhor os riscos de IA e encontram as ferramentas e os recursos para mitigar esses riscos à medida que continuam a inovar. ” – Ian Swanson, CEO, proteja a IA
“Com o Databricks AI Safety Framework, podemos mitigar o risco de IA, de maneira cuidadosa e transparente, o que é inestimável para a construção de um quadro e a confiança dos funcionários. É um divisor de águas que nos permite trazer a IA para o negócio e estar entre os 15% das organizações que recebem cargas de trabalho de IA para a produção com segurança e com confiança. ” – Banco Comunitário Costeiro
“Dentro do contexto de dados e IA, as conversas em torno da segurança são poucas. O Databricks AI Safety Framework aborda o lado frequentemente negligenciado do trabalho de IA e ML, servindo tanto como um guia melhor da categoria para não apenas entender os riscos de segurança da IA, mas também também como atenuá -los. ” – Josue A. Bogran, arquiteto da Kythera Labs & Advisor do Sunnydata.ai
“Utilizamos a estrutura de segurança da AI Databricks para ajudar a aprimorar a postura de segurança de nossa organização para gerenciar riscos de segurança de ML e IA. Com o Databricks AI Safety Framework, agora estamos mais confiantes em explorar possibilidades com IA e análise de dados, garantindo que tenhamos as medidas adequadas de governança de dados e segurança.
Faça o obtain do Databricks AI Safety Framework 2.0 hoje!
O Databricks AI Safety Framework 2.0 e seu compêndio (Folha do GoogleAssim, Excel) agora estão disponíveis para obtain. Para aprender sobre o próximo Oficinas de risco de IA ou para solicitar um workshop pessoal ou digital dedicado para sua organização, entre em contato conosco em (E-mail protegido) ou sua equipe de conta. Também temos conteúdo adicional de liderança de pensamento em breve para fornecer mais informações sobre o gerenciamento da governança da IA. Para obter mais informações sobre como gerenciar os riscos de segurança da IA, visite o Databricks Safety and Belief Middle.