O cenário de segurança está passando por mais uma grande mudança, e em nenhum lugar isso foi mais evidente do que em Black Hat EUA 2025. À medida que a inteligência synthetic (especialmente a variedade agêntica) se torna profundamente incorporada aos sistemas corporativos, está criando desafios e oportunidades de segurança. Aqui está o que os profissionais de segurança precisam saber sobre essa paisagem em rápida evolução.
Os sistemas de IA – e particularmente os assistentes de IA que se tornaram essenciais aos fluxos de trabalho corporativos – estão emergindo como alvos principais para os atacantes. Em uma das apresentações mais interessantes e assustadoras, Michael Bargury of Zenity demonstrou anteriormente desconhecido Métodos de exploração “0Click” afetando as principais plataformas de IA, incluindo ChatGPT, Gemini e Microsoft Copilot. Essas descobertas enfatizam como os assistentes de IA, apesar de suas medidas robustas de segurança, podem se tornar vetores para comprometer o sistema.
A IA Safety apresenta um paradoxo: À medida que as organizações expandem os recursos de IA para melhorar a produtividade, elas devem necessariamente aumentar o acesso dessas ferramentas a dados e sistemas sensíveis. Essa expansão cria novas superfícies de ataque e cadeias de suprimentos mais complexas para se defender. A equipe AI Pink da NVIDIA destacou essa vulnerabilidade, revelando como Os grandes modelos de linguagem (LLMs) são exclusivamente suscetíveis a insumos maliciosose demonstrou várias novas técnicas de exploração que aproveitam essas fraquezas inerentes.
No entanto, não é tudo um novo território. Muitos princípios de segurança tradicionais permanecem relevantes e são, de fato, mais cruciais do que nunca. Nathan Hamiel e Nils Amiet of Kudelski Safety mostrou como as ferramentas de desenvolvimento movidas a IA são Reintroduzindo inadvertidamente vulnerabilidades bem conhecidas em aplicações modernas. Suas descobertas sugerem que as práticas básicas de segurança de aplicativos permanecem fundamentais para a segurança da IA.
Olhando para o futuro, a modelagem de ameaças se torna cada vez mais crítica, mas também mais complexa. A comunidade de segurança está respondendo com novas estruturas projetadas especificamente para sistemas de IA, como o Maestro e a estrutura de gerenciamento de riscos da AI do NIST. O Owasp Agentic Safety Prime 10 Challengelançado durante a conferência deste ano, fornece uma abordagem estruturada para entender e abordar os riscos de segurança específicos da IA.
Para os profissionais de segurança, o caminho a seguir requer uma abordagem equilibrada: manter fundamentos fortes e desenvolver novos conhecimentos em desafios de segurança específicos da IA. As organizações devem reavaliar sua postura de segurança através desta nova lente, considerando as vulnerabilidades tradicionais e as ameaças emergentes específicas da IA.
As discussões no Black Hat USA 2025 deixaram claro que, embora a IA apresente novos desafios de segurança, também oferece oportunidades de inovação em estratégias de defesa. A palestra de abertura de Mikko Hypponen apresentou um perspectiva histórica nos últimos 30 anos de avanços de segurança cibernética e concluiu que a segurança não é apenas melhor do que nunca, mas está pronta para alavancar uma vantagem no uso da IA. O Black Hat tem uma maneira de ressaltar as razões de preocupação, mas tomada como um todo, as apresentações deste ano nos mostram que também existem muitas razões para serem otimistas. O sucesso particular person dependerá de como as equipes de segurança podem adaptar suas práticas existentes, adotando novas abordagens projetadas especificamente para os sistemas de IA.