

Os avanços na inteligência synthetic continuam a dar aos desenvolvedores uma vantagem na produção de código com eficiência, mas desenvolvedores e empresas não podem esquecer que é uma vantagem que sempre pode cortar os dois sentidos.
A mais recente inovação é o advento da IA Agentic, que traz automação e tomada de decisão para tarefas complexas de desenvolvimento. Ai Agentic pode ser acoplado ao recentemente de código aberto Modelo Protocolo de contexto (MCP), um protocolo divulgado pela Antrópico, fornecendo um padrão aberto para orquestrar conexões entre assistentes de IA e fontes de dados, simplificando o trabalho das equipes de desenvolvimento e segurança, que podem turboar a produtividade que a IA já acelerou.
Os concorrentes do antropic têm diferente “MCP-likeOs protocolos entrando no espaço e, como está, a Web em geral ainda não determina um “vencedor” desta corrida de software program. O MCP é antropia para conexões de AI para ferramentas. A2A é o Google e também facilita seu próprio protocolo ai-ai.
Mas, como vimos com IA generativa, essa nova abordagem para acelerar a produção de software program vem com advertências. Se não for cuidadosamente controlado, ele pode introduzir novas vulnerabilidades e ampliar as existentes, como vulnerabilidade para solicitar ataques de injeção, a geração de código inseguro, exposição ao acesso não autorizado e vazamento de dados. A natureza interconectada dessas ferramentas expande inevitavelmente a superfície de ataque.
Os líderes de segurança precisam dar uma olhada em como esses riscos afetam seus negócios, certificando -se de entender as vulnerabilidades em potencial que resultam do uso de IA e MCP agênticos e tomam as medidas necessárias para minimizar esses riscos.
Como a IA Agentic trabalha com o MCP
Depois que a IA generativa conquistou o mundo pela tempestade a partir de novembro de 2022 com o lançamento do ChatGPT, a IA Agentic pode parecer o próximo passo na evolução da IA, mas eles são duas formas diferentes de IA.
A Genai cria conteúdo, usando o Avançado de Machine Studying para recorrer aos dados existentes para criar texto, imagens, vídeos, música e código.
A IA Agentic trata de resolver problemas e fazer as coisas, usando ferramentas como aprendizado de máquina, processamento de linguagem pure e tecnologias de automação para tomar decisões e agir. A IA Agentic pode ser usada, por exemplo, em carros autônomos (respondendo a circunstâncias na estrada), a segurança cibernética (iniciando uma resposta a um ataque cibernético) ou atendimento ao cliente (oferecendo ajuda proativa aos clientes). No desenvolvimento de software program, a IA Agentic pode ser usada para escrever grandes seções de código, otimizar o código e solucionar problemas.
Enquanto isso, o MCP, desenvolvido pela Antrópico e introduzido em novembro de 2024, acelera o trabalho da IA agêntica e outros assistentes de codificação, fornecendo um padrão common aberto e aberto para conectar modelos de grandes idiomas (LLMS) com fontes e ferramentas de dados, permitindo que as equipes apliquem capacidades de IA em todo o ambiente, sem que tenham o código separado para cada ferramenta. Ao fornecer essencialmente uma linguagem comum para LLMs como ChatGPT, Gemini, Dall • E, Deepseek e muitos outros para se comunicar, aumenta muito a interoperabilidade entre os LLMs.
MCP é até apontado como uma maneira de melhorar a segurançaao fornecer uma maneira padrão de integrar recursos de IA e automatizar operações de segurança em toda a cadeia de ferramentas de uma organização. Embora tenha sido tratado como uma ferramenta de uso geral, o MCP pode ser usado pelas equipes de segurança para aumentar a eficiência, centralizando o acesso, adicionando interoperabilidade com ferramentas e aplicativos de segurança e fornecendo às equipes controle flexível sobre o qual os LLMs são usados para tarefas específicas.
Mas, como em qualquer nova ferramenta poderosa, as organizações não devem entrar cegamente nesse novo modelo de desenvolvimento sem dar uma olhada cuidadosa sobre o que poderia dar errado. Existe um perfil significativo de aumento dos riscos de segurança associados a ferramentas de codificação de IA agênticas nos ambientes corporativos, concentrando -se especificamente no MCP.
A produtividade é ótima, mas o MCP também cria riscos
Labs invariantes descobriram recentemente um vulnerabilidade crítica No MCP, que poderia permitir a exfiltração de dados por meio de injeções indiretas, um problema de alto risco que a invariante apelidou de ataques de “envenenamento por ferramentas”. Esse ataque incorpora código malicioso, instruindo um modelo de IA para executar ações não autorizadas, como acessar arquivos sensíveis e transmitir dados sem que o usuário esteja ciente. A invariante disse que muitos fornecedores e sistemas como OpenAI, Anthrópio, Cursor e Zapier são vulneráveis a esse tipo de ataque.
Além do envenenamento por ferramentas, como injeção imediata indireta, o MCP pode introduzir outras vulnerabilidades potenciais relacionadas à autenticação e autorização, incluindo permissões excessivas. O MCP também pode não ter registro e monitoramento robustos, essenciais para manter a segurança e o desempenho de sistemas e aplicativos.
As preocupações de vulnerabilidade são válidas, embora seja improvável que elas cotem a maré que se transfer em direção ao uso de IA e MCP agênticos. Os benefícios na produtividade são grandes demais para serem ignorados. Afinal, as preocupações com o código seguro sempre giraram em torno das ferramentas de codificação da Genai, que podem introduzir falhas no ecossistema de software program se os modelos Genai foram treinados inicialmente no software program de buggy. No entanto, os desenvolvedores ficaram felizes em fazer uso de assistentes de Genai de qualquer maneira. Em um Pesquisa recente Pela Stack Overflow, 76% dos desenvolvedores disseram que estavam usando ou planejados para usar ferramentas de IA. Isso aumenta de 70% em 2023, apesar do fato de que, durante o mesmo período, a visão dos desenvolvedores das ferramentas de IA como favorável ou muito favorável caiu de 77% para 72%.
A boa notícia para as organizações é que, assim como os assistentes de codificação da Genai, as ferramentas de IA agênticas e as funções MCP podem ser alavancadas com segurança, desde que os desenvolvedores qualificados por segurança lidam com eles. O principal fator de risco emergente aqui é que a supervisão humana qualificada é não A escala em qualquer lugar perto da taxa de adoção de ferramentas de IA agêntica, e essa tendência deve correção de curso, Pronto.
A educação e o gerenciamento de riscos dos desenvolvedores são a chave
Independentemente das tecnologias e ferramentas em jogo, a chave para a segurança em um ambiente digital altamente conectado (que é praticamente todo ambiente hoje em dia) é o ciclo de vida de desenvolvimento de software program (SDLC). As falhas no nível do código são um dos principais alvos dos cibertackers e a eliminação dessas falhas depende de garantir que as práticas de codificação seguras sejam de Rigeur no SDLC, que são aplicados desde o início do ciclo de desenvolvimento.
Com a assistência da IA, é uma possibilidade actual que finalmente veremos a erradicação de vulnerabilidades de longa knowledge, como injeção de SQL e scripts cruzados (XSS) após décadas, assombrando todos os relatórios pentest. No entanto, a maioria das outras categorias de vulnerabilidades permanecerá, especialmente aquelas relacionadas a falhas de design, e inevitavelmente veremos novos grupos de vulnerabilidades transmitidas pela IA à medida que a tecnologia avança. Navegar nessas questões depende de desenvolvedores com reconhecimento de segurança com as habilidades para garantir, tanto quanto possível, que tanto o código que eles criam e o código gerado pela IA são seguros desde o início.
As organizações precisam implementar programas contínuos de educação e upsekcilling que dão aos desenvolvedores as habilidades e ferramentas necessárias para trabalhar com equipes de segurança para mitigar falhas no software program antes que possam ser lançadas no ecossistema. Um programa deve usar os benchmarks para estabelecer as habilidades de linha de base que os desenvolvedores precisam e medir seu progresso. Deve ser a estrutura e a linguagem específica, permitindo que os desenvolvedores trabalhem em cenários do mundo actual com a linguagem de programação que eles usam no trabalho. As sessões interativas funcionam melhor, dentro de um currículo flexível o suficiente para se ajustar às mudanças nas circunstâncias.
E as organizações precisam confirmar que as lições dos programas de upskilling chegaram em casa, com os desenvolvedores colocando as melhores práticas seguras a serem usadas em rotina. Uma ferramenta que utiliza métricas de benchmarking para acompanhar o progresso de indivíduos, equipes e a organização em geral, avaliando a eficácia de um programa de aprendizado contra padrões internos e do setor, forneceria as idéias granulares necessárias para realmente mover a agulha é a mais benéfica. Os líderes de segurança corporativa precisam de uma visão fina das habilidades específicas dos desenvolvedores para cada código se comprometem ao mostrar como os desenvolvedores aplicam bem suas novas habilidades ao trabalho.
O desenvolvedor Upskilling provou ser eficaz para melhorar a segurança do software program, com nossas pesquisas mostrando que as empresas que implementaram a educação em desenvolvedores viram 22% a 84% menos vulnerabilidades de software program, dependendo de fatores como o tamanho das empresas e se o treinamento se concentrava em problemas específicos. Os desenvolvedores qualificados na segurança estão na melhor posição para garantir que o código gerado pela IA seja seguro, seja ele vem de assistentes de codificação da Genai ou das ferramentas de IA agênticas mais proativas.
O cartão draado dos modelos agênticos é sua capacidade de trabalhar autonomamente e tomar decisões de forma independente, e estes sendo incorporados a ambientes corporativos em escala sem a governança humana apropriada introduzirá inevitavelmente questões de segurança que não são particularmente visíveis ou fáceis de parar. Desenvolvedores qualificados que usam a IA com segurança terão imensos ganhos de produtividade, enquanto os desenvolvedores não qualificados simplesmente gerarão o caos de segurança em velocidade vertiginosa.
Os CISOs devem reduzir o risco de desenvolvedor e fornecer aprendizado contínuo e verificação de habilidades em seus programas de segurança para implementar com segurança a ajuda de agentes agênticos de IA.