O crime cibernético impulsionado pela IA está aumentando. Os EUA perderam US$ 16,6 bilhões em 2024.


Tive a sorte de passar vários dias na semana passada no Cúpula Crosscurrent do Aspen Institute sobre IA e segurança nacional em São Francisco. Minha primeira lição: eu recomendo fortemente estar na ensolarada (no momento, pelo menos) São Francisco, em vez da lamacenta e crua Nova York no início de março. O segundo demorou um pouco mais para se formar.

A conferência estava repleta de ex-funcionários de segurança nacional, executivos de segurança cibernética e líderes de IA, e a conversa foi principalmente para onde você esperaria: o Luta Antrópico-Pentágono, o papel da IA ​​no conflito do Irãa vinda de armas autônomas. Mas o painel que me marcou foi sobre algo menos dramático. Tratava-se de algo quase antiquado, agora turbinado pela IA: fraudes.

A certa altura, Todd Hemmen, vice-diretor assistente da divisão de Capacidades Cibernéticas da Divisão Cibernética do FBI, descreveu como Operativos norte-coreanos estão usando sobreposições faciais geradas por IA passar em entrevistas de emprego remotas em empresas de tecnologia ocidentais – e depois trabalhar em vários cargos remotos simultaneamente, canalizando os salários e qualquer informação de volta ao regime de Pyongyang. Eles fabricam currículos com IA, preparam-se para entrevistas com IA e usam a IA para vestir o “rosto de alguém que não é a pessoa por trás da câmera”, disse Hemmen ao público. Alguns dos intervenientes mais competentes mantêm vários empregos a tempo inteiro ao mesmo tempo, todos sob identidades falsas, todos possibilitados por ferramentas que não existiam há dois anos.

Esse detalhe tem agitado minha cabeça desde então, até porque me fez pensar como esses trabalhadores diligentes conseguem administrar vários trabalhos quando considero que apenas um é cansativo o suficiente. Mas a história de Hemmen captura algo mais profundo sobre o momento em que nos encontramos. Os riscos de IA que recebem mais tempo de transmissão neste momento são especulativos e cinematográficos – robôs assassinos, panópticos de IA. Mas a ameaça da IA ​​que está aqui agora mesmo é um agente estrangeiro com rosto sintético em uma ligação da Zoom, recebendo um contracheque de sua empresa. E quase ninguém trata isso com a mesma urgência.

Como o crime cibernético ficou pior do que nunca

O cibercrime tem sido um problema desde os tempos da ligação telefónica, mas a escala do que está a acontecer agora é impressionante. O FBI informou que os EUA sofreram US$ 16,6 bilhões em perdas conhecidas por crimes cibernéticos em 2024 — aumentou 33% num único ano e mais do que duplicou em três anos. Os americanos com mais de 60 anos perderam quase US$ 5 bilhões. E esses são apenas os números divulgados; Alice Marwick, diretora de pesquisa da Knowledge & Society, disse ao público do Aspen Institute que apenas uma em cada cinco vítimas denuncia um golpe. O número actual é incognoscível, mas é muito pior.

E agora vem a IA generativa para tornar tudo isso mais rápido, mais barato e mais convincente. Os e-mails de phishing não chegam mais repletos de erros de digitação de supostos príncipes nigerianos; Os LLMs podem produzir uma linguagem fluente e específica da região. Os geradores de imagens de IA podem criar identidades sintéticas inteiras – dezenas de fotos de uma pessoa que não existe, completas com fotos de férias e bolsas de grife.

A clonagem de voz permitiu assaltos que eram ficção científica há cinco anos: no início de 2024, um funcionário financeiro do escritório de Hong Kong da empresa de engenharia britânica Arup transferiu US$ 25 milhões após uma videochamada deepfake em que o CFO da empresa e vários colegas pareciam aparecer na tela. Acontece que todos eles eram falsos. Relatório de ameaças globais de 2026 da CrowdStrike descobriram que os ataques habilitados por IA aumentaram 89% ano após ano, enquanto o tempo médio desde a violação inicial até a capacidade de se espalhar por uma rede caiu para apenas 29 minutos. A fuga mais rápida observada: 27 segundos.

A ciberofensa da IA ​​vencerá a ciberdefesa da IA?

Por que esse problema é tão comparativamente negligenciado? Em parte porque normalizamos isso. O crime cibernético vem crescendo há anos, impulsionado pela profissionalização de sindicatos criminosos, criptomoeda, trabalho remoto e industrialização de compostos fraudulentos no Sudeste Asiático. (Meu colega da Vox, Josh Keating escreveu uma ótima história alguns anos atrás, sobre esses chamados golpes de abate de porcos.)

Absorvemos as perdas recordes de cada ano como o custo de fazer negócios on-line. Mas a curva está a acentuar-se: a Deloitte prevê que as perdas por fraudes geradas pela IA só nos EUA poderão atingir US$ 40 bilhões até 2027. “Da mesma forma que as empresas legítimas estão integrando a automação, o crime organizado também o está”, disse Marwick.

O fato de muito disso não ser dito nem relatado aumenta o preço. A pesquisa de Marwick se concentra em golpes de romance – pessoas visadas durante períodos de solidão ou transição, lentamente sangrando suas economias por alguém que acreditam as ama. Ela disse ao público que as vítimas muitas vezes se recusam a acreditar que estão sendo enganadas, mesmo quando confrontadas com provas diretas. A IA torna a manipulação emocional muito mais persuasiva e nenhum filtro de spam protegerá alguém que envia dinheiro voluntariamente.

A defesa consegue acompanhar? Marwick fez uma comparação esperançosa com o spam, que quase quebrou o e-mail na década de 1990, antes que uma combinação de soluções técnicas, legislação e adaptação social o domesticasse, pelo menos em grande medida. As instituições financeiras estão a implementar IA para detectar fraudes possibilitadas pela IA. O FBI congelou centenas de milhões em fundos roubados no ano passado.

Mas o consenso na conferência foi em grande parte sombrio. “Estamos entrando nesta janela de tempo em que o ataque é muito mais capaz do que a defesa”, disse Rob Joyce, ex-diretor de segurança cibernética da Agência de Segurança Nacional. Marwick foi mais direto: “Eu diria que em geral sou bastante pessimista”.

Eu também. Enquanto escrevia esta história, recebi um e-mail de um amigo com o que parecia ser um convite do Paperless Put up. A linguagem do e-mail parecia um pouco estranha, mas quando cliquei no convite, fui levado a uma página que parecia muito semelhante ao Paperless Put up, até o logotipo. Ainda desconfiado, enviei um e-mail para meu amigo perguntando se isso period actual. “Sim, é legítimo”, ele respondeu.

Isso foi prova suficiente para mim, mas me distraí e não cliquei na próxima etapa do convite. Ainda bem – alguns minutos depois, meu amigo enviou um e-mail para mim e para outras pessoas para nos dizer que, sim, ele havia sido hackeado.

Uma versão desta história apareceu originalmente no Futuro Perfeito boletim informativo. Inscreva-se aqui!

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *