A IA está em toda parte. Dimensioná-lo nas finanças requer responsabilidade mais profunda


A IA está em toda parte. Dimensioná-lo nas finanças requer responsabilidade mais profunda

(denvitruk/Shutterstock)

A IA varreu quase todos os sectores e agora as finanças estão no meio do seu momento de IA, com promessas de revolucionar processos críticos como a decisão de crédito e a avaliação de risco. Uma das maiores diferenças é que a margem de erro nas finanças é mínima. Uma transação classificada incorretamente pode desencadear a negação injusta de um empréstimo. Um algoritmo tendencioso pode perpetuar desigualdades sistêmicas. Uma violação de segurança pode expor os dados mais confidenciais de milhões de clientes.

Isso não impede as organizações de mergulharem de cabeça para ver o que a IA pode fazer por elas. De acordo com a KPMGquase 88% das empresas americanas estão a utilizar IA nas finanças, com 62% a implementá-la em grau moderado ou elevado. No entanto, poucos estão realmente a optimizar o seu potencial. Para tirar o máximo partido da IA, o que normalmente significa expansão, as instituições têm de o fazer de forma responsável. Embora outras indústrias possam se dar ao luxo de iterar e aprender com os erros, o setor financeiro exige acertar desde o início.

As apostas são fundamentalmente diferentes aqui. Quando a IA falha nas finanças, ela não apenas incomoda os usuários ou produz resultados abaixo da média. Afeta a capacidade das pessoas de garantir habitação, iniciar negócios ou enfrentar emergências financeiras. Estas consequências exigem uma abordagem diferente à implementação da IA, em que a precisão, a justiça e a transparência não sejam reflexões posteriores, mas sim requisitos fundamentais.

Eis o que os líderes das instituições financeiras precisam considerar à medida que progridem nas implantações de IA.

Construindo IA em escala sem atalhos

McKinsey uma vez previu que a IA no sector bancário poderia gerar um valor anual entre 200 e 340 mil milhões de dólares “se os casos de utilização fossem totalmente implementados”. Mas você não pode chegar lá durante a noite. A escalabilidade de um modelo promissor treinado em um pequeno conjunto de dados para um sistema pronto para produção que atende milhares de chamadas de API diariamente requer disciplina de engenharia que vai muito além da prototipagem inicial.

(Gumbariya/Shutterstock)

Primeiro você precisa entender onde seus dados estão armazenados atualmente. Depois de saber sua localização e como acessá-la, a verdadeira jornada começa com o pré-processamento dos dados, sem dúvida a fase mais crítica e negligenciada. As instituições financeiras recebem dados de vários fornecedores, cada um com diferentes formatos, padrões de qualidade e requisitos de segurança. Antes de qualquer modelagem poder começar, esses dados devem ser limpos, protegidos e disponibilizados aos cientistas de dados. Mesmo quando as instituições especificam que nenhuma informação de identificação pessoal deve ser incluída, algumas inevitavelmente escapam, exigindo sistemas automatizados de detecção e mascaramento.

A verdadeira complexidade surge durante a transição do treinamento do modelo para a implantação. Os cientistas de dados trabalham com conjuntos de dados pequenos e selecionados para provar a viabilidade de um modelo. Mas pegar esse protótipo e implantá-lo por meio de pipelines automatizados, onde não ocorre nenhuma intervenção humana entre a entrada de dados e a resposta da API, exige uma abordagem de engenharia completamente diferente.

O design que prioriza a API torna-se essencial porque oferece consistência e padronização – garantindo contratos claros, estruturas de dados uniformes e tratamento confiável de erros. Essa abordagem permite o desenvolvimento paralelo entre equipes, facilita a extensão dos sistemas e fornece um contrato estável para integrações futuras. Esta repetibilidade é essential para aplicações financeiras, como avaliação de risco de crédito, geração de pontuações de fluxo de caixa ou avaliação de resumos de saúde financeira, e separa a IA experimental de sistemas de nível de produção que podem lidar com milhares de solicitações simultâneas sem comprometer a precisão ou a velocidade.

Proteção contra preconceitos e resultados injustos

A IA financeira enfrenta um desafio único, na medida em que os dados financeiros tradicionais podem perpetuar desigualdades históricas. A pontuação de crédito tradicional excluiu sistematicamente certas populações e, sem uma seleção cuidadosa de recursos, os modelos de IA podem amplificar esses preconceitos.

A solução requer rigor técnico e supervisão ética. Durante o desenvolvimento do modelo, características como a idade, o género e outros indicadores demográficos devem ser explicitamente excluídos, mesmo que o pensamento tradicional diga que estão correlacionados com a solvabilidade. Os modelos são excelentes na descoberta de padrões ocultos, mas não conseguem distinguir entre correlação e causalidade ou entre precisão estatística e igualdade social.

Os mutuários de arquivos finos ilustram perfeitamente esse desafio. Esses indivíduos não possuem históricos de crédito tradicionais, mas podem ter dados de transações ricos que demonstrem responsabilidade financeira. UM Análise do Departamento de Proteção Financeira do Consumidor de 2022 descobriram que os modelos tradicionais resultaram em uma probabilidade 70% maior de rejeição para consumidores de arquivos finos que eram, na verdade, de baixo risco, um grupo denominado “primos invisíveis”.

(Phongphan/Shutterstock)

A IA pode ajudar a expandir o acesso ao crédito, analisando dados não tradicionais ao nível das transações, como padrões salariais, comportamentos de consumo e movimentos de dinheiro entre contas. Mas isso requer sistemas de categorização sofisticados que possam analisar as descrições das transações. Quando alguém faz uma transferência recorrente para uma conta poupança ou uma transferência recorrente para uma plataforma de jogos de azar, os padrões de transação podem parecer semelhantes, mas as implicações para a solvabilidade são muito diferentes.

Este nível de categorização requer refinamento contínuo do modelo. São necessários anos de iteração para alcançar a precisão necessária para decisões de empréstimo justas. O processo de categorização torna-se cada vez mais intrusivo à medida que os modelos aprendem a distinguir entre diferentes tipos de comportamento financeiro, mas esta compreensão granular é essencial para a tomada de decisões de crédito equitativas.

A dimensão negligenciada: segurança

Embora muitas instituições financeiras falem sobre a adoção da IA, poucas discutem como protegê-la. O entusiasmo pela “adoção de IA” e pela “IA agente” ofuscou as considerações fundamentais de segurança. Este descuido torna-se particularmente perigoso em ambientes SaaS, onde qualquer pessoa pode inscrever-se em serviços de IA.

As regulamentações por si só não resolverão os riscos de uso indevido ou vazamento de dados. A governança proativa e os controles internos são essenciais. As instituições financeiras precisam de políticas claras que definam o uso aceitável de IA, como padrões ISO e conformidade com SOC 2. A privacidade dos dados e os protocolos de tratamento também são cruciais para proteger as informações financeiras dos clientes.

A tecnologia construída para o bem pode facilmente tornar-se uma ferramenta para maus atores. Às vezes, os tecnólogos não consideram totalmente o potencial uso indevido daquilo que criam. De acordo com o Centro de Serviços Financeiros da Deloittea IA poderia permitir que as perdas por fraude atingissem 40 mil milhões de dólares nos EUA até 2027, mais do que o triplo dos 12,3 mil milhões de dólares de 2023 em perdas por fraude. O sector financeiro deve manter vigilância sobre a forma como os sistemas de IA podem ser comprometidos ou explorados.

Onde a IA responsável pode mover a agulha

Utilizada de forma responsável, a IA pode ampliar o acesso a decisões de empréstimo mais justas, incorporando dados ao nível das transações e sinais de saúde financeira em tempo actual. A chave reside na construção de sistemas explicáveis ​​que possam articular o seu processo de tomada de decisão. Quando um sistema de IA nega ou aprova um pedido de empréstimo, tanto o requerente como a instituição mutuante devem compreender o porquê.

Esta transparência satisfaz os requisitos regulamentares, permite a gestão de riscos institucionais e constrói a confiança do consumidor. Mas também cria restrições técnicas que não existem em outras aplicações de IA. Os modelos devem manter a interpretabilidade sem sacrificar a precisão, um equilíbrio que requer decisões cuidadosas de arquitetura.

A supervisão humana também deve continuar a ser essencial. UM Relatório Asana de 2024 descobriram que 47% dos funcionários temiam que suas organizações estivessem tomando decisões com base em informações não confiáveis ​​coletadas da IA. Nas finanças, essa preocupação é de importância existencial. O objetivo não é desacelerar a adoção da IA, mas garantir que a velocidade não comprometa o julgamento.

O dimensionamento responsável significa construir sistemas que aumentem a tomada de decisão humana, em vez de substituí-la totalmente. Os especialistas do domínio que compreendem tanto as capacidades técnicas como as limitações dos modelos de IA, bem como o contexto regulamentar e empresarial em que operam, devem ter competência para intervir, questionar e anular decisões de IA quando as circunstâncias o justificarem.

A adoção da IA ​​pode estar a acelerar nas finanças, mas sem explicabilidade, justiça e segurança, corremos o risco de o crescimento ultrapassar a confiança. A próxima vaga de inovação nas finanças será julgada não apenas pela sofisticação tecnológica, mas também pela forma responsável como as empresas dimensionam estas capacidades. As instituições que ganharão a confiança dos clientes serão aquelas que entendem que a forma como você escala é tão importante quanto a rapidez com que você o faz.

Sobre o autor: Rajini Carpenter, CTO do Carrington Labs, tem mais de 23 anos de experiência em tecnologia da informação e no setor financeiro, com experiência em segurança de TI, governança e risco de TI e arquitetura e engenharia. Ele liderou o desenvolvimento de soluções tecnológicas de classe mundial e experiências de clientes centradas no cliente, anteriormente ocupando as funções de vice-presidente de engenharia na Vice e chefe de engenharia, gestão de patrimônio na Iress, antes de ingressar na Beforepay. Rajini também é Diretor do Conselho da Judo NSW.


Itens Relacionados

Deloitte: Confiança surge como principal barreira à adoção de IA por agentes em finanças e contabilidade

IA na Cúpula Financeira Londres 2025

Como a IA e o ML mudarão o planejamento financeiro



Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *