Subscrever Newsletter - Mantenha-se atualizado sobre tudo o que se passa no sistema financeiro.

Subscrever Newsletter

Mantenha-se atualizado sobre tudo o que se passa no sistema financeiro.

Submeter

Ao subscrever aceito a Política de Privacidade

5 min leitura

IA já está em 75% das instituições financeiras, mas governação ainda é deficiente

Estudo da Zango AI entrevistou 27 gestores executivos; responsáveis seniores do Novo Banco, Santander, Revolut, entre outros, participaram nos trabalhos

29 Abr 2026 - 11:00

5 min leitura

Banca e seguros apostam na IA/Foto: Freepick

Banca e seguros apostam na IA/Foto: Freepick

Cerca de 75% das instituições financeiras já utilizam inteligência artificial (IA), mas o setor continua sem conseguir governá-la de forma eficaz, criando um desfasamento crescente entre a adoção tecnológica e a supervisão. Esta é a principal conclusão do estudo internacional “The Future of AI Governance & Compliance in Financial Services”, coordenado pela Zango AI e apresentado na Câmara dos Lordes, no Reino Unido, nesta quarta-feira.

Segundo um comunicado da empresa, “o estudo conclui que a indústria financeira está a implementar sistemas de IA mais rapidamente do que consegue estabelecer mecanismos de governação adequados, num contexto em que a tecnologia já está integrada em funções críticas como a gestão de risco, o compliance e a tomada de decisão”.

A investigação foi realizada através de entrevistas a 27 membros da direção executiva e líderes seniores nas áreas de risco, conformidade e governação da IA em instituições financeiras do Reino Unido e da Europa, bem como através de quatro mesas-redondas do setor, que envolveram mais 60 profissionais seniores. Entre os colaboradores do relatório contam-se líderes seniores do Novo Banco, Santander, Stripe, St. James’s Place, Standard Chartered, Lloyds Banking Group, Monzo, Allica Bank, Commerzbank, Revolut e Ecommpay.

Apesar da existência de enquadramentos regulatórios como o EU AI Act, na União Europeia, ou da abordagem baseada em princípios seguida no Reino Unido, o estudo conclui que falta uma camada intermédia que traduza estes princípios em práticas operacionais claras, auditáveis e escaláveis.

“Os modelos de governação atualmente utilizados foram, em grande medida, concebidos para sistemas mais estáticos e determinísticos, revelando limitações quando aplicados a sistemas de inteligência artificial mais adaptativos e, progressivamente, autónomos”, refere a empresa.

As organizações criminosas já estão a explorar essa lacuna: as perdas globais decorrentes de fraudes atingiram 579 mil milhões de dólares em 2025, com 90% dos profissionais do setor financeiro a reportarem um aumento nos ataques que utilizam inteligência artificial.

Archit Chamaria, Chief Data and Analytics Officer do Novo Banco, adverte: “Se não recorrermos à IA para combater ameaças que são, elas próprias, baseadas em IA, as ferramentas tradicionais deixarão de ser suficientes. Como setor, desenvolvemos normas e métodos de trabalho comuns para nos protegermos contra o risco de crédito, o risco de mercado e o risco operacional; precisamos de fazer o mesmo em relação às ameaças baseadas em IA. Sem uma norma de referência, as instituições tornam-se alvos individuais para agentes maliciosos, com consequências que recaem, em última instância, sobre as pessoas e os sistemas que existimos para servir.”

O relatório identifica duas lacunas principais nas instituições financeiras: por um lado, um défice de competências nas funções responsáveis pela supervisão, nomeadamente risco e compliance, que limita a sua capacidade de acompanhar a evolução tecnológica; por outro, a ausência de standards setoriais que traduzam requisitos regulatórios em processos concretos de implementação.

“O setor financeiro enfrenta atualmente um «défice de governação», em que o ritmo da inovação em IA está simplesmente a ultrapassar a velocidade da supervisão. Sem uma norma operacional comum, estamos inadvertidamente a criar vulnerabilidades sistémicas no cerne da nossa infraestrutura financeira. Temos de ir além dos princípios de alto nível e avançar para um manual prático, liderado pelo setor, que garanta que a segurança não seja sacrificada em nome da rapidez”, afirma Ritesh Singhania, CEO e cofundador da Zango AI.

“Esta realidade está a levar muitas instituições a adaptarem frameworks existentes — como model risk ou governação de produto — para integrar a IA, sem um referencial comum que defina critérios mínimos ou responsabilidades claras entre as diferentes linhas de defesa”, acrescenta o comunicado.

Neste contexto, o estudo defende uma abordagem liderada pelo setor, em colaboração com as entidades reguladoras, para desenvolver normas comuns de governação da IA, à semelhança do precedente bem-sucedido do Reino Unido, representado pelo modelo do Joint Money Laundering Steering Group (JMLSG), uma norma desenvolvida pelo setor para a conformidade em matéria de criminalidade financeira, que conta com o apoio do Governo, sem ser imposta pelas entidades reguladoras.

Nos Estados Unidos, este movimento já começou a ganhar forma com o lançamento, em fevereiro de 2026, de um Financial Services AI Risk Management Framework, desenvolvido por mais de uma centena de instituições financeiras em colaboração com entidades públicas. Até ao momento, não existe uma iniciativa comparável no Reino Unido ou na União Europeia.

Subscrever Newsletter

Mantenha-se atualizado sobre tudo o que se passa no sistema financeiro.

Ao subscrever aceito a Política de Privacidade