Subscrever Newsletter - Mantenha-se atualizado sobre tudo o que se passa no sistema financeiro.

Subscrever Newsletter

Mantenha-se atualizado sobre tudo o que se passa no sistema financeiro.

Submeter

Ao subscrever aceito a Política de Privacidade

5 min leitura

BCE tem várias reservas sobre proposta da Comissão para simplificação de regras em matéria de IA

O supervisor bancário decidiu emitir um parecer de cinco páginas onde explica as dúvidas sobre a aplicação do novo regulamento

14 Mar 2026 - 09:20

5 min leitura

Foto: Adobe Stock/InfiniteFlow

Foto: Adobe Stock/InfiniteFlow

Em 19 de novembro de 2025, a Comissão Europeia publicou uma proposta de regulamento do Parlamento Europeu e do Conselho que altera os Regulamentos (UE) 2024/1689 e 2018/1139 no que respeita à simplificação da aplicação de regras harmonizadas em matéria de inteligência artificial (Digital Omnibus sobre IA).

Face às inúmeras questões que aquele diploma levanta, o Banco Central Europeu (BCE) decidiu emitir, por iniciativa própria, um parecer de cinco páginas, no qual levanta várias dúvidas e reservas sobre a proposta da Comissão.

Nesse parecer, divulgado esta semana, o BCE acolhe favoravelmente o mecanismo estabelecido no Regulamento da IA (AI Act), segundo o qual as instituições de crédito que cumprem a legislação da União em matéria de serviços financeiros são igualmente consideradas em conformidade com o AI Act.

No entanto, este mecanismo pode induzir os intervenientes no mercado em erro, levando-os a pensar que o BCE aplica o AI Act no exercício das suas funções de supervisão prudencial.

Para evitar esta impressão incorreta, o AI Act beneficiaria de uma delimitação clara entre as responsabilidades dos diferentes supervisores, uma vez que tanto o BCE como as autoridades de fiscalização do mercado são responsáveis pela supervisão dos requisitos de governação e dos riscos associados, ainda que a partir de perspetivas distintas.

Para garantir segurança jurídica e coerência com o Tratado, o BCE propõe esclarecer que o AI Act não prejudica os poderes conferidos ao BCE enquanto supervisor prudencial das instituições de crédito.

Outra das questões levantadas pela entidade presidida por Christine Lagarde diz respeito à utilização da IA na avaliação da solvabilidade de pessoas singulares ou na determinação da sua pontuação de crédito. Nesta vertente, o BCE alerta para o facto de os modelos utilizados pelas instituições financeiras para esses efeitos “serem intrinsecamente transparentes e interpretáveis”.

Ao mesmo tempo, os sistemas de IA destinados a avaliar a solvabilidade de pessoas singulares ou a determinar a sua pontuação de crédito devem ser considerados de elevado risco ao abrigo do AI Act. No entanto, ao abrigo do Regulamento (UE) 575/2013 do Parlamento Europeu e do Conselho (doravante designado «CRR»), os modelos internos desempenham um papel essencial no processo de aprovação de crédito e estão, consequentemente, estreitamente interligados com os modelos de pontuação de crédito.

Isto pode levar a uma situação em que os supervisores prudenciais, ao avaliarem o modelo interno, e a autoridade de fiscalização do mercado, ao avaliarem o modelo de pontuação de crédito, forneçam orientações diferentes e potencialmente conflitantes na sua supervisão.

Neste contexto, o BCE reitera que é necessária uma coordenação eficaz e troca de informação entre as autoridades de fiscalização do mercado e os supervisores prudenciais, de modo a promover a aplicação consistente dos requisitos sobrepostos previstos no AI Act e no CRR, e a assegurar uma proteção efetiva dos direitos fundamentais.

Outro apelo do BCE, no sentido de permitir a troca de informações entre as várias autoridades de supervisão, é que exista um envolvimento da EBA e da Autoridade Europeia dos Seguros e Pensões Complementares de Reforma (EIOPA) na elaboração de orientações e guias da Comissão, de modo a assegurar que as expectativas de supervisão específicas em matéria de IA estejam alinhadas com, e se baseiem em, a supervisão prudencial e comportamental já existente no setor financeiro.

Reguladores esperam mais transparência em relação à tomada de decisões automatizada

O parecer do BCE surge na mesma semana em que a organização UK Finance, que representa mais de 300 empresas do setor financeiro no Reino Unido, publicou um artigo intitulado “Inteligência artificial em serviços financeiros: equilibrando inovação e risco – por que o modelo operacional correto é mais importante do que nunca”, da autoria de Neil Shah, diretor de Estratégia de Desenvolvimento de Negócios da Board no Reino Unido.

No artigo, refere-se que “ao contrário da inovação na linha de frente, a área financeira administrativa está no cerne da responsabilidade regulatória. Demonstrações financeiras, cálculos de capital e submissões regulatórias devem ser precisos, auditáveis e defensáveis. A introdução da IA nesses processos levanta uma questão imediata: como podem as organizações aproveitar os ganhos de eficiência da IA sem se expor a riscos regulatórios, operacionais e reputacionais?”

Neil Shah acrescenta que, “se os funcionários começarem a utilizar automaticamente reconciliações, análises ou previsões geradas por IA sem compreender as premissas subjacentes, a eficácia dos controlos fica comprometida”, acrescentando que “os reguladores esperam cada vez mais transparência em relação à tomada de decisões automatizada. As áreas de finanças devem manter uma documentação clara da lógica do modelo, da linhagem dos dados e dos pontos de intervenção humana para demonstrar a integridade dos controlos”.

Subscrever Newsletter

Mantenha-se atualizado sobre tudo o que se passa no sistema financeiro.

Ao subscrever aceito a Política de Privacidade