Subscrever Newsletter - Mantenha-se atualizado sobre tudo o que se passa no sistema financeiro.

Subscrever Newsletter

Mantenha-se atualizado sobre tudo o que se passa no sistema financeiro.

Submeter

Ao subscrever aceito a Política de Privacidade

3 min leitura

NatWest reforça ética na inteligência artificial com código de conduta próprio

O responsável pela área de IA Responsável do banco britânico sublinha os riscos associados aos modelos algorítmicos e a importância de um quadro regulador interno para mitigar possíveis impactos negativos.

09 Mai 2025 - 15:25

3 min leitura

Paul Dongha responsável pela estratégia de IA do NatWest | Foto: NatWest

Paul Dongha responsável pela estratégia de IA do NatWest | Foto: NatWest

Numa altura em que a inteligência artificial (IA) assume um papel cada vez mais central nos serviços financeiros, o NatWest Group afirma-se como pioneiro na incorporação de princípios éticos no desenvolvimento e aplicação desta tecnologia. “Temos a responsabilidade de garantir que as decisões da IA são corretas e justas”, afirma Paul Dongha, diretor de IA Responsável do banco, sublinhando os riscos de enviesamento algorítmico.

Numa publicação do banco, Paul Dongha explica que o código de conduta está alinhado com os valores estratégicos do grupo e fornece diretrizes concretas aos engenheiros de IA, promovendo supervisão humana, robustez técnica, respeito pela privacidade e explicabilidade das decisões. Dongha afirma que “o código não é uma ideia abstrata; está incorporado na forma como desenhamos os sistemas e treinamos os modelos de IA”.

Desta feita, todas as aplicações significativas de IA passam por uma avaliação ética, com os casos de maior risco a serem analisados por um painel multidisciplinar interno. Este processo visa assegurar que as soluções tecnológicas não causam danos não intencionais e respeitam os direitos dos clientes.

Dongha acredita que a IA, quando utilizada de forma ética, pode recriar o vínculo de confiança tradicional entre cliente e banco. “Se for usada com responsabilidade, pode até reforçar as relações com os clientes, oferecendo interações mais personalizadas e relevantes”.

Paul Dongha sublinha os riscos associados aos modelos algorítmicos e a importância de um quadro regulador interno para mitigar possíveis impactos negativos.

Nomeadamente, a natureza probabilística da inteligência artificial levanta desafios particulares à banca, onde a robustez, a precisão e a imparcialidade dos sistemas de decisão são fundamentais. “Os modelos de IA operam com base em padrões nos dados de treino, o que pode levar a resultados imprevistos, incluindo enviesamentos não intencionais”, explica. Estes enviesamentos podem surgir, por exemplo, em decisões de concessão de crédito, influenciando injustamente os resultados.

Para responder a este risco, o banco criou um Código de Conduta Ético para IA e Dados, com princípios que regem tanto a forma como os dados dos clientes são tratados como o modo de desenvolvimento e aplicação dos sistemas algorítmicos.

Este código orienta os engenheiros da instituição através de princípios como supervisão humana obrigatória, explicabilidade dos resultados, cumprimento da legislação de privacidade e segurança técnica dos sistemas.

Cada nova aplicação de IA relevante passa por uma avaliação de impacto ético, conduzida por uma equipa dedicada. Em casos de risco elevado, o processo é analisado por um painel interno constituído por colaboradores de diferentes áreas do banco. Este painel avalia os chamados “casos-limite”, e sugere medidas de mitigação para reduzir o risco ético.

 

Subscrever Newsletter

Mantenha-se atualizado sobre tudo o que se passa no sistema financeiro.

Ao subscrever aceito a Política de Privacidade