Subscrever Newsletter - Mantenha-se atualizado sobre tudo o que se passa no sistema financeiro.

Subscrever Newsletter

Mantenha-se atualizado sobre tudo o que se passa no sistema financeiro.

Submeter

Ao subscrever aceito a Política de Privacidade

7 min leitura

Soberania em Inteligência Artificial (IA): o novo imperativo estratégico EUA, China e UE em disputa, empresas em (des)equilíbrio

Por Dina Rato, ROC e senior adviser em Governance, Risk & Compliance

05 Mai 2026 - 07:30

7 min leitura

Na nova ordem mundial multilateral, marcada por tensões geopolíticas e de soberania, a disputa pelo domínio trava-se também na Inteligência Artificial (IA), que requer uma gestão inteligente de (des)equilíbrios entre fomento da inovação, investimento, capacidade, talento e regulação; ou, numa perspetiva de soberania, a gestão de um sistema multidimensional de infraestrutura, dados, modelos, aplicações e talento. Neste sistema global assimétrico, será a soberania em IA apenas um tema de Estados ou torna-se também um desafio estratégico para as empresas?

Os Estados Unidos da América (EUA) têm liderado os avanços em IA, tendo a actual administração assumido como prioridade estratégica assegurar a liderança e soberania global em IA. De acordo com o Artificial Intelligence (AI) Index Report 2026, pela Stanford University, o investimento privado em IA nos EUA em 2025 ascendeu a 285,9 mil milhões de dólares, 23 vezes superior ao investimento privado em IA da China (12,4 mil milhões de dólares) e 13 vezes superior ao da União Europeia (UE) (20,92 mil milhões de dólares).

Mesmo considerando que o governo chinês canalizou para empresas de IA investimento de 184 mil milhões de dólares, via fundos de orientação governamental, entre 2000 e 2023, ainda assim muito aquém dos EUA.

Entre 2019 e 2025, o investimento privado dos EUA em IA generativa foi de 163,6 mil milhões de dólares, face a 3,21 mil milhões de dólares investidos pela UE, e 1,48 mil milhões pela China. Em 2025, os EUA revelam larga vantagem em infraestrutura global de centros de dados com 5427 centros, 10 vezes mais do que qualquer outro país, seguidos pela Alemanha (529), Reino Unido (523) e China (449). Contudo, não deixa de ser paradigmático que quase a totalidade dos chips mais avançados de IA seja fabricada por uma única empresa, a TSMC, uma fundição em Taiwan, o que revela a fragilidade e ultradependência de toda a cadeia global de fornecimento de hardware de IA (embora a expansão da TSMC nos EUA tenha já iniciado operações em 2025).

Na produção de modelos de IA relevantes os EUA lideram, com o lançamento de 50 modelos em 2025, seguidos pela China com 30. Apesar da proliferação de modelos e aplicações de IA, nos domínios específicos de tributação, finanças, litigação e argumentação legal, os benchmarks apresentados revelam taxas de fiabilidade dos modelos abaixo de 76%, 69%, 74% e 88%, respetivamente.

Os EUA destacam-se como o principal pólo em termos absolutos de investigadores, inventores e citações; a China, por sua vez, lidera em volume de publicações e patentes; e a Europa caracteriza-se por uma elevada densidade de talento per capita (p.ex: Suíça, Suécia, Finlândia, Países Baixos), contudo, não tem conseguido converter esse capital humano em produção tecnológica de ponta. No que toca à soberania de dados (i.e., ao grau em que os Estados ou atores locais têm capacidade de decisão sobre como os seus dados são recolhidos, armazenados, processados e transferidos) as medidas de localização de dados têm aumentado desde 2016, sendo que a Ásia Oriental e Pacífico (77 medidas) e a Europa e Ásia Central (66) são consideradas regiões de alta localização; enquanto a América do Norte (3) adota uma postura de livre circulação de dados (AI Index Report 2026); o que nos remete para o papel da regulação.

A regulação é essencial para proteger direitos e garantias, construir a sociedade desejada e estabelecer confiança entre partes interessadas, um valor indispensável às relações de negócios e à economia. Não obstante, é crucial reconhecer que diferenças significativas na regulação podem facilitar a arbitragem regulatória e criar entraves à inovação, à rapidez e à expansão económica numa economia global.

A UE assumiu a liderança regulatória, com o regime mais abrangente e estruturado: o “AI Act”, uma lei horizontal aplicável a múltiplos setores, que regula o ciclo de vida de sistemas e modelos de IA com base no risco, associa obrigações a níveis de risco independentemente da tecnologia, estabelece requisitos de transparência para conteúdo gerado por IA e tem alcance extraterritorial, aplicando-se a organizações fora da UE que coloquem ou utilizem sistemas no mercado europeu. A China desenvolveu um sistema fragmentado, mas altamente interventivo, baseado em regras específicas para usos concretos como IA generativa, deep synthesis, recomendação algorítmica e reconhecimento facial. O modelo enfatiza conteúdo, segurança nacional, estabilidade social e controlo da informação, combinando compliance técnico, governação de dados e controlo substantivo de outputs. Impõe requisitos rigorosos sobre dados de treino, incluindo o uso de fontes lícitas, respeito por propriedade intelectual, consentimento para dados pessoais e melhoria de qualidade, veracidade e diversidade. Em casos como edição de rosto, voz ou dados biométricos, exige consentimento explícito e identificação do conteúdo gerado por IA.

Os EUA operam com um modelo descentralizado, orientado para inovação, aprovisionamento público, aplicação de leis existentes e normas voluntárias, sem uma lei federal geral para o setor privado. Em 2025, revogaram a política anterior focada em segurança e direitos civis e emitiram uma nova ordem executiva que visa reduzir a fragmentação regulatória, incluindo revisão de leis estaduais consideradas restritivas ou inconsistentes, com possibilidade de limitação ou invalidação. No mesmo ano, aprovaram o “Take It Down Act”, que criminaliza a disseminação de imagens íntimas não consentidas, incluindo deepfakes.

O America’s AI Action Plan de 2025 reforça esta orientação pró-inovação ao criar o Chief Artificial Intelligence Officer Council, padronizar o aprovisionamento de IA no setor público com modelos contratuais, critérios e requisitos técnicos, e promover reutilização de soluções, partilha de infraestruturas e escalabilidade entre agências, reduzindo custos e acelerando a adoção. Posiciona assim o governo como utilizador ativo e sofisticado de IA e não apenas regulador. Globalmente, outros modelos regulatórios emergem (p.ex: Austrália, Canadá, Brasil), variando entre princípios e normas, abordagens baseadas em risco ou prescritivas, regimes abrangentes ou setoriais, e entre regulação ex ante e fiscalização ex post.

A complexidade e fragmentação regulatória, aliadas à expansão do risco, tornam insuficiente uma abordagem apenas de compliance. As empresas devem gerir os (des)equilíbrios da IA, entre inovação e risco, velocidade e segurança, custo e controlo; e os vários domínios de risco, por .exemplo: técnicos (falhas de desempenho), éticos e sociais (vieses e impacto), legais (incumprimento), de segurança (ciberataques e manipulação) e estratégicos (dependência de fornecedores e cadeias de valor). A operacionalização da governação da IA exige, em cada contexto, a definição de taxonomia de casos de uso, controlos baseados no risco, estruturas claras de governação, rastreabilidade e auditoria, e monitorização contínua do ambiente regulatório.

Se a soberania em IA é hoje um objetivo dos EUA, torna-se também um imperativo para as empresas. Contudo, não é homogénea: combina investimentos em infraestrutura, estratégias regulatórias distintas sobre dados e capacidades tecnológicas desiguais, criando um sistema global assimétrico. A dependência de modelos, dados, infraestrutura e fornecedores externos levanta questões críticas de controlo, continuidade e risco estratégico. Governar e posicionar a organização neste contexto assimétrico e volátil torna-se central, sendo vantagem competitiva a capacidade de gerir dependências, antecipar regimes regulatórios divergentes e transformar risco em alavanca estratégica, onde cada decisão (tecnológica, jurídica ou operacional) tem implicações geopolíticas, económicas e reputacionais.

Subscrever Newsletter

Mantenha-se atualizado sobre tudo o que se passa no sistema financeiro.

Ao subscrever aceito a Política de Privacidade