Skip to content
Caso de estudoPreçosSegurançaComparativoBlog

Europe

Americas

Oceania

Guia12 min de leitura

Deteção de fraude documental por IA: tipos, métodos e perspetivas 2026

Documentos sintéticos, deepfakes, recibos de vencimento gerados por IA: guia completo sobre tipos de fraude, métodos de deteção forense e enquadramento regulatório em 2026.

Equipe CheckFile
Equipe CheckFile·
Illustration for Deteção de fraude documental por IA: tipos, métodos e perspetivas 2026 — Guia

Resumir este artigo com

A fraude documental gerada por inteligência artificial consiste na criação ou alteração de documentos oficiais através de ferramentas de IA generativa — GAN, modelos de difusão latente, grandes modelos de linguagem — para produzir falsificações indistinguíveis de documentos autênticos sem análise algorítmica especializada. Em 2025, 12 % das tentativas de fraude documental detetadas na Europa envolvem documentos gerados ou modificados por IA, face a apenas 3 % em 2024 — uma multiplicação por quatro em menos de dezoito meses (dados CheckFile, corpus de 180.000 documentos mensais).

Este artigo tem carácter meramente informativo e não constitui aconselhamento jurídico, financeiro ou regulatório. As referências regulatórias são exatas à data de publicação.

A rapidez desta evolução deve-se à democratização das ferramentas generativas. Criar um recibo de vencimento visualmente convincente demora menos de dez minutos com plataformas de utilização geral. As organizações que ainda dependem do controlo visual humano estão estruturalmente ultrapassadas. Este guia aborda as principais categorias de fraude gerada por IA, os métodos de deteção disponíveis em 2026 e o enquadramento regulatório aplicável em Portugal e na União Europeia.

Tipos de fraude documental gerada por IA

A fraude documental por IA divide-se em quatro categorias segundo a tecnologia de geração utilizada e o tipo de documento visado.

Documentos de identidade sintéticos

Os documentos de identidade sintéticos são produzidos por redes generativas adversariais (GAN) ou modelos de difusão capazes de gerar cartões de cidadão, passaportes e cartas de condução que respeitam as especificações visuais dos documentos oficiais. A Agência da União Europeia para a Cibersegurança (ENISA) identificou em 2024 mais de 40 variantes de ferramentas de geração de documentos de identidade disponíveis em mercados da dark web (ENISA Threat Landscape 2024).

Estas ferramentas geram rostos fotorrealistas que não pertencem a nenhuma pessoa real, números de documento que passam os algoritmos de validação por dígito de controlo, e simulações de hologramas renderizadas em 3D. Os documentos fisicamente impressos a partir destes modelos ultrapassam frequentemente as verificações visuais básicas realizadas por pessoal não especializado.

Documentos financeiros gerados por IA

Os recibos de vencimento, extratos bancários, declarações de IRS e balanços contabilísticos são os principais alvos do fraude com IA no âmbito do crédito, arrendamento e contratação laboral. Em 2025, 31 % da fraude documental detetada pela CheckFile envolve recibos de vencimento falsificados ou gerados por IA, com uma proporção crescente a utilizar ferramentas generativas para produzir documentos coerentes em todos os campos: NIF do empregador, IBAN, valores e descontos.

Os grandes modelos de linguagem podem gerar recibos de vencimento sintaticamente corretos que incluem retenções de IRS precisas, contribuições para a Segurança Social ajustadas e referências ao código de atividade económica aplicável. Um LLM ajustado gera um recibo convincente em menos de trinta segundos.

Fraude de identidade sintética

A fraude de identidade sintética combina dados reais (por exemplo, um NIF autêntico) com informação fictícia para criar um perfil híbrido que não pertence a nenhuma pessoa real mas resiste à verificação contra bases de dados de identidade. Este tipo de fraude representa 42 % dos crimes de identidade reportados nos Estados Unidos segundo o relatório do Federal Reserve Bank de 2025 (Federal Reserve Bank, Synthetic Identity Fraud 2025).

Em Portugal, o Banco de Portugal emitiu em 2025 orientações específicas sobre os riscos de fraude de identidade sintética nos processos de onboarding digital das instituições financeiras, exigindo controlos proporcionados ao risco identificado (Banco de Portugal, Orientações AML 2025).

Deepfakes e falsificações multimédia

As falsificações documentais deepfake consistem na inserção de um rosto sintético num documento digitalizado autêntico, ou na criação de um vídeo de selfie sintético para contornar os sistemas de deteção de vivacidade. Os modelos modernos de geração facial (StyleGAN3, DALL-E 3, Stable Diffusion) produzem rostos indistinguíveis de fotografias autênticas sem análise algorítmica especializada.

O Código Penal português, no seu artigo 256.º, tipifica a falsificação de documentos com penas de prisão até três anos para os particulares que cometam falsificações com intenção fraudulenta (Código Penal Português, art. 256.º).

Tabela comparativa dos tipos de fraude IA

Tipo de fraude Tecnologia utilizada Documentos visados Dificuldade de deteção
Documento de identidade sintético GAN, modelo de difusão Cartão cidadão, passaporte, carta de condução Muito alta
Documento financeiro gerado LLM, modelos Recibos, extratos, balanços Alta
Identidade sintética híbrida Combinatória Perfis multi-documento Muito alta
Deepfake foto/vídeo Geração facial Fotos de identidade, selfies Alta
Documento modificado por IA Inpainting Qualquer tipo Média a alta

Métodos de deteção de fraude por IA

Detetar um documento gerado por IA exige técnicas forenses especializadas que vão além dos controlos visuais e do OCR standard. A CheckFile combina cinco níveis de análise para atingir uma taxa de deteção de 94,8 % com uma taxa de falsos positivos de 3,2 %.

Deteção de artefactos GAN e de difusão

Os modelos generativos deixam assinaturas estatísticas características nas imagens produzidas. Os modelos GAN produzem artefactos periódicos detetáveis no domínio das frequências — um pico espectral na frequência da grelha do gerador — ausente nas imagens autênticas. A análise por transformadas de Fourier ou CNN forenses ajustadas em corpus de documentos sintéticos e autênticos atinge taxas de precisão superiores a 90 % em imagens sem compressão excessiva.

Os modelos de difusão latente (Stable Diffusion, DALL-E) deixam padrões de ruído diferentes, detetáveis através de análise de ruído de difusão inversa. Estas técnicas, desenvolvidas inicialmente em investigação académica, estão agora integradas em plataformas forenses profissionais.

Análise de metadados e procedência técnica

Cada documento oficial autêntico tem uma impressão técnica: software de criação, cadeia de processamento, perfil de cor, resolução de origem. Um documento de identidade oficial produzido por uma gráfica governamental tem uma assinatura técnica radicalmente diferente de um ficheiro gerado por IA e impresso numa impressora doméstica.

A análise da cadeia de processamento (device fingerprinting) identifica a origem de um documento digital com uma precisão de 85 a 92 % conforme o tipo de documento. Os documentos gerados por IA apresentam sistematicamente anomalias: ausência de perfil ICC, cadeia de compressão atípica, metadados EXIF incoerentes com o tipo de documento declarado.

Para uma revisão completa das técnicas de deteção forense, consulte o nosso artigo sobre técnicas de deteção de fraude documental por IA.

Verificação cruzada de documentos

Um documento gerado por IA pode ser visualmente perfeito mas semanticamente incoerente com o restante processo. A verificação cruzada do conjunto de documentos de um processo deteta incoerências entre NIF, IBAN, morada, gerente e valores declarados com uma taxa de sucesso superior a 95 %. Um LLM pode gerar um recibo de vencimento coerente internamente, mas manter a coerência perfeita entre oito a doze documentos distintos ultrapassa as capacidades atuais dos geradores autónomos.

Deteção de vivacidade para documentos de identidade

A deteção de vivacidade (liveness detection) distingue uma fotografia autêntica de um deepfake apresentado durante uma verificação por vídeo. A CMVM e o Banco de Portugal exigem, desde 2025, que as entidades financeiras implementem controlos proporcionados ao risco de fraude biométrica nos processos de onboarding digital, incluindo mecanismos de verificação de vivacidade ativa (Banco de Portugal, Circular 4/2025).

Os métodos ativos de deteção de vivacidade (desafio-resposta: pestanejar, rodar a cabeça) dificultam significativamente os ataques deepfake. Os métodos passivos analisam as microtexturas faciais, os reflexos na íris e a coerência temporal entre fotogramas.

Tabela dos métodos de deteção

Método Tipo de fraude visado Taxa de deteção Limitação principal
Deteção de artefactos GAN/difusão Documentos de identidade sintéticos 88–94 % Eficácia reduzida após compressão JPEG intensa
Metadados / fingerprinting de dispositivo Toda fraude documental digital 85–92 % Contornável com limpeza especializada de metadados
Verificação cruzada de documentos Fraude de identidade sintética 95 %+ Requer a apresentação de múltiplos documentos
Deteção de vivacidade ativa Deepfake vídeo/foto 92–97 % Ataques adversariais em desenvolvimento ativo
Análise espectral (FFT) GAN, modelos de difusão 87–93 % Depende da qualidade e resolução da imagem

Enquadramento regulatório e perspetivas 2026

O Regulamento IA da UE (AI Act) e os meios sintéticos

O Regulamento (UE) 2024/1689 relativo à inteligência artificial impõe a partir de agosto de 2026 que qualquer sistema de IA que gere ou manipule imagens, vídeos ou textos semelhantes a conteúdo real identifique esse conteúdo como sintético em formato legível por máquina (Artigo 50). Esta obrigação aplica-se a ferramentas de geração de documentos, geradores de rostos sintéticos e sistemas de geração de texto financeiro.

A partir de agosto de 2026, qualquer documento gerado por IA num ambiente conforme deverá conter um marcador legível por máquina identificando a sua origem sintética. Os sistemas de deteção poderão identificar estes marcadores automaticamente, mas as ferramentas ilícitas em mercados não regulados não implementarão a marcação obrigatória.

AMLD6 e obrigações de verificação documental

A Sexta Diretiva Anti-Branqueamento de Capitais — Diretiva (UE) 2024/1640 —, em vigor desde janeiro de 2025, reforça as obrigações de verificação de identidade e exige que as entidades obrigadas documentem as medidas adotadas face aos riscos de fraude documental por IA. As orientações de supervisão da Autoridade Bancária Europeia (EBA) de 2025 especificam que os documentos gerados por IA representam um fator de risco específico que deve ser incluído nas avaliações de risco institucionais (EBA Guidelines on Internal Governance 2025).

Tendências tecnológicas 2026: dinâmica de escalada

A fraude documental segue uma curva exponencial. A análise da CheckFile de dezoito meses de dados de plataforma mostra um aumento de 23 % no volume total de fraude documental entre 2024 e 2025, com a proporção gerada por IA a passar de 3 % para 12 %. As projeções para finais de 2026 situam esta proporção entre 20 e 25 %.

Os defensores têm uma vantagem estrutural: apenas precisam de detetar um sinal de fraude num documento, enquanto o defraudador deve manter a coerência perfeita num processo completo de múltiplos documentos.

Para uma análise detalhada das estatísticas de fraude, consulte o nosso artigo sobre estatísticas e tendências de fraude documental 2026.

Pronto para automatizar as suas verificações?

Piloto gratuito com os seus próprios documentos. Resultados em 48h.

Pedir um piloto gratuito

Proteja a sua organização: lista de verificação operacional

A defesa eficaz contra a fraude documental por IA exige uma abordagem de defesa em profundidade:

  • Implementar deteção forense multicamada: metadados, deteção de artefactos visuais, análise espectral, verificação cruzada.
  • Integrar a deteção de vivacidade ativa para todo onboarding com verificação de identidade por foto ou vídeo.
  • Atualizar os modelos de fraude continuamente: os modelos de IA detetam melhor os padrões conhecidos; atualizações trimestrais são o padrão mínimo.
  • Formar as equipas para identificar sinais fracos que os algoritmos não captam: documentos demasiado perfeitos, contexto de negócio atípico, incoerências na narrativa.
  • Documentar os controlos efetuados para cumprir os requisitos de auditoria do Banco de Portugal e da AMLD6.
  • Realizar testes regulares com conjuntos de documentos sintéticos gerados com os modelos mais recentes disponíveis.

A CheckFile integra todas estas camadas de deteção numa plataforma única, com atualizações de modelos forenses implementadas continuamente. Os nossos clientes reduzem o tempo de processamento em 83 % mantendo uma taxa de deteção de fraude de 94,8 %.

Para um enquadramento completo de verificação documental, consulte o nosso guia de verificação de documentos.


Perguntas frequentes

O que é um documento de identidade sintético gerado por IA?

Um documento de identidade sintético é um documento falso criado inteiramente por um sistema de inteligência artificial — habitualmente um GAN ou um modelo de difusão — sem modificar nenhum documento autêntico existente. Combina um rosto fotorrealista que não pertence a nenhuma pessoa real com números de documento que passam a validação por dígito de controlo e uma formatação que reproduz fielmente as especificações do documento oficial visado. Estes documentos ultrapassam frequentemente as verificações visuais básicas, mas são detetáveis mediante análise forense algorítmica.

Como se deteta um recibo de vencimento gerado por IA?

A deteção de um recibo de vencimento gerado por IA baseia-se em três níveis de análise: análise dos metadados do ficheiro (software de criação incompatível com qualquer programa de processamento de salários reconhecido), análise tipográfica (anomalias de espaçamento, métricas de fonte incoerentes com o software declarado) e verificação cruzada dos dados (coerência entre NIF do empregador, descontos, IBAN e declaração de IRS). Um LLM pode gerar texto sintaticamente correto, mas manter a coerência perfeita com todos os documentos do processo ultrapassa as suas capacidades atuais.

O que exige o Regulamento IA da UE para os documentos sintéticos a partir de 2026?

O artigo 50 do Regulamento (UE) 2024/1689 exige a partir de agosto de 2026 que qualquer sistema de IA que gere imagens, vídeos ou textos semelhantes a conteúdo real identifique o resultado como gerado por IA em formato legível por máquina. As ferramentas de geração conformes incorporarão este marcador, o que permitirá aos sistemas de deteção identificar automaticamente os documentos apresentados. As ferramentas ilícitas em mercados não regulados não implementarão esta marcação, pelo que as técnicas de deteção forense continuam a ser indispensáveis.

Qual é a diferença entre falsificação e geração IA de um documento?

A falsificação modifica um documento auténtico existente: alterar um valor, substituir uma fotografia. A geração IA cria um documento inteiro sem qualquer base auténtica. Ambos os tipos exigem técnicas de deteção diferentes: a falsificação é detetada por análise de artefactos de modificação (ELA, análise de ruído); a geração IA, por análise de artefactos do modelo gerador (padrões espectrais, coerência estatística ausente em documentos autênticos).

Que taxa de deteção se pode alcançar contra a fraude documental por IA?

Com base na análise da CheckFile de 180.000 documentos processados mensalmente, os sistemas forenses multicamada alcançam uma taxa de deteção de 94,8 % sobre o conjunto da fraude documental, com uma taxa de falsos positivos de 3,2 %. A deteção de documentos puramente gerados por IA atinge 88 a 94 % consoante o tipo de gerador e a qualidade da imagem. Isto supera significativamente a inspeção visual manual, que deteta em média 37 % das tentativas de fraude segundo os dados da ACFE 2024.

Mantenha-se informado

Receba as nossas análises de conformidade e guias práticos diretamente no seu email.

Pronto para automatizar as suas verificações?

Piloto gratuito com os seus próprios documentos. Resultados em 48h.