Skip to content
KundenreferenzPreiseSicherheitVergleichBlog

Europe

Americas

Oceania

Leitfaden7 min Lesezeit

Deepfake-Dokumente erkennen: Synthetische Ausweise entlarven

Vollständiger Leitfaden zur Erkennung von Deepfake-Dokumenten: forensische Techniken, KI-Tools und regulatorische Anforderungen zur Aufdeckung synthetischer Identitätsfälschungen in 2026.

Das CheckFile-Team
Das CheckFile-Team·
Illustration for Deepfake-Dokumente erkennen: Synthetische Ausweise entlarven — Leitfaden

Diesen Artikel zusammenfassen mit

Die Erkennung von Deepfake-Dokumenten bezeichnet den Prozess der Identifizierung von Identitätsdokumenten — Reisepässen, Personalausweisen, Führerscheinen — die vollständig oder teilweise durch künstliche Intelligenz generiert oder manipuliert wurden. Mit der breiten Verfügbarkeit generativer Modelle haben synthetische Fälschungen eine Qualitätsstufe erreicht, bei der die visuelle Prüfung durch Menschen unzureichend ist. Unsere interne Analyse zeigt, dass KI-generierter Betrug mittlerweile 12 % aller erkannten Dokumentenbetrugversuche auf unserer Plattform ausmacht, gegenüber nur 3 % im Jahr 2024.

Was ein Deepfake-Dokument ausmacht

Ein Deepfake-Identitätsdokument ist ein Reisepass, Personalausweis oder Führerschein, dessen visuelle Elemente ganz oder teilweise von einem neuronalen Netz generiert wurden. Es gibt zwei Hauptkategorien, die jeweils unterschiedliche Erkennungsansätze erfordern.

Vollständig synthetische Dokumente werden von Grund auf durch GAN-Modelle (Generative Adversarial Network) oder Diffusionsmodelle erstellt, die auf Datensätzen echter Identitätsdokumente trainiert wurden. Das Modell lernt die grafische Struktur von Reisepässen und Personalausweisen und reproduziert jedes Element: simulierte Hologramme, proprietäre Schriftarten, Seriennummern, Guilloché-Hintergründe. Diese Dokumente haben niemals physisch existiert.

Teilweise gefälschte Dokumente gehen von einem eingescannten echten Dokument aus und ersetzen bestimmte Felder — Name, Geburtsdatum, Lichtbild — durch KI-generierte Inhalte. Diese Methode ist in der Praxis häufiger, weil sie die echten physischen Sicherheitsmerkmale des Originaldokuments bewahrt, was die Erkennung erheblich erschwert.

Die Verordnung (EU) 2024/1689 über künstliche Intelligenz (KI-Verordnung, Art. 50) schreibt ab dem 1. August 2026 vor, dass alle durch KI generierten synthetischen Inhalte ausdrücklich gekennzeichnet sein müssen. Diese Verpflichtung gilt für gutgläubig handelnde Systeme, hindert jedoch böswillige Akteure nicht daran, Fälschungen ohne Kennzeichnung herzustellen.

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat in seinem Lagebericht 2025 festgestellt, dass KI-generierte Identitätsdokumente zu den am schnellsten wachsenden Werkzeugen der Cyberkriminalität gehören, mit einem Anstieg von 42 % gegenüber dem Vorjahr bei sichergestellten Fälschungsvorlagen.

Wie Erkennungstechniken funktionieren

Eine wirksame Deepfake-Dokumentenerkennung kombiniert mehrere Analyseschichten. Keine einzelne Technik bietet ausreichende Sicherheit — erst ihre Kombination erzielt Erkennungsraten von über 90 %.

Forensische Analyse digitaler Artefakte

Generative Modelle hinterlassen charakteristische Spuren im digitalen Bild. Die Fehlerpegelanalyse (ELA, Error Level Analysis) deckt JPEG-Kompressionswidersprüche auf: Manipulierte Bereiche weisen eine andere Kompressionskennung auf als der Rest des Dokuments. Die Rauschanalyse erkennt das Fehlen des natürlichen Sensorrauschens einer echten Kamera — KI-generierte Bilder sind oft ungewöhnlich scharf oder zeigen periodische Rauschuster, die für GANs charakteristisch sind.

Faltungsneuronale Netze (CNN), die auf Korpora echter und gefälschter Dokumente trainiert wurden, erkennen räumliche Frequenzartefakte, die für das menschliche Auge unsichtbar sind — insbesondere die Schwingungen, die GANs an Hochkontrastgrenzen einführen, wie Buchstabenränder und Fotoumrandungen.

Laut der Bewertung des NIST für biometrische Präsentationsangriffs-Erkennungssysteme erreichen die leistungsstärksten kommerziellen Systeme Fehlerraten unter 2 %, wenn sie mehrere Erkennungsmodalitäten kombinieren, gegenüber 15–25 % bei Einzel-Methoden-Ansätzen.

Überprüfung von Sicherheitsmerkmalen

Echte Identitätsdokumente enthalten physische Sicherheitsmerkmale, die KI nicht vollständig in einem digitalen Bild replizieren kann: diffraktive optisch variable Bildgeräte (DOVIDs), Offsetdruck-Rosetten, kinetische Farbeffekte und Mikrodruck. Wenn diese Merkmale durch einen Scanner oder eine Webcam erfasst werden, erzeugen sie charakteristische optische Signaturen. Ein Deepfake simuliert sie grafisch, jedoch ohne die physische Dimension — etwas, das spezialisierte Sensoren (UV, Infrarot) zuverlässig erkennen.

Die Bundesdruckerei bietet Behörden und privaten Stellen Echtheitsprüfungsdienste für deutsche Identitätsdokumente an, einschließlich Merkmalsvalidierung gegen die offiziellen Muster.

Datenübergreifende Konsistenzprüfung

Die zuverlässigste Erkennung kombiniert die Dokumentbildanalyse mit der Überprüfung der enthaltenen Daten. Eine Dokumentennummer, die in amtlichen Registern nicht existiert, ein Geburtsdatum, das mit einer Steueridentifikationsnummer inkonsistent ist, oder ein Adressformat, das für das ausstellende Land untypisch ist — keine dieser Anomalien tritt bei der rein visuellen Analyse zutage.

Plattformen wie CheckFile gleichen diese Daten automatisch mit Referenzdatenbanken ab und fangen Fälschungen ab, die visuell überzeugend, aber strukturell inkonsistent sind.

Vergleich der Erkennungsmethoden

Methode Wirksamkeit gegen Deepfakes Geschwindigkeit Automatisierbar
Menschliche Sichtprüfung Gering (< 60 %) Langsam Nein
ELA / forensische Analyse Mittel (70–80 %) Schnell Ja
Spezialisiertes ML-Deepfake-Modell Hoch (90–95 %) Sehr schnell Ja
UV/IR-Scanner für Sicherheitsmerkmale Hoch (> 95 %) mit echtem Scanner Mittel Teilweise
Datenübergreifende Konsistenzprüfung Sehr hoch in Kombination Schnell Ja
Lebendigkeitserkennung (Gesicht) Ergänzend Schnell Ja

Bereit, Ihre Prüfungen zu automatisieren?

Kostenloses Pilotprojekt mit Ihren eigenen Dokumenten. Ergebnisse in 48h.

Kostenloses Pilotprojekt anfragen

Regulatorischer Rahmen in Deutschland

Unternehmen, die in Deutschland den Geldwäschebekämpfungspflichten unterliegen — Kreditinstitute, Immobilienmakler, Steuerberater, Wirtschaftsprüfer, Rechtsanwälte — sind nach dem Geldwäschegesetz (GwG) vom 23. Juni 2017 verpflichtet, die Identität ihrer Vertragspartner zu überprüfen. Die BaFin stellt in ihren Auslegungs- und Anwendungshinweisen von 2024 klar, dass bei der Fernidentifizierung geeignete Echtheitsprüfungsmaßnahmen für Dokumente erforderlich sind, die auch die Erkennung KI-generierter Fälschungen umfassen müssen.

Die KI-Verordnung klassifiziert biometrische Fernidentifizierungssysteme als Hochrisikosysteme (Anhang III, Punkt 1). Unternehmen, die diese Systeme in KYC-Prozessen einsetzen, müssen ab dem 1. August 2026 die Robustheits- und Risikomanagementanforderungen der Artikel 9 bis 15 erfüllen.

Verstöße gegen die Identifizierungspflichten können zu BaFin-Sanktionen von bis zu 5 Millionen Euro oder 10 % des jährlichen Gesamtumsatzes führen (§ 56 Abs. 3 GwG). Im Jahr 2024 verhängte die BaFin 23 Bußgelder im Zusammenhang mit Mängeln bei der Dokumentenprüfung — ein Anstieg von 31 % gegenüber 2023.

Für einen tieferen Einblick in verwandte Techniken lesen Sie unseren Artikel über Methoden zur Erkennung von KI-Dokumentenbetrug.

Praktische Umsetzung für Compliance-Teams

Die Einführung eines wirksamen Erkennungssystems folgt drei konkreten Schritten.

Schritt 1 — Risikoexposition bewerten. Nicht alle Unternehmen sind dem gleichen Deepfake-Risiko ausgesetzt. Ein Kreditinstitut, das täglich Tausende von Online-Kontoeröffnungen bearbeitet, hat eine grundlegend andere Bedrohungslage als eine Anwaltskanzlei, die Mandanten persönlich prüft. Quantifizieren Sie das Dokumentvolumen, die Erhebungsmethode (persönlich vs. remote) und die Folgen der Akzeptanz einer betrügerischen Identität.

Schritt 2 — Erkennungsschichten kombinieren. Die forensische Artefaktanalyse, die Überprüfung von Sicherheitsmerkmalen und die Datenkonsistenzprüfung erfassen jeweils unterschiedliche Angriffstypen. Ein ML-Modell erkennt Generierungsartefakte. Sicherheitsmerkmalsprüfungen fangen Ausdrucke ab, die als echte Dokumente ausgegeben werden. Datenverifikation erkennt teilweise gefälschte Dokumente mit korrektem visuellem Erscheinungsbild.

Schritt 3 — Prüfnachweise revisionssicher aufbewahren. Das GwG verpflichtet meldepflichtige Einrichtungen, Aufzeichnungen über Identifizierungsmaßnahmen mindestens fünf Jahre lang aufzubewahren (§ 8 Abs. 4 GwG). Jede Prüfung muss mit der verwendeten Methode, dem Ergebnis und dem verantwortlichen System oder Analysten dokumentiert werden.

Die CheckFile-Plattform erstellt automatisch revisionssichere Nachweise mit einer Betrugserkennungsrate von 94,8 % über alle verifizierten Dokumenttypen hinweg.

Erkunden Sie die CheckFile-Preise für volumenbasierte Pläne, die auf den Durchsatz Ihres Teams zugeschnitten sind.

Synthetische Identitätsdokumente wie die in unserem Artikel über Deepfake-Synthetische-Identitätsdokumente beschriebenen stellen eine sich ständig weiterentwickelnde Bedrohung dar, die eine kontinuierliche Aktualisierung der Erkennungsmodelle erfordert.

Häufig gestellte Fragen

Was ist genau ein Deepfake-Identitätsdokument?

Ein Deepfake-Identitätsdokument ist ein Reisepass, Führerschein oder Personalausweis, dessen visuelle Elemente ganz oder teilweise von einem KI-Algorithmus generiert wurden. Es kann sich um ein vollständig fiktives Dokument oder ein echtes Dokument mit veränderten Feldern handeln. Diese Dokumente bestehen häufig einfache OCR-Prüfungen, weil die Textdaten korrekt sind, obwohl das Dokument eine Fälschung ist.

Sind kostenlose Erkennungstools ausreichend?

Kostenlose Online-Tools führen typischerweise einfache ELA- und Metadatenanalysen durch, die grobe Fälschungen erkennen. Sie sind unzureichend für Deepfakes, die mit aktuellen Diffusionsmodellen erstellt wurden und minimale erkennbare Artefakte erzeugen. Für professionellen Einsatz mit regulatorischen Verpflichtungen ist eine spezialisierte Lösung mit kontinuierlich aktualisierten Modellen erforderlich.

Wie lange dauert die automatisierte Erkennung?

Moderne Plattformen verarbeiten ein Dokument im Durchschnitt in unter 5 Sekunden, wobei forensische Analyse, Sicherheitsmerkmalsverifikation und Datenkonsistenzprüfung kombiniert werden. Diese Latenz ist mit Echtzeit-Digital-Onboarding-Prozessen kompatibel.

Ist die Lebendigkeitserkennung neben der Dokumentenprüfung notwendig?

In der Praxis ja. Ein Deepfake-Dokumentangriff geht häufig mit einem Deepfake-Videoangriff auf den biometrischen Vergleichsschritt einher. Die Kombination forensischer Dokumentenprüfung mit robuster Lebendigkeitserkennung schließt beide Angriffsvektoren gleichzeitig.

Was sollte ein Unternehmen tun, wenn ein Dokument die automatisierten Prüfungen nicht besteht?

Die dokumentierten Verfahren des Unternehmens sollten einen klaren Eskalationsweg vorsehen: Weiterleitung zur Prüfung durch einen leitenden Analysten, Anforderung eines alternativen Dokumententyps oder Ablehnung der Geschäftsbeziehung. Nach § 10 Abs. 9 GwG darf eine Geschäftsbeziehung nicht begründet werden, wenn die Sorgfaltspflichten nicht erfüllt werden können — die Ablehnung eines nicht verifizierbaren Dokuments ist sowohl rechtlich korrekt als auch geschäftlich geboten.


Dieser Artikel dient ausschließlich Informationszwecken. Regulatorische Anforderungen ändern sich — konsultieren Sie die BaFin oder einen qualifizierten Rechtsberater für Ihre spezifische Situation. Weitere Informationen finden Sie im Leitfaden zur Dokumentenprüfung für einen vollständigen Überblick über bewährte Verfahren.

Bleiben Sie informiert

Erhalten Sie unsere Compliance-Analysen und Praxisleitfäden direkt in Ihr Postfach.

Bereit, Ihre Prüfungen zu automatisieren?

Kostenloses Pilotprojekt mit Ihren eigenen Dokumenten. Ergebnisse in 48h.