Skip to content
KundenreferenzPreiseSicherheitVergleichBlog

Europe

Americas

Oceania

Zurück zum Glossar
Betrug

Deepfake-Erkennung

Die Deepfake-Erkennung umfasst die Technologien und Methoden zur Identifizierung von durch künstliche Intelligenz generierten oder manipulierten Bildern, Videos oder Audiodateien. Im Kontext der Identitätsprüfung zielt sie darauf ab, Betrugsversuche mit synthetischen Gesichtern abzuwehren.

Deepfakes stellen eine wachsende Bedrohung für Systeme zur Identitätsfernprüfung dar. Mithilfe von Generative Adversarial Networks (GANs) und Diffusionsmodellen ist es heute möglich, fotorealistische Gesichtsbilder zu generieren, Gesichter in Echtzeit-Videos auszutauschen oder eine Stimme aus wenigen Sekunden Aufnahme zu klonen. Diese Techniken können eingesetzt werden, um Gesichtsabgleich- und Lebenderkennungssysteme zu überlisten.

Lösungen zur Deepfake-Erkennung analysieren verschiedene Artefakttypen: Inkonsistenzen auf Pixelebene (unscharfe Kanten, abnormale Texturen), physiologische Anomalien (fehlendes Blinzeln, unnatürliche Gesichtsasymmetrien), zeitliche Artefakte in Videos (Flackern, Verzerrungen zwischen Frames) und Bild-Metadaten (Spuren von KI-Generierung in EXIF-Daten).

Das Wettrennen zwischen Deepfake-Erstellern und -Detektoren ist permanent. Die fortschrittlichsten Lösungen kombinieren mehrere auf vielfältigen Datensätzen trainierte Erkennungsmodelle, multimodale Analyse (Bild + Audio + Verhalten) und kontinuierliche Aktualisierung, um sich an neue Generierungstechniken anzupassen. Die iBeta-Level-2-Zertifizierung umfasst mittlerweile spezifische Tests gegen Deepfake-Angriffe.

Vorschriften

EU AI ActeIDASISO 30107

Praxisbeispiele

  • 1.Ein Betrüger versucht, ein Online-Bankkonto mit einem Echtzeit-Deepfake zu eröffnen, um den Gesichtsabgleich zu bestehen. Das System erkennt Mikro-Artefakte um die Gesichtskonturen und Inkonsistenzen im Blinzelmuster.
  • 2.Eine Plattform für elektronische Signaturen identifiziert ein Deepfake-Video bei einem Identitätsprüfungsverfahren: Die Frequenzanalyse zeigt Kompressionsmuster, die mit einer authentischen Kameraaufnahme unvereinbar sind.
  • 3.Ein Versicherer erkennt einen Betrugsversuch bei einer Lebensversicherung mittels eines Deepfake-Videos des angeblichen Versicherungsnehmers. Die zeitliche Analyse des Videos zeigt Mikroverzerrungen, die typisch für generative Modelle zwischen aufeinanderfolgenden Frames sind.

Automatisieren Sie Ihre Compliance

Erfahren Sie, wie CheckFile die Dokumentenprüfung für Ihre Organisation vereinfacht.