Detección de deepfakes
La detección de deepfakes designa el conjunto de tecnologías y métodos que permiten identificar imágenes, vídeos o audios generados o manipulados por inteligencia artificial. En el contexto de la verificación de identidad, busca contrarrestar los intentos de fraude que utilizan rostros sintéticos.
Los deepfakes representan una amenaza creciente para los sistemas de verificación de identidad a distancia. Gracias a las redes generativas adversarias (GAN) y los modelos de difusión, ahora es posible generar imágenes de rostros fotorrealistas, sustituir un rostro en un vídeo en tiempo real o clonar una voz a partir de pocos segundos de grabación. Estas técnicas pueden utilizarse para engañar a los sistemas de reconocimiento facial y detección de vida.
Las soluciones de detección de deepfakes analizan varios tipos de artefactos: inconsistencias a nivel de píxeles (bordes borrosos, texturas anormales), anomalías fisiológicas (ausencia de parpadeo, asimetrías faciales no naturales), artefactos temporales en los vídeos (parpadeos, distorsiones entre fotogramas) y metadatos de la imagen (rastros de generación por IA en los datos EXIF).
La carrera entre los creadores de deepfakes y los detectores es constante. Las soluciones más avanzadas combinan múltiples modelos de detección entrenados con conjuntos de datos diversificados, análisis multimodal (imagen + audio + comportamiento) y actualización continua para adaptarse a las nuevas técnicas de generación. La certificación iBeta Level 2 incluye ahora pruebas específicas contra ataques de deepfake.
Regulaciones
Ejemplos concretos
- 1.Un estafador intenta abrir una cuenta bancaria online utilizando un deepfake en tiempo real para superar la etapa de reconocimiento facial. El sistema detecta microartefactos alrededor de los contornos del rostro e inconsistencias en los patrones de parpadeo.
- 2.Una plataforma de firma electrónica identifica un vídeo deepfake durante un proceso de verificación de identidad: el análisis frecuencial revela patrones de compresión incompatibles con una captura de cámara auténtica.
- 3.Una aseguradora detecta un intento de fraude en un seguro de vida utilizando un vídeo deepfake del supuesto asegurado. El análisis temporal del vídeo revela microdistorsiones típicas de los modelos generativos entre fotogramas sucesivos.