Técnico

GANs (Redes Generativas Antagónicas)

Arquitectura de inteligencia artificial donde dos redes neuronales compiten entre sí: un generador crea contenido sintético y un discriminador intenta detectarlo. Tecnología base de deepfakes con pérdidas por fraude superiores a $200M en Q1 2025.

13 min de lectura

GANs (Redes Generativas Antagónicas)

$200 millones. Esa es la cifra de pérdidas por fraude deepfake solo en el primer trimestre de 2025, según Variety y Deloitte. La tecnología que hace esto posible se llama GAN: dos redes neuronales enfrentadas en un juego de suma cero donde una falsifica y la otra detecta. Cuando el generador gana, el resultado es un rostro, una voz o un documento indistinguible del original para el ojo humano. En España, INCIBE registró 122.223 ciberincidentes en 2025, un 26% mas que el ano anterior, y los fraudes con contenido sintético generado por GANs representan una amenaza creciente para empresas y particulares.

Definicion tecnica

GAN (Generative Adversarial Network) es una arquitectura de aprendizaje profundo propuesta por Ian Goodfellow et al. en 2014 que enfrenta dos redes neuronales en un proceso de entrenamiento adversarial. El generador (G) aprende a crear datos sinteticos que imitan una distribucion de datos reales, mientras el discriminador (D) aprende a distinguir datos reales de los sinteticos generados por G.

Componentes fundamentales:

ComponenteFuncionEntradaSalida
Generador (G)Crear datos sinteticos realistasRuido aleatorio (vector z)Imagen, audio o video falso
Discriminador (D)Distinguir real vs falsoDato real o generadoProbabilidad [0,1] de ser real
Funcion de perdidaGuiar entrenamiento adversarialSalidas de G y DGradientes de actualizacion

Diferencia con otros modelos generativos:

  • Autoencoders: Comprimen y reconstruyen datos, no generan contenido nuevo
  • Diffusion Models: Anadir/eliminar ruido progresivamente, mas lentos pero mas estables
  • GANs: Entrenamiento adversarial directo, mas rapidos pero inestables (mode collapse)

Como funcionan las GANs: el juego adversarial

Arquitectura basica

                    ┌──────────────────┐
 Ruido aleatorio    │                  │     Dato
 (vector z)  ──────►│   GENERADOR (G)  │────► sintetico
                    │                  │     (imagen/audio)
                    └──────────────────┘         │

                                           ┌──────────┐
 Datos reales ────────────────────────────►│          │     Probabilidad
 (entrenamiento)                           │ DISCRIM. │────► real/falso
                                           │   (D)    │     [0 - 1]
                                           └──────────┘

                                          Backpropagation
                                          (ambas redes)

Proceso de entrenamiento paso a paso

  1. Inicializacion: G y D se inicializan con pesos aleatorios
  2. Generacion: G recibe ruido aleatorio y produce una muestra sintetica
  3. Evaluacion: D recibe muestras reales y sinteticas, clasifica cada una
  4. Actualizacion D: Se ajustan pesos de D para mejorar la deteccion
  5. Actualizacion G: Se ajustan pesos de G para enganar mejor a D
  6. Iteracion: El proceso se repite miles de veces hasta convergencia

Analogia forense: Imaginemos un falsificador (G) y un perito caligrafo (D). Cada vez que el perito detecta una falsificacion, el falsificador mejora su tecnica. Cada vez que el falsificador logra enganar al perito, este afina su analisis. El resultado final: falsificaciones casi perfectas.

Funcion de perdida minimax

La formulacion matematica original de Goodfellow define el entrenamiento como un juego minimax:

min_G max_D V(D, G) = E[log D(x)] + E[log(1 - D(G(z)))]

Donde:

  • D(x) es la probabilidad de que D clasifique un dato real como real
  • D(G(z)) es la probabilidad de que D clasifique un dato generado como real
  • D quiere maximizar V (detectar correctamente)
  • G quiere minimizar V (enganar a D)

Variantes de GANs relevantes para forense digital

StyleGAN (NVIDIA)

CaracteristicaDetalle
DesarrolladorNVIDIA (Karras et al., 2019)
AplicacionGeneracion rostros hiperrealistas
ResolucionHasta 1024x1024 px
Uso fraudulentoPerfiles falsos redes sociales, identidades sinteticas
DeteccionArtefactos en pupilas, orejas asimetricas, fondos borrosos

DeepFaceLab

CaracteristicaDetalle
TipoFace swap GAN
AplicacionIntercambio de rostros en video
Uso fraudulentoCEO fraud videollamadas, pornografia no consentida
DeteccionBordes faciales irregulares, parpadeo anormal, inconsistencias iluminacion

WaveGAN / MelGAN (audio)

CaracteristicaDetalle
AplicacionClonacion de voz
Datos necesarios3-10 segundos audio original
Uso fraudulentoVishing (voice phishing), ordenes de transferencia fraudulentas
DeteccionArtefactos espectrales banda 3.2-4.1 kHz, formantes demasiado estables

Dato critico: Los estafadores necesitan tan solo 3 segundos de audio para crear un clon de voz con un 85% de similitud con el hablante original, segun la American Bar Association (2025). El fraude por clonacion de voz aumento un 680% en el ultimo ano.


GAN fingerprints: como la ciencia forense detecta contenido generado por IA

Que son las huellas GAN

Cada arquitectura GAN deja una firma digital unica en el contenido que genera, invisible al ojo humano pero detectable mediante analisis forense. Estas firmas se manifiestan en:

  1. Dominio frecuencial: Las imagenes GAN contienen patrones periodicos detectables mediante Transformada Discreta de Fourier (DFT)
  2. Artefactos de color: Correlaciones RGB anomalas en pixeles adyacentes
  3. Patrones de ruido: Distribucion de ruido que no coincide con sensores de camara reales
  4. Consistencia espectral: Investigadores demostraron que un clasificador ResNet50 entrenado en dominio frecuencial alcanzo un 92.82% de precision y 0.95 AUC, superando significativamente al analisis en dominio espacial (Applied Sciences, 2025)

Analisis frecuencial con DFT

# Script: Deteccion GAN fingerprint via analisis frecuencial
import numpy as np
from PIL import Image
import matplotlib.pyplot as plt

def detectar_gan_fingerprint(imagen_path):
    """
    Detecta huellas GAN mediante analisis en dominio frecuencial.
    Las imagenes GAN muestran patrones periodicos en el espectro
    que las imagenes naturales no presentan.
    """
    # Cargar imagen y convertir a escala de grises
    img = np.array(Image.open(imagen_path).convert('L'), dtype=np.float64)

    # Aplicar Transformada Discreta de Fourier 2D
    f_transform = np.fft.fft2(img)
    f_shift = np.fft.fftshift(f_transform)
    magnitude = np.log(np.abs(f_shift) + 1)

    # Analizar picos periodicos (indicadores GAN)
    # Las imagenes GAN muestran picos regulares en alta frecuencia
    centro_y, centro_x = magnitude.shape[0] // 2, magnitude.shape[1] // 2

    # Extraer banda alta frecuencia (exterior del espectro)
    radio_min = min(centro_y, centro_x) * 0.6
    alta_freq = []
    for y in range(magnitude.shape[0]):
        for x in range(magnitude.shape[1]):
            dist = np.sqrt((y - centro_y)**2 + (x - centro_x)**2)
            if dist > radio_min:
                alta_freq.append(magnitude[y, x])

    # Calcular varianza alta frecuencia
    varianza_hf = np.var(alta_freq)
    media_hf = np.mean(alta_freq)

    # Ratio varianza/media: GAN > 0.15, natural < 0.10
    ratio = varianza_hf / media_hf if media_hf > 0 else 0

    if ratio > 0.15:
        return f"SOSPECHOSO GAN: ratio={ratio:.4f} (threshold: 0.15)"
    else:
        return f"Probablemente natural: ratio={ratio:.4f}"

# Uso
resultado = detectar_gan_fingerprint("imagen_sospechosa.jpg")
print(resultado)

Herramientas profesionales de deteccion

HerramientaTipoPrecision reportadaLicencia
FaceForensics++Dataset + benchmark97.7% (Deepfake), 91% (Face2Face)Academica
Microsoft Video AuthenticatorDeteccion videoAnalisis consistencia iluminacion/sombrasComercial
Sensity AIPlataforma SaaSDeteccion deepfakes en tiempo realComercial
DeepWare ScannerApp movilDeteccion basica deepfakesGratuita
FakeCatcher (Intel)Analisis flujo sanguineo96% precision en datasets controladosInvestigacion

Limitacion critica (2025-2026): Un CNN entrenado en DFDC alcanza mas del 90% de precision en su set de prueba, pero cae a aproximadamente el 60% en el dataset WildDeepfake. Los modelos entrenados con deepfakes GAN (StyleGAN2, DeepFaceLab) tienen dificultades con falsificaciones basadas en difusion (Stable Diffusion, DALL-E) que introducen patrones de artefactos diferentes (MDPI Applied Sciences, 2025).


Caso real: deepfake CEO por videollamada generado con GANs

Nota: El siguiente caso esta basado en investigaciones forenses documentadas internacionalmente. Los datos especificos han sido adaptados para fines educativos, preservando los aspectos tecnicos relevantes.

El caso Arup: $25.5 millones perdidos

En febrero 2024, un empleado de la firma de ingenieria Arup (Reino Unido) participo en una videollamada donde creyo estar hablando con su CFO y otros directivos. Autorizo 15 transferencias por un total de $25.5 millones. Todos los participantes de la llamada, excepto la victima, eran deepfakes generados por IA en tiempo real.

Analisis tecnico del ataque:

FaseTecnica GANEvidencia
Rostro CFOFace swap (probable DeepFaceLab)Inconsistencias en bordes faciales y parpadeo
Voz CFOVoice cloning (probable WaveGAN/VITS)Artefactos espectrales en banda 3-4 kHz
Fondo oficinaImagen sinteticaSombras inconsistentes con iluminacion
Tiempo realStreaming inferenceLatencia detectada en movimientos labiales

Analisis forense aplicado

El Microsoft Video Authenticator analizo la consistencia de fuentes de luz entre fotogramas: el deepfake del CEO mostraba sombras apuntando hacia la izquierda mientras la iluminacion de la oficina provenia de la derecha, lo que genero alertas.

Indicadores forenses GAN detectados:

  1. Parpadeo anormalmente regular (0.3 Hz constante vs 0.15-0.5 Hz variable en humanos)
  2. Bordes faciales con pixeles interpolados (artefacto tipico face swap)
  3. Micro-expresiones ausentes (GANs no replican micro-expresiones involuntarias)
  4. Audio con SNR anormalmente alto (mayor de 55 dB, esperado 20-30 dB en videollamada real)

Codigo Penal

Delitos aplicables a la creacion y uso fraudulento de contenido generado por GANs:

ArticuloDelitoPenaAplicacion GANs
Art. 197.7 CPDifusion imagenes intimas sin consentimiento3 meses - 1 ano prisionDeepfakes sexuales (pornografia no consentida)
Art. 197.1 CPDescubrimiento y revelacion secretos1-4 anos prisionUso biometria sin autorizacion para entrenar GAN
Art. 248 CPEstafa6 meses - 3 anos prisionCEO fraud con deepfake para transferencias
Art. 250.1.6 CPEstafa agravada1-6 anos prisionFraude a pluralidad de victimas con tecnologia avanzada
Art. 390 CPFalsedad documental6 meses - 3 anos prisionDocumentos con imagenes/firmas generadas por GAN

Legislacion en desarrollo (2025-2026)

En marzo de 2025, el Consejo de Ministros aprobo el Proyecto de Ley Organica para la Proteccion de Menores en Entornos Digitales, que propone enmendar el Codigo Penal para criminalizar especificamente los deepfakes sexuales, con proteccion particular para menores y victimas de violencia de genero.

Hito administrativo: El 6 de noviembre de 2025, la AEPD (Agencia Espanola de Proteccion de Datos) dicto una resolucion sancionadora por la creacion y difusion de imagenes intimas falsas (deepfakes) de una menor, considerada fundacional en la gobernanza de IA en Europa (Observatorio del Derecho a la Ciudad, 2025).

RGPD y datos biometricos

Los datos faciales y de voz utilizados para entrenar GANs constituyen datos biometricos bajo el Art. 9 RGPD (categorias especiales). Su tratamiento sin consentimiento explicito es ilicito, con multas de hasta 20 millones de euros o 4% facturacion global.


Deteccion forense: protocolo de analisis paso a paso

Protocolo para imagenes sospechosas

  1. Analisis metadatos EXIF: Verificar ausencia de datos de camara (las imagenes GAN carecen de metadatos EXIF reales)
  2. Inspeccion visual ampliada: Buscar artefactos en pupilas, dientes, orejas, bordes del cabello
  3. Analisis frecuencial DFT: Detectar patrones periodicos en dominio frecuencial
  4. Comparacion GAN fingerprint: Contrastar con firmas conocidas de StyleGAN, DeepFaceLab, etc.
  5. Reverse image search: Verificar si la imagen base existe en internet
  6. Herramientas automatizadas: FaceForensics++, Sensity AI, Microsoft Video Authenticator

Protocolo para audio sospechoso

  1. Analisis espectrograma: Buscar artefactos en banda 3.2-4.1 kHz
  2. Variabilidad formantes: Medir desviacion estandar F1/F2/F3 (deepfake: std menor de 5 Hz)
  3. SNR: Verificar ratio senal/ruido (deepfake: SNR mayor de 55 dB, anormalmente limpio)
  4. Transiciones fonemas: Evaluar naturalidad de cambios vocalicos (deepfake: menor de 20 ms)
  5. Comparacion con muestra real: Si disponible, contrastar parametros acusticos

Protocolo para video sospechoso

  1. Analisis fotograma a fotograma: Buscar inconsistencias temporales
  2. Frecuencia parpadeo: Medir regularidad (GAN: demasiado constante)
  3. Consistencia iluminacion: Verificar coherencia de sombras entre fotogramas
  4. Sincronizacion labial: Medir desfase audio-video (GAN: latencia 50-200ms)
  5. Micro-expresiones: Las GANs no replican expresiones involuntarias (Duchenne smile)

Aplicaciones legitimas de GANs en forense digital

No todas las aplicaciones de GANs son maliciosas. En el contexto forense, las GANs tambien se utilizan para:

AplicacionDescripcionEjemplo
Super-resolucionMejorar imagenes de vigilancia de baja calidadESRGAN para mejorar matriculas borrosas
Reconstruccion facialReconstruir rostros parcialmente ocultosIdentificacion sospechosos con mascarilla
Data augmentationGenerar datos sinteticos para entrenar detectoresAmpliar datasets de malware para deteccion
AnonimizacionReemplazar rostros en evidencia para proteger identidadesProteccion testigos en material judicial

FAQ

P: Puede un perito informatico detectar siempre si una imagen fue generada por GANs? R: No siempre. La precision de deteccion depende de la sofisticacion del modelo GAN utilizado. Con datasets controlados, herramientas como FaceForensics++ alcanzan un 97.7% de precision. Sin embargo, en entornos reales (imagenes comprimidas, redes sociales), la precision cae al 60-75%. Un perito cualificado combina multiples tecnicas (frecuencial, visual, contextual) para maximizar la fiabilidad del analisis.

P: Los deepfakes generados por GANs son admisibles como prueba en juicio? R: El deepfake en si no es “prueba” sino objeto de pericia. El informe pericial que analiza la autenticidad del contenido es lo admisible como prueba. El perito debe documentar la metodologia utilizada, las herramientas empleadas y las conclusiones con nivel de certeza. La LECrim (Arts. 456-485) regula la prueba pericial. Los tribunales espanoles han admitido analisis forenses de contenido multimedia sintetico.

P: Cuanto cuesta un analisis forense de contenido generado por GANs? R: Depende de la complejidad. Analisis de imagen unica: 400-800 euros. Analisis de video (1-5 minutos): 800-1.500 euros. Analisis audio con espectrograma: 600-1.200 euros. Informe completo multimedia (imagen + audio + video) con ratificacion judicial: 2.000-4.000 euros. El ROI suele ser alto cuando se evitan perdidas de decenas de miles de euros por fraude.

P: Que diferencia hay entre un deepfake generado por GANs y uno generado por modelos de difusion? R: Los GANs utilizan entrenamiento adversarial (generador vs discriminador) y producen resultados rapidos pero pueden sufrir “mode collapse” (perdida de diversidad). Los modelos de difusion (Stable Diffusion, DALL-E) anaden y eliminan ruido progresivamente, produciendo resultados mas diversos y estables pero mas lentos. Los artefactos forenses son diferentes: las GANs dejan huellas frecuenciales periodicas, mientras los modelos de difusion presentan patrones de ruido gaussiano residual.


Conceptos relacionados


Referencias y fuentes

  1. Goodfellow, I. et al. (2014). “Generative Adversarial Networks”. arXiv:1406.2661. arxiv.org

    • Paper original que introdujo la arquitectura GAN con entrenamiento adversarial
  2. Variety. (2025). “Deepfake-Enabled Fraud Has Already Caused $200 Million in Financial Losses in 2025”. variety.com

    • Perdidas de $200M solo en Q1 2025 por fraude con deepfakes
  3. Deepstrike. (2025). “Deepfake Statistics 2025: The Data Behind the AI Fraud Wave”. deepstrike.io

    • Incremento del 1.740% en fraude deepfake en Norteamerica (2022-2023)
  4. American Bar Association. (2025). “The Rise of the AI-Cloned Voice Scam”. americanbar.org

    • 3 segundos de audio bastan para clon de voz con 85% similitud
  5. MDPI Applied Sciences. (2025). “Comprehensive Evaluation of Deepfake Detection Models”. mdpi.com

    • FaceForensics++: 97.7% precision Deepfake, 91% Face2Face, 98.9% FaceSwap
  6. arXiv. (2025). “Fourier-Based GAN Fingerprint Detection using ResNet50”. arxiv.org

    • ResNet50 en dominio frecuencial: 92.82% precision y 0.95 AUC
  7. INCIBE. (2026). “Balance ciberseguridad 2025: 122.223 incidentes (+26%)”. incibe.es

    • 122.223 ciberincidentes gestionados en Espana en 2025
  8. Brightside AI. (2025). “Deepfake CEO Fraud: $50M Voice Cloning Threat”. brside.com

    • CEO fraud con deepfake ataca 400+ empresas diariamente
  9. Tirant lo Blanch. (2025). “Deepfakes y responsabilidad penal”. tirant.com

    • Analisis juridico del marco penal espanol para deepfakes
  10. Observatorio del Derecho a la Ciudad. (2025). “Espana: sancion AEPD por deepfakes de menor”. observatoriociudad.org

    • Resolucion AEPD noviembre 2025, fundacional en gobernanza IA Europa
  11. Deloitte. (2025). “AI-enabled fraud projected to reach $40B by 2027”. deloitte.com

    • Proyeccion perdidas globales por fraude habilitado con IA
  12. PMC/NCBI. (2025). “Unmasking digital deceptions: deepfake detection review”. pmc.ncbi.nlm.nih.gov

    • Revision integradora de deteccion deepfakes y ciberseguridad multimedia

Ultima actualizacion: 12 Febrero 2026 Categoria: Tecnico (TEC-015) Nivel tecnico: Avanzado Relevancia forense: MUY ALTA (tecnologia base deepfakes 2026)

¿Necesitas un peritaje forense?

Si necesitas ayuda profesional con análisis forense digital, estoy aquí para ayudarte.

Solicitar Consulta Gratuita
Jonathan Izquierdo

Jonathan Izquierdo · Perito Forense

+15 años experiencia · AWS Certified

WhatsApp