· Jonathan Izquierdo · Peritaje Forense  ·

8 min de lectura

Deepfakes en juzgados: cómo los detecto y por qué tu vídeo ya no vale como prueba absoluta

En 2026, los deepfakes han llegado a los tribunales españoles. Como perito forense, te explico cómo los detecto y por qué la validez judicial del contenido audiovisual ha cambiado para siempre.

En 2026, los deepfakes han llegado a los tribunales españoles. Como perito forense, te explico cómo los detecto y por qué la validez judicial del contenido audiovisual ha cambiado para siempre.

El día que un CEO confesó un delito que nunca cometió

Hace unos meses recibí una llamada urgente de un despacho de abogados de Madrid. Su cliente, director financiero de una empresa del IBEX 35, enfrentaba una demanda millonaria. La prueba estrella: un vídeo de 47 segundos donde supuestamente admitía haber manipulado las cuentas del último trimestre.

“Jonny, jura que no es él. Pero el vídeo es… convincente.”

Efectivamente, lo era. La voz coincidía, los gestos eran naturales, hasta el tic nervioso de tocarse la corbata estaba presente. Cualquier persona —incluido un juez— habría dado por auténtico ese vídeo.

Tres semanas de análisis forense después, mi informe fue contundente: el vídeo era un deepfake generado con IA. El rostro había sido superpuesto mediante técnicas de face swap, y el audio clonado a partir de intervenciones públicas del directivo en conferencias y juntas de accionistas.

Realidad 2026

Este caso no es excepcional. En 2026, los deepfakes han llegado a los tribunales españoles, y la mayoría de operadores jurídicos no están preparados para detectarlos.

Qué es un deepfake (explicado para que lo entienda un juez)

Un deepfake es contenido audiovisual —vídeo, audio o imagen— generado o manipulado mediante inteligencia artificial. Redes neuronales entrenadas con miles de horas de material pueden reproducir el rostro, la voz y los gestos de cualquier persona con un realismo que engaña al ojo humano.

Las técnicas más comunes que encuentro en casos forenses:

  • Face swap: Se sustituye el rostro de una persona por otro. El cuerpo es real; la cara, sintética.
  • Lip sync: Los labios se manipulan para que “digan” un audio diferente al original.
  • Voice cloning: Con 3-5 minutos de audio de muestra, se puede clonar una voz de forma convincente.
  • Full body synthesis: Personas completamente inexistentes generadas por IA.

El problema no es académico. En mi práctica como perito, he visto deepfakes utilizados para:

  • Fabricar confesiones en procedimientos penales
  • Crear pruebas falsas de infidelidad en divorcios
  • Simular declaraciones de testigos fallecidos
  • Falsificar reuniones que nunca ocurrieron en disputas societarias
  • Generar pornografía no consentida para extorsión
Accesibilidad de la tecnología

La tecnología está al alcance de cualquiera. Las herramientas que hace dos años requerían conocimientos técnicos avanzados, hoy funcionan con tres clics en aplicaciones móviles.

España no tiene un “delito de deepfake”. A enero de 2026, los casos se persiguen mediante tipos penales existentes que encajan con mayor o menor precisión:

ConductaTipo penal aplicable
Presentar deepfake como pruebaFalsedad documental (arts. 390-399 CP)
Difundir deepfake íntimoDelito contra la intimidad (art. 197 CP)
Deepfake difamatorioInjurias/calumnias (arts. 205-210 CP)
Suplantación con ánimo de lucroEstafa (art. 248 CP)
Deepfake de menoresPornografía infantil (art. 189 CP)

La reforma de marzo 2025, que transpone el AI Act europeo, obliga a etiquetar el contenido generado por IA, pero seamos realistas: quien crea un deepfake para delinquir no va a poner una marca de agua informando de ello.

La detección forense sigue siendo la única barrera real.

Mi metodología: cómo detecto un deepfake paso a paso

Después de decenas de pericias sobre contenido audiovisual sospechoso, he desarrollado un proceso sistemático que equilibra rigor técnico con validez judicial.

  1. Preservación con garantías (esto es innegociable)

    Antes de tocar el archivo, lo primero es blindar la cadena de custodia:

    • Hash criptográfico SHA-256 del archivo tal como se recibe
    • Sellado de tiempo mediante autoridad de certificación (yo uso un TSA cualificado)
    • Documentación exhaustiva: origen, fecha de recepción, método de transferencia
    • Copia forense bit a bit con herramienta validada (FTK Imager o similar)
    • Acta de recepción firmada si la entrega es presencial
    Evidencia contaminada

    Si el abogado me dice “ya lo he abierto veinte veces en el móvil”, tenemos un problema. La evidencia contaminada es evidencia cuestionable.

  2. Análisis de metadatos (lo que el archivo cuenta de sí mismo)

    Los metadatos son el primer filtro. Un vídeo grabado con un iPhone tiene una huella característica: códec H.265, metadatos GPS si estaba activado, información del modelo exacto. Un deepfake generado con software de IA suele:

    • Carecer de metadatos o tenerlos genéricos
    • Mostrar fechas de creación inconsistentes
    • Identificar software de edición (FFmpeg, Adobe, etc.) donde debería haber un dispositivo móvil
    • Presentar resoluciones o framerates atípicos

    En el caso del CEO que mencionaba, el vídeo decía haber sido grabado con un iPhone 15 Pro, pero el códec utilizado (H.264 con un perfil concreto) no correspondía con ese dispositivo. Primera bandera roja.

  3. Análisis visual frame a frame

    Aquí es donde la experiencia marca la diferencia. Los deepfakes de 2026 son buenos, pero no perfectos. Mis indicadores favoritos:

    El parpadeo. Los humanos parpadeamos de forma irregular, entre 15 y 20 veces por minuto, con duraciones variables. Los modelos GAN históricamente han tenido problemas con esto. Aunque han mejorado, sigue siendo un punto débil.

    Los bordes faciales. Cuando amplío la zona donde el rostro se encuentra con el fondo o el cuello, busco transiciones demasiado suaves, difuminados artificiales, o el famoso “efecto de máscara” donde la cara parece flotar.

    La iluminación. Las sombras en el rostro deben corresponder con las fuentes de luz visibles en la escena. Un deepfake puede heredar la iluminación del vídeo de entrenamiento, no la del vídeo manipulado.

    Los movimientos rápidos. Cuando la persona gira la cabeza bruscamente o gesticula con rapidez, los modelos generativos sufren. Aparecen distorsiones, artefactos, frames donde “algo no encaja”.

    El cabello y los dientes. Siguen siendo el talón de Aquiles de la síntesis facial. Pelos que atraviesan bordes de forma imposible, dientes borrosos o con geometría extraña.

  4. Análisis de audio (si hay voz clonada)

    El audio es tan importante como el vídeo. Para detectar voz sintética:

    • Espectrogramas: Busco patrones demasiado regulares, armónicos artificiales, ausencia de ruido de fondo coherente.
    • Análisis de prosodia: La voz clonada suele tener entonación plana, pausas mecánicas, respiraciones ausentes o mal posicionadas.
    • Frecuencia fundamental (F0): Una F0 demasiado estable es sospechosa; la voz humana fluctúa constantemente.
    • Correlación labio-audio: ¿El movimiento de los labios coincide exactamente con el audio? Los errores de sincronización son reveladores.
  5. Herramientas especializadas

    No me fío de una sola herramienta. Mi arsenal actual incluye:

    HerramientaUso principal
    Amped AuthenticateAnálisis forense de vídeo profesional, detección de manipulaciones
    Deepware ScannerDetección automática de deepfakes faciales
    Hive ModerationAPI de detección de contenido sintético
    FotoForensics (ELA)Análisis de niveles de error para detectar ediciones
    PraatAnálisis acústico detallado de voz
    MediaInfo / ExifToolExtracción exhaustiva de metadatos
    Importante

    Ninguna herramienta es infalible. Los modelos de detección de deepfakes tienen falsos positivos y falsos negativos. El resultado de una herramienta es un indicio, no una conclusión. La interpretación experta es insustituible.

Cómo estructuro el informe pericial

Un informe técnicamente impecable es inútil si el juez no lo entiende. Mi estructura habitual:

  1. Objeto del peritaje: Qué se me ha pedido analizar y en qué contexto procesal.

  2. Cadena de custodia: Cómo he recibido la evidencia, hashes, sellos de tiempo, todo documentado.

  3. Metodología: Herramientas utilizadas, versiones, configuraciones. Debe ser reproducible por otro perito.

  4. Hallazgos técnicos: Aquí detallo cada anomalía encontrada, con capturas de pantalla, gráficos espectrales, comparativas frame a frame. Explico cada indicador en lenguaje accesible.

  5. Conclusiones: Dictamen claro. Evito el “podría ser” cuando puedo ser más preciso. Uso escalas de probabilidad cuando es apropiado.

  6. Limitaciones: Qué no he podido determinar y por qué. Un perito honesto reconoce los límites de su análisis.

  7. Anexos: Todos los datos técnicos, logs de herramientas, archivos de trabajo.

Objetivo del informe

El objetivo es que un lector sin conocimientos técnicos entienda las conclusiones, pero que un perito de la parte contraria encuentre toda la información necesaria para contrastar mi trabajo.

Consejos para abogados: qué hacer si sospechas de un deepfake

Si representas a alguien y crees que la prueba audiovisual de la otra parte puede estar manipulada:

  1. Solicita el archivo original. No una copia de WhatsApp, no una captura de pantalla del vídeo. El archivo fuente, en el formato de máxima calidad disponible.

  2. Exige información sobre la obtención. ¿Con qué dispositivo se grabó? ¿Cuándo? ¿Quién lo hizo? ¿Cómo llegó al procedimiento? Cada eslabón importa.

  3. Propón prueba pericial inmediatamente. Cuanto antes se preserve la evidencia con garantías, mejor. Si esperas a juicio, puedes encontrarte con que el archivo ha pasado por diez manos.

  4. Plantea la duda razonable. Si hay indicios de manipulación, no necesitas probar que es un deepfake al 100%. Basta con sembrar la duda suficiente sobre la autenticidad.

  5. Asegura que tu perito tiene experiencia específica. El análisis de deepfakes requiere conocimientos que van más allá del peritaje informático general.

El elefante en la sala: la IA va más rápido que la ley

Mientras escribo esto, los modelos generativos siguen mejorando. Cada mes aparecen técnicas más sofisticadas, más difíciles de detectar. Es una carrera armamentística donde la generación lleva ventaja.

Esto no significa que la detección sea imposible. Significa que:

  • La formación del perito debe ser continua
  • Las herramientas de hoy pueden quedar obsoletas en meses
  • El enfoque debe ser multicapa: ningún indicador aislado es concluyente
  • La colaboración entre peritos, investigadores y desarrolladores es esencial
Nueva realidad judicial

Lo que sí tengo claro es esto: un vídeo ya no es prueba de nada por sí mismo. La presunción de autenticidad que teníamos con el contenido audiovisual ha muerto. En 2026, toda prueba digital requiere verificación experta.

Y eso, paradójicamente, hace más necesario que nunca el trabajo del perito informático forense.

¿Necesitas verificar la autenticidad de contenido audiovisual?

Como perito informático especializado en análisis forense de deepfakes, puedo ayudarte a verificar vídeos, audios e imágenes con garantías procesales.

Consulta gratuita

Sobre el autor

Jonathan Izquierdo es perito informático forense especializado en Peritaje Forense con conocimientos en blockchain, criptomonedas, AWS Cloud, desarrollo de software y seguridad. Experiencia tecnológica de más de 20 años al servicio de la justicia digital, liderando equipos de desarrollo de software en ámbitos internacionales.

Ver más sobre mí

Volver al Blog

Posts Relacionados

Ver Todos los Posts »
Jonathan Izquierdo

Jonathan Izquierdo · Perito Forense

+15 años experiencia · AWS Certified

WhatsApp