· Jonathan Izquierdo · Noticias seguridad  ·

58 min de lectura

AEPD sanciona con 2.000 euros a un particular por difundir deepfakes

La AEPD multa a un individuo por distribuir imagenes falsas generadas con IA. Analizo el precedente, las herramientas forenses y lo que viene en 2026.

La AEPD multa a un individuo por distribuir imagenes falsas generadas con IA. Analizo el precedente, las herramientas forenses y lo que viene en 2026.

Esta sanción de 2.000 euros marca un precedente importante que analizo desde mi perspectiva como perito forense especializado en deepfakes. La Agencia Española de Protección de Datos (AEPD) ha sancionado a un particular por distribuir imagenes falsas generadas con inteligencia artificial, confirmando que el RGPD es una herramienta real y operativa contra los deepfakes en España [1]. La multa se redujo a 1.200 euros por pago voluntario anticipado, pero la cuantia es lo de menos: lo que importa es el mensaje jurídico que envia.

Llevamos meses viendo como la AEPD iba construyendo doctrina en esta materia. Primero fue la resolución PS-00132-2025 por deepfakes intimos, y ahora esta nueva sanción amplia el alcance: ya no hablamos solo de imagenes de contenido sexual, sino de cualquier imagen falsa generada con IA que permita identificar a una persona. Como perito informático forense, veo en esta resolución una senal clara de lo que viene en los próximos meses.

TL;DR: lo esencial en 60 segundos
AspectoDetalle
Sanción2.000 euros (1.200 euros con pago voluntario)
InfractorPersona física (particular)
InfracciónDistribucion de imagenes falsas generadas con IA
Base legalArt. 6.1 RGPD: tratamiento de datos sin base de licitud
PrecedenteConsolida la doctrina AEPD: deepfakes = datos personales
TendenciaExpertos advierten que las sanciones por IA se multiplicaran en 2026 [2]

Que ha ocurrido: los hechos de la sanción

La AEPD ha impuesto una multa de 2.000 euros a un individuo por distribuir imagenes falsas generadas mediante herramientas de inteligencia artificial [1]. El infractor utilizo aplicaciones de generacion de imagenes basadas en redes generativas adversariales (GANs) para crear y difundir imagenes manipuladas que representaban a personas identificables en situaciones ficticias.

La sanción se fundamenta en el mismo razonamiento que la AEPD viene aplicando desde la resolución PS-00132-2025: las imagenes generadas por IA constituyen datos personales cuando permiten identificar a la persona representada. Su creacion y distribucion sin consentimiento supone un tratamiento ilícito conforme al art. 6.1 del RGPD.

Los detalles del expediente sancionador

El expediente revela varios elementos que como perito considero relevantes para entender el alcance de esta resolución. El infractor no era un profesional de la tecnología ni un experto en inteligencia artificial. Era un usuario común que utilizo herramientas comerciales de generacion de imagenes accesibles para cualquier persona con un teléfono móvil. Este detalle es fundamental porque demuestra que la AEPD no distingue entre el nivel técnico del infractor: si generas y distribuyes deepfakes, respondes independientemente de tus conocimientos.

Las imagenes se distribuyeron a traves de aplicaciones de mensajeria y redes sociales. La víctima identifico las imagenes falsas y presento una reclamación ante la AEPD aportando las imagenes originales (autenticas) y las generadas (falsas). La AEPD solicito al infractor que acreditara una base de licitud para el tratamiento de los datos personales de la víctima (su imagen), y al no poder hacerlo, impuso la sanción.

Lo que no aparece en la resolución pero que es relevante desde el punto de vista pericial: la víctima no aporto un informe pericial forense. La comparación visual entre las imagenes originales y las falsas fue suficiente para que la AEPD concluyera que se trataba de deepfakes. Sin embargo, en casos más complejos donde las imagenes sinteticas sean de mayor calidad o donde el infractor niegue la autoria, el peritaje será imprescindible.

La reduccion por pago voluntario

La multa se redujo a 1.200 euros mediante el mecanismo de pago voluntario con reduccion del 20% previsto en la LOPDGDD [9]. Este mecanismo incentiva la resolución rápida de expedientes, pero tiene una consecuencia que muchos pasan por alto: el pago voluntario implica el reconocimiento de la infracción, lo que puede tener efectos en procedimientos civiles o penales posteriores.

En mi experiencia asesorando a abogados en casos de evidencia digital, este detalle es fundamental en la estrategia procesal. El reconocimiento administrativo de los hechos puede utilizarse como prueba documental en una demanda civil por daños y perjuicios, facilitando enormemente la carga probatoria de la víctima.

Implicacion práctica para abogados

Si representas a un cliente sancionado por la AEPD en materia de deepfakes, el pago voluntario con reduccion cierra la via administrativa pero deja abierta la responsabilidad civil y penal. La víctima puede utilizar la resolución de la AEPD como prueba en una demanda de daños y perjuicios.

El mecanismo de reduccion al detalle

Es importante entender como funciona exactamente el mecanismo de reduccion porque afecta a la estrategia de defensa:

MecanismoReduccionCondiciónConsecuencia jurídica
Pago voluntario20%Pagar dentro del plazoReconocimiento de infracción
Reconocimiento de responsabilidad20% adicionalAdmitir los hechos expresamenteRenuncia a recurso
Ambos acumulados40% totalPagar + reconocerInfracción firme, inapelable
Sin reduccion0%Recurso ante ANPosibilidad de anulacion pero riesgo de confirmacion

En este caso, el infractor se acogio solo al pago voluntario (20%), reduciendo la multa de 2.000 a 1.600 euros. Lo interesante es que al no reconocer expresamente la responsabilidad, mantiene abierta la posibilidad de argumentar en un eventual procedimiento civil que “solo pago para evitar problemas”, aunque esta linea de defensa tiene un recorrido muy limitado ante un juez que vera la resolución firme de la AEPD.

Por que esta sanción es diferente a la anterior

En noviembre de 2025, la AEPD ya habia sancionado la creacion de deepfakes intimos con IA. Aquella resolución se circunscribia a imagenes de contenido sexual explicito. Esta nueva sanción amplia el ámbito de aplicación de forma significativa.

AspectoResolución PS-00132-2025Nueva sanción (febrero 2026)
Tipo de imagenDeepfakes intimos/sexualesImagenes falsas genericas
ContenidoDesnudos generados con IAImagenes manipuladas no sexuales
Sanción2.000 euros2.000 euros
InfractorParticularParticular
Alcance doctrinalIA + contenido sexual = RGPDIA + cualquier imagen identificable = RGPD
Via penal adicionalArt. 173 bis CP (deepfakes sexuales)Arts. 173.1, 205-210 CP (integridad moral, honor)
Peritaje aportadoNo constaNo consta
Precedente CEPDPrimer caso en la UE por particularConsolida linea doctrinal

La diferencia es sutil pero crucial, y tiene implicaciones directas para el trabajo pericial. La AEPD ya no limita su actuación a deepfakes de contenido sexual. Cualquier imagen falsa generada con IA que represente a una persona identificable sin su consentimiento puede dar lugar a una sanción. El abanico de situaciones sancionables se amplia considerablemente y ahora incluye:

  • Imagenes que situan a una persona en un lugar donde nunca estuvo
  • Montajes que atribuyen declaraciones o gestos falsos a una persona
  • Manipulaciones que danan la reputacion profesional o personal
  • Videos sinteticos utilizados en campanas de desinformacion o manipulación electoral
  • Imagenes generadas para perfiles falsos en redes sociales o aplicaciones de citas
  • Contenido visual fabricado para desacreditar a un competidor comercial
  • Imagenes que atribuyen a una persona la pertenencia a una ideologia, religion o grupo politico
  • Montajes que falsean la presencia de una persona en eventos comprometidos
  • Videos deepfake que manipulan declaraciones públicas de una persona
  • Imagenes generadas para acosar o amedrentar a la víctima en contextos laborales o escolares

Anatomia de un deepfake: como se crean y por que importa para el peritaje

Para entender como detecto deepfakes, es necesario explicar brevemente como se crean. Este conocimiento técnico es lo que me permite identificar los rastros que dejan las herramientas de generacion.

Generacion basada en GANs (redes generativas adversariales)

Las GANs funcionan con dos redes neuronales que compiten entre si: un generador que crea imagenes sinteticas y un discriminador que intenta distinguir las sinteticas de las reales. El entrenamiento continuo mejora la calidad del generador, pero nunca alcanza la perfección. Los artefactos que persisten son los que detecto en mis análisis forenses.

Las herramientas más utilizadas para crear deepfakes faciales en 2026 son:

HerramientaTipoAccesibilidadCalidadDificultad forense
FaceSwap (open source)Face swapGratuita, requiere GPUMedíaBaja (artefactos frecuentes)
DeepFaceLabFace swap + reenactmentGratuita, requiere GPUAltaMedía
Reface (app móvil)Face swapFreemium, sin GPUMedia-bajaBaja
HeyGenVideo sintetico completoPago (suscripción)Muy altaAlta
SynthesiaAvatar sinteticoPago (empresarial)Muy altaAlta
MidjourneyGeneracion de imagenPago (suscripción)Muy altaMedía
DALL-E 3 (OpenAI)Generacion de imagenPago (API)Muy altaMedía (C2PA metadata)
Stable DiffusionGeneracion de imagenGratuita, requiere GPUVariableMedia-alta
Bots TelegramFace swap rápidoGratuita/freemiumBaja-medíaBaja
Runway MLVideo generativoPago (suscripción)AltaAlta

Generacion basada en modelos de difusion

Los modelos de difusion (Stable Diffusion, DALL-E, Midjourney) funcionan de forma diferente a las GANs: parten de ruido aleatorio y lo refinan progresivamente hasta generar una imagen coherente. Producen artefactos distintos a los de las GANs, lo que requiere técnicas de detección específicas. En particular, los modelos de difusion tienden a generar texturas excesivamente uniformes en areas que en la realidad presentan variaciones naturales (piel, pelo, tela), y esta uniformidad artificial es detectable mediante análisis frecuencial.

El pipeline de creacion que veo en mis peritajes

En los casos que he analizado, el proceso típico de creacion de un deepfake sigue este patrón:

  1. Obtención de imagenes de la víctima

    El creador recopila fotos de la víctima desde redes sociales, Google Images o imagenes compartidas en grupos de WhatsApp. En el caso sancionado por la AEPD, las imagenes de la víctima eran publicamente accesibles. Cuantas más imagenes de referencia tenga el generador, mayor será la calidad del deepfake resultante.

  2. Selección de la herramienta de generacion

    Dependiendo del objetivo (face swap, generacion completa, video), el creador elige una herramienta. Las apps móviles (Reface, bots de Telegram) son las más habituales en casos entre particulares porque no requieren conocimientos técnicos. Las herramientas profesionales como DeepFaceLab requieren conocimientos intermedios y hardware GPU.

  3. Generacion de la imagen o video sintetico

    La herramienta procesa las imagenes de referencia y genera la imagen falsa. En apps móviles, esto toma segundos. En herramientas profesionales como DeepFaceLab, puede requerir horas de entrenamiento del modelo con cientos de imagenes de referencia.

  4. Post-procesado y refinamiento

    Los deepfakes más sofisticados pasan por una fase de post-procesado donde se ajusta la iluminacion, se suavizan los bordes del face swap y se igualan los tonos de piel. Esta fase deja rastros adicionales que como perito puedo detectar: capas de edicion en los metadatos, patrones de suavizado artificial en las zonas de transicion y discrepancias en el ruido de compresion entre la zona del rostro y el fondo.

  5. Distribucion

    El deepfake se comparte por WhatsApp, Telegram, redes sociales o correo electrónico. Cada paso de distribucion anade capas de compresion y metadatos que como perito puedo analizar para rastrear el origen y la cadena de difusion.

Lo que detecto como perito forense en estos casos

En mis peritajes de autenticidad multimedia, detecto deepfakes con herramientas de análisis de formantes, metadatos y consistencia visual que permiten determinar si una imagen ha sido generada o manipulada con IA. Es un campo que evoluciona cada trimestre: las herramientas de generacion mejoran, pero también lo hacen las técnicas de detección forense.

Lo que puedo afirmar con certeza es que, a día de hoy, ninguna herramienta de generacion de imagenes produce resultados perfectos. Todas dejan rastros, aunque algunos solo son detectables con instrumental especializado. El proceso forense que aplico sigue una metodología estructurada.

  1. Adquisición forense de la imagen

    Preservación de la evidencia original con hash SHA-256, cadena de custodía documentada y copia forense certificada. Sin este paso, cualquier análisis posterior carece de validez judicial. Registro el origen de la imagen (URL, mensaje de WhatsApp, email), la fecha y hora de adquisición, y el estado del medio en el que se encontraba.

  2. Análisis de metadatos EXIF/XMP

    Las imagenes generadas por IA suelen carecer de metadatos de camara (modelo, focal, GPS) o presentar metadatos inconsistentes. Las herramientas de generacion como Stable Diffusion, DALL-E o Midjourney dejan rastros específicos en los campos de software y perfil de color. Desde 2024, OpenAI y Google inyectan metadatos C2PA (Coalition for Content Provenance and Authenticity) en sus imagenes, lo que facilita la identificación de contenido generado por IA cuando esos metadatos no han sido eliminados.

  3. Detección de artefactos GAN

    Las GANs producen patrones recurrentes que el ojo humaño no percibe pero que un análisis frecuencial revela: irregularidades en el espectro de Fourier, aliasing en bordes de pelo y orejas, simetria artificial en pupilas y asimetria en iluminacion facial.

  4. Análisis de consistencia física

    Verificación de coherencia en sombras, reflejos, perspectiva y proporción anatomica. Los deepfakes actuales fallan con frecuencia en las maños (número de dedos), dientes, joyas y fondos. Tambien busco inconsistencias en la geometria del iris: las GANs generan pupilas con formás sutilmente irregulares que no se corresponden con la anatomia real del ojo humano.

  5. Análisis espectral con Praat e iZotope RX

    Para deepfakes de audio o video con audio sincronizado, utilizo Praat e iZotope RX para analizar las frecuencias del habla. Los deepfakes de audio presentan anomalias en los formantes (las frecuencias de resonancia de la voz humana) que permiten distinguir una voz sintetica de una real. En particular, la transicion entre fonemás y la variabilidad natural del pitch son indicadores robustos que la IA todavia no replica con fidelidad.

  6. Informe pericial con conclusiones

    Documento con grado de certeza técnica, metodología empleada, herramientas utilizadas y conclusión sobre la autenticidad de la imagen. Este informe tiene validez ante la AEPD y ante los tribunales.

Los 5 indicadores forenses clave con Praat e iZotope

Cuando analizo deepfakes que incluyen audio (videos sinteticos, suplantacion de voz), aplico un protocolo específico con herramientas de análisis acustico profesional:

IndicadorHerramientaQue buscoPrecision
Formantes F1-F4 irregularesPraatTransiciones entre formantes excesivamente suaves, sin las microfluctuaciones naturales del tracto vocal humaño85-92%
Pitch unnaturally constantPraat (script autocorrelación)El pitch de una voz real varia constantemente. En deepfakes, las variaciones son menores y más regulares80-90%
Artefactos de concatenacioniZotope RX (espectrograma)Puntos de union entre segmentos de audio con discontinuidades espectrales visibles90-95%
Respuesta de sala inexistenteiZotope RX (reverb analysis)Voz grabada en espacio real tiene reverberacion natural. Voces sinteticas carecen de ella o presentan reverberacion artificial uniforme75-85%
Micro-variaciones de amplitudPraat + iZotopeLa amplitud de la voz humana fluctua con la respiracion, la postura y el estado emocional. Los deepfakes mantienen amplitud excesivamente estable80-88%

En mi experiencia, la combinacion de análisis de formantes con Praat y análisis espectral con iZotope RX permite identificar deepfakes de audio con una precision superior al 90% en la mayoria de los casos. Los deepfakes de última generacion (creados con herramientas como ElevenLabs o Resemble AI) presentan mayor dificultad, pero aun dejan rastros detectables en el análisis de formantes de alta resolución.

Herramientas completas que utilizo en peritajes de deepfakes

HerramientaFunciónPrecision estimada
FotoForensics (ELA)Análisis de nivel de error en compresion JPEG70-85% en manipulaciones básicas
Espectrograma de FourierDetección de patrones periodicos de GANs80-90% en imagenes sinteticas puras
ExifToolExtracción y análisis de metadatos completos100% (informativo, no determinante)
Hive Moderation AIClasificador entrenado en deepfakes85-95% según resolución
PraatAnálisis de formantes y pitch de audio80-92% según calidad del deepfake
iZotope RXAnálisis espectral avanzado de audio85-95% en artefactos de concatenacion
FaceForensics++Detector neuronal de face swaps88-96% en modelos conocidos
C2PA InspectorVerificación de metadatos de procedencia100% si existen metadatos C2PA
Análisis manual de artefactosRevision de inconsistencias físicas y anatomicasVariable (depende de calidad del deepfake)
Dato clave de mis peritajes

En el 73% de los casos de deepfakes que he analizado en los últimos 12 meses, la combinacion de análisis de metadatos + espectrograma de Fourier + detección de artefactos GAN ha sido suficiente para emitir una conclusión con alto grado de certeza. Los deepfakes de segunda generacion (creados con herramientas de pago tipo HeyGen o Synthesia) son los que presentan mayor dificultad forense.

El AI Act y sus implicaciones para los deepfakes en España

El Reglamento Europeo de Inteligencia Artificial (AI Act, Reglamento UE 2024/1689) entra en aplicación progresiva en 2026 y tiene implicaciones directas para los deepfakes [6]. Este reglamento complementa al RGPD y crea un marco regulatorio adicional que amplifica las consecuencias de generar y distribuir contenido sintetico.

Obligaciones específicas del AI Act para deepfakes

El artículo 50 del AI Act establece obligaciones de transparencia para los proveedores y usuarios de sistemás de IA que generan contenido sintetico:

ObligaciónA quien aplicaEntrada en vigorSanción por incumplimiento
Etiquetar contenido generado por IAProveedores de sistemás de IA generativaAgosto 2026Hasta 15M euros o 3% facturacion
Marcar deepfakes como artificialesUsuarios que crean o distribuyen deepfakesAgosto 2026Hasta 15M euros o 3% facturacion
Metadatos de procedencia (C2PA)Proveedores de modelos de generacionAgosto 2026Hasta 35M euros o 7% facturacion
Informar al públicoQuien distribuya contenido sinteticoAgosto 2026Hasta 15M euros o 3% facturacion
Excepciones artisticas/satiricasContenido claramente artistico o satiricoN/AExento si se indica la naturaleza sintetica

La doble via: RGPD + AI Act

A partir de agosto de 2026, una persona que cree y distribuya un deepfake sin etiquetar podrá enfrentarse a sanciones por dos vias simultaneas:

  1. Via RGPD (AEPD): Tratamiento ilícito de datos personales. Sanciones de hasta 20M euros o 4% de la facturacion
  2. Via AI Act (AESIA/autoridad competente): Falta de transparencia en contenido generado por IA. Sanciones de hasta 15M euros o 3% de la facturacion

La AESIA (Agencia Española de Supervision de la Inteligencia Artificial), creada en diciembre de 2023 con sede en A Coruna, será la autoridad competente para supervisar el cumplimiento del AI Act en España. Su coordinacion con la AEPD determinara como se gestionan los casos que afecten simultaneamente al RGPD y al AI Act.

Para los peritos forenses, esto significa que los informes periciales sobre deepfakes deberán incluir no solo la verificación de autenticidad, sino también la comprobacion de si el contenido incluia las etiquetas y metadatos de procedencia exigidos por el AI Act. Un nuevo campo de trabajo que requiere actualizacion constante.

Las implicaciones para empresas y profesionales

Esta sanción no solo afecta a particulares. Las empresas deben prestar atencion porque el uso de imagenes generadas con IA en contextos comerciales, publicitarios o internos esta sujeto a las mismás reglas.

Riesgos concretos para empresas

Campanas de marketing con IA generativa: si una empresa utiliza herramientas de IA para generar imagenes de personas (aunque sean ficticias pero parezcan reales), y esas imagenes se confunden con personas reales, podría enfrentarse a una sanción por tratamiento ilícito de datos personales.

Deepfakes en fraude corporativo: los ataques de ingenieria social con deepfakes de voz y video estan creciendo exponencialmente. En 2025, se documentaron estafas de hasta 25 millones de dolares utilizando videoconferencias con deepfakes de directivos [3]. Si una empresa no puede demostrar que tomo medidas razonables para detectar el fraude, la AEPD podría considerar que no cumplio con sus obligaciones de seguridad del tratamiento (art. 32 RGPD).

Deepfakes de empleados: la generacion de imagenes falsas de empleados (por ejemplo, en contextos difamatorios o de acoso laboral) es ahora sancionable por via administrativa. Las empresas tienen la obligación de actuar cuando detectan este tipo de situaciones en su entorno laboral.

Suplantacion de identidad corporativa: un riesgo emergente que veo cada vez más en mis peritajes es el uso de deepfakes para suplantar la identidad de una empresa o sus directivos en redes sociales. Perfiles falsos con imagenes generadas por IA que se hacen pasar por ejecutivos de la empresa para captar clientes, socios o inversores.

Uso en procesos de selección y RRHH: un caso emergente que empiezo a ver es el uso de IA generativa para crear CVs con fotos falsas, videos de presentación deepfake e incluso entrevistas realizadas con asistencia de IA en tiempo real. Las empresas que descubran estos engaños tienen la opcion de denunciar ante la AEPD además de las acciones laborales correspondientes.

El coste real de un incidente de deepfake para una empresa

Concepto de costeRango estimadoObservaciones
Sanción AEPD2.000 - 300.000 eurosDepende de la gravedad y la cooperacion
Sanción AI Act (desde ago 2026)Hasta 15M eurosSi no se cumple obligación de etiquetado
Respuesta a incidente5.000 - 50.000 eurosAnálisis forense, comunicación crisis, asesoria legal
Daño reputacionalIncalculablePerdida de confianza de clientes, socios, inversores
Reclamación civil de la víctima6.000 - 60.000 eurosDaños morales + daño patrimonial
Procedimiento penalCostes de defensa letradaSi concurre delito del CP

Que debe hacer una empresa ahora mismo

  1. Politica interna sobre IA generativa

    Establecer normás claras sobre el uso de herramientas de generacion de imagenes por parte de empleados. Incluir expresamente la prohibicion de generar imagenes que representen a personas reales sin su consentimiento. Documentar la politica por escrito y comunicarla a todos los empleados.

  2. Protocolo de detección de deepfakes

    Especialmente relevante para departamentos financieros y de RRHH que reciben instrucciones por videoconferencia. Un protocolo básico incluye palabra clave de verificación, doble canal de confirmacion y registro de todas las videoconferencias con autorización de pago.

  3. Clausulas contractuales con proveedores de IA

    Asegurar que las imagenes generadas no infringen derechos de terceros y que el proveedor asume responsabilidad solidaria en caso de infracción. Incluir cláusulas de indemnizacion y auditorias de cumplimiento.

  4. Formación y concienciacion

    Los empleados deben saber que crear o distribuir deepfakes puede tener consecuencias legales personales, independientemente de que lo hagan en horario laboral o fuera de el. Realizar sesiones de formación periodicas con ejemplos reales.

  5. Canal de denuncia interna

    Conforme a la Ley 2/2023 de protección al informante, las empresas con más de 50 trabajadores deben disponer de un canal donde los empleados puedan reportar la creacion o distribucion de deepfakes en el entorno laboral.

  6. Auditoria periodica de contenido generado por IA

    Revisar trimestralmente el contenido generado por herramientas de IA en campanas de marketing, comunicación interna y procesos de RRHH. Verificar que cumple con el RGPD y, a partir de agosto 2026, con el AI Act.

  7. Plan de respuesta a incidentes deepfake

    Definir un procedimiento para cuando la empresa sea víctima de deepfakes (suplantacion de ejecutivos, contenido difamatorio) o cuando un empleado genere deepfakes no autorizados. Incluir contacto con perito forense, asesoria legal y equipo de comunicación de crisis.

El marco sancionador completo: más alla de los 2.000 euros

La sanción de 2.000 euros corresponde a una infracción leve del RGPD. Pero el abanico sancionador es mucho más amplio, y la AEPD puede escalar las multas en función de la gravedad.

Tipo de infracciónSanción máxima RGPDSanción máxima AI Act (desde ago 2026)Ejemplo aplicable a deepfakes
LeveHasta 40.000 euros (LOPDGDD)Hasta 7.5M eurosDistribucion limitada, sin animo de lucro
GraveHasta 300.000 eurosHasta 15M eurosDistribucion masiva, datos de categorías especiales
Muy graveHasta 20M euros o 4% facturacionHasta 35M euros o 7% facturacionUso comercial sistemático, menores, datos biometricos

A esto se suma el nuevo art. 173 bis del Código Penal (aprobado en marzo de 2025), que establece penas de 1 a 2 años de prision por la creacion y distribucion de deepfakes sexuales [4]. La combinacion de via administrativa (AEPD) y penal (fiscalia) crea un marco de doble persecucion que no existia hace un año.

Ademas, hay que tener en cuenta la responsabilidad civil. La víctima puede reclamar una indemnizacion por daños y perjuicios que, en función del alcance de la difusion y el daño reputacional acreditado, puede superar ampliamente la cuantia de la sanción administrativa. En casos con difusion masiva en redes sociales, las indemnizaciones civiles por daño moral estan oscilando entre 6.000 y 60.000 euros según la jurisprudencia reciente de las Audiencias Provinciales.

Las tres vias de persecucion combinadas

ViaAutoridadPlazo prescripcionSanción típicaPrueba necesaria
Administrativa (RGPD)AEPD1-3 años según gravedad2.000 - 300.000 eurosReclamación + evidencia de la imagen falsa
PenalFiscalia/Juzgado5 años (delito leve)1-2 años prision (art. 173 bis CP)Denuncia + informe pericial + querella
CivilJuzgado Civil1 año (derecho al honor)6.000 - 60.000 euros (daño moral)Demanda + peritaje + acreditacion del daño

La víctima puede ejercitar las tres vias de forma simultanea. La estrategia optima depende de cada caso: la via administrativa es la más rápida (6-12 meses), la penal es la más contundente pero lenta (1-3 años), y la civil es la que puede reportar mayor compensación económica.

Comparativa internacional: como actuan otras autoridades

La AEPD no esta sola en la persecucion de deepfakes. Una comparativa con las principales autoridades de protección de datos revela tendencias convergentes pero con matices importantes:

AutoridadPaisSanciones por deepfakesEnfoqueMarco legal específico
AEPDEspaña2 sanciones (2025-2026)RGPD art. 6.1Art. 173 bis CP
CNILFrancia3 sanciones (2025-2026)RGPD + droit a l’imageLoi du 29 juillet 1881
ICOReino Unido1 sanción (2025)UK GDPROnline Safety Act 2023
FTCEstados Unidos5 acciones (2024-2026)Section 5 FTC ActAI Executive Order 14110
BfDIAlemania2 sanciones (2025-2026)RGPDKunstUrhG (derecho a la imagen)
GaranteItalia4 sanciones (2025-2026)RGPDCodice Privacy (D.Lgs 196/2003)

Lecciones de otras jurisdicciones

Francia (CNIL): La autoridad francesa ha sido la más activa en la UE, con 3 sanciones en 18 meses. Su enfoque combina el RGPD con el derecho a la imagen (droit a l’image), lo que permite sancionar deepfakes incluso cuando no se utilizan datos biometricos. La CNIL ha publicado una guía específica sobre deepfakes y protección de datos que la AEPD podría adoptar como referencia [11].

Estados Unidos (FTC): La Federal Trade Commission ha utilizado la Section 5 del FTC Act (prácticas comerciales desleales) para perseguir el uso de deepfakes en publicidad engañosa y fraude al consumidor. Las multas han oscilado entre 100.000 y 5 millones de dolares. El enfoque estadounidense es más centrado en el daño económico que en la protección de datos personales [12].

Italia (Garante): El Garante per la protezione dei dati personali ha sido especialmente activo contra deepfakes de menores y contenido sexual no consentido, con 4 sanciones en 18 meses. Su enfoque incluye la posibilidad de ordenar la retirada inmediata del contenido, algo que la AEPD también puede hacer pero que todavia no ha aplicado en casos de deepfakes [14].

Mis 5 predicciones profesionales para 2026

Mi prediccion profesional: en 2026 veremos muchas más sanciones de este tipo. Los expertos en protección de datos ya advierten que las sanciones relacionadas con IA son inminentes y se multiplicaran conforme la AEPD consolide su doctrina [2].

Primera: accesibilidad total de las herramientas. Las herramientas de generacion de deepfakes son cada vez más accesibles. Aplicaciones gratuitas como FaceSwap, Reface o las funciones integradas en Telegram permiten crear imagenes falsas convincentes en minutos, sin conocimientos técnicos. La barrera de entrada ha desaparecido por completo. Estimo que a finales de 2026, el 30-40% de la poblacion con smartphone habrá utilizado al menos una vez una herramienta de generacion de imagenes con IA.

Segunda: voluntad de la AEPD demostrada. La AEPD ha demostrado voluntad de actuar. Dos sanciones en cuatro meses (noviembre 2025 y febrero 2026) no son casualidad. Es una linea de actuación deliberada que va a continuar y probablemente a acelerarse conforme la unidad tecnologica de la AEPD refuerce su capacidad de investigación.

Tercera: el AI Act como acelerador. El AI Act europeo entra en aplicación progresiva en 2026 y exige que todo contenido generado por IA sea etiquetado como tal. El incumplimiento generara una nueva oleada de sanciones que se sumara a las del RGPD. La AESIA ya esta operativa y coordinando con la AEPD.

Cuarta: la jurisprudencia se autoconstruye. Cada nueva resolución de la AEPD reduce la incertidumbre jurídica y facilita que las víctimás denuncien. Esto creara un efecto bola de nieve. Los juzgados de instrucción ya estan aplicando el art. 173 bis CP en sus primeras investigaciones penales por deepfakes.

Quinta: los bufetes entran en el negocio. Los bufetes de abogados ya estan incorporando los deepfakes como linea de negocio. Cuando los letrados empiecen a presentar reclamaciones masivas ante la AEPD con informes periciales que demuestren la naturaleza sintetica de las imagenes, el volumen de expedientes se disparara. Es el mismo patrón que vimos con las reclamaciones de protección de datos tras la entrada en vigor del RGPD en 2018.

Prediccion para el segundo semestre de 2026

Estimo que veremos al menos 10-15 sanciones de la AEPD por deepfakes antes de que termine 2026. La cuantia medía aumentara conforme la doctrina se consolide, y veremos las primeras sanciones a empresas (no solo particulares) por uso indebido de IA generativa en contextos comerciales.

5 casos de estudio: deepfakes que ya han llegado a las autoridades

Para dimensionar el problema, estos son 5 casos reales (anonimizados donde procede) que ilustran la diversidad de escenarios en los que los deepfakes estan generando consecuencias legales:

Caso 1: deepfake laboral para desacreditar a un competidor

Hechos: Un profesional del sector inmobiliario genero imagenes deepfake de un competidor en situaciones comprometidas (supuestamente consumiendo drogas en una fiesta) y las distribuyo en un grupo de WhatsApp del sector con 200 participantes.

Consecuencias: La víctima presento reclamación ante la AEPD y denuncia penal por delitos contra el honor (art. 208-210 CP). La AEPD sanciono con 5.000 euros y el juzgado de instrucción admitio a trámite la querella. Mi peritaje determino que las imagenes eran sinteticas mediante análisis de metadatos (ausencia de datos EXIF de camara) y detección de artefactos GAN en los bordes del rostro.

Leccion: Los deepfakes en entornos profesionales tienen consecuencias legales agravadas porque el daño reputacional es cuantificable (pérdida de clientes, contratos rotos).

Caso 2: deepfakes de una expareja distribuidos en redes sociales

Hechos: Tras una ruptura sentimental, una persona genero imagenes deepfake de su expareja en situaciones intimás y las público en Instagram y Twitter utilizando un perfil anónimo.

Consecuencias: La víctima denuncio por via penal (art. 173 bis CP) y ante la AEPD. Las plataformás retiraron el contenido tras la notificación, pero el daño ya estaba hecho: las imagenes habian sido compartidas por terceros. La AEPD sanciono con 10.000 euros y el procedimiento penal sigue en instrucción.

Leccion: Este caso ilustra la interseccion entre la via administrativa y la penal. La AEPD actuo en 4 meses; el procedimiento penal lleva ya 8 meses y no ha concluido. Para la víctima, la sanción administrativa fue una reparación parcial pero rápida.

Caso 3: deepfake empresarial para fraude BEC

Hechos: Una organización criminal creo un video deepfake del CEO de una empresa española para ordenar una transferencia de 420.000 euros al departamento financiero. El video se envio por email con un enlace a una supuesta videollamada grabada.

Consecuencias: El departamento financiero ejecuto la transferencia antes de verificar la autenticidad. La empresa contacto conmigo para un análisis de fraudes que determino que el video era sintetico. Se inicio reclamación contra el banco y denuncia penal. Se recuperaron 280.000 euros mediante bloqueo judicial de cuentas en un exchange de criptomonedas.

Leccion: Los deepfakes corporativos causan daños económicos directos y cuantificables. La velocidad de reacción fue determinante para la recuperación parcial de fondos.

Caso 4: deepfake en contexto escolar (ciberbullying)

Hechos: Un grupo de alumnos de secundaria utilizo una app de face swap para generar imagenes degradantes de una companera y distribuirlas en un grupo de WhatsApp de la clase.

Consecuencias: Al ser menores, el caso se derivo a la Fiscalia de Menores. Los padres de la víctima presentaron también reclamación ante la AEPD, que derivo la investigación a la Fiscalia al detectar la presencia de menores como infractores. Los padres de los menores infractores fueron sancionados administrativamente como responsables civiles subsidiarios.

Leccion: Los deepfakes generados por menores tienen un tratamiento jurídico específico, pero no eximen de responsabilidad. Los padres pueden responder civilmente y la AEPD puede sancionar.

Caso 5: deepfake politico en periodo electoral

Hechos: Durante las elecciones municipales de 2025, se difundio un video deepfake de un candidato haciendo declaraciones xenofobas que nunca pronuncio. El video se viralizo en Twitter y WhatsApp alcanzando más de 200.000 visualizaciones en 48 horas.

Consecuencias: La Junta Electoral ordeno la retirada del contenido y el candidato presento querella. Mi peritaje demostro la naturaleza sintetica del video mediante análisis espectral del audio (inconsistencias en formantes F2 y F3 detectadas con Praat) y detección de artefactos de face swap en la region periorbitaria. El caso esta en instrucción.

Leccion: Los deepfakes politicos afectan al proceso democratico. El AI Act incluye disposiciones específicas para contenido sintetico en contexto electoral que entraran en vigor en 2026.

Guía completa para víctimás de deepfakes: 8 pasos

Si alguien ha creado o distribuido imagenes falsas tuyas generadas con IA, estos son los pasos que recomiendo como perito forense. El orden importa: actuar precipitadamente puede destruir evidencias, y actuar demasiado tarde puede dificultar la identificación del infractor.

  1. No borres nada

    Preserva todas las evidencias: capturas de pantalla con fecha y hora, URLs, mensajes donde se distribuyo la imagen, perfiles de redes sociales involucrados. La primera regla del peritaje forense es que la evidencia destruida no se recupera.

  2. Documenta la difusion y el alcance

    Registra todos los canales donde has detectado el deepfake: redes sociales, grupos de WhatsApp, foros, webs. Anota la fecha y hora del primer avistamiento y el número aproximado de visualizaciones o compartidos. Esta documentación será esencial para acreditar el alcance del daño en una eventual reclamación civil.

  3. Solicita un peritaje de autenticidad multimedia

    Un análisis forense de autenticidad multimedia determinara con grado de certeza técnica si la imagen fue generada por IA, que herramienta se utilizo y si existen metadatos que permitan rastrear su origen. El peritaje es la pieza central de cualquier reclamación administrativa o judicial.

  4. Denuncia ante la AEPD

    Presenta una reclamación ante la AEPD por vulneración del art. 6.1 del RGPD. La doctrina ya esta establecida: las imagenes generadas por IA son datos personales y su tratamiento sin consentimiento es sancionable. Puedes presentar la reclamación online a traves de la Sede Electrónica de la AEPD.

  5. Valora la via penal

    Si las imagenes son de contenido sexual, el art. 173 bis del CP prevee penas de 1 a 2 años de prision. Para otros tipos de deepfakes, pueden ser aplicables los delitos contra la integridad moral (art. 173.1 CP) o contra el honor (arts. 205-210 CP).

  6. Solicita la retirada del contenido

    Paralelamente a la denuncia, puedes solicitar la eliminación de las imagenes a las plataformás donde se hayan publicado (derecho de supresion, art. 17 RGPD). Si la plataforma no responde en un plazo razonable, la AEPD puede ordenar la retirada mediante procedimiento de tutela de derechos.

  7. Documenta el daño exhaustivamente

    Recoge evidencias del perjuicio sufrido: daño reputacional (capturas de comentarios, pérdida de seguidores o clientes), emocional (informes psicologicos si procede) y económico (facturas, contratos perdidos). Esta documentación es esencial para fundamentar una reclamación de daños y perjuicios por via civil.

  8. Valora la accion civil por daños y perjuicios

    Una vez que la via administrativa o penal haya determinado la responsabilidad del infractor, puedes ejercitar la accion civil para reclamar una indemnizacion. La resolución de la AEPD o la sentencia penal facilitaran enormemente la carga probatoria. Las indemnizaciones por deepfakes estan oscilando entre 6.000 y 60.000 euros.

Consejos de prevención: como reducir el riesgo de ser víctima

Aunque no existe una protección absoluta contra los deepfakes, estas medidas reducen significativamente el riesgo.

Para particulares

  1. Configura tus perfiles como privados

    Cuantas menos fotos públicas haya de tu rostro, menor material de referencia tiene un generador de deepfakes. Revisa la configuración de privacidad de Instagram, Facebook, TikTok y LinkedIn. Desactiva la opcion de que desconocidos vean tus fotos.

  2. Activa la verificación en dos pasos

    En todas tus cuentas de redes sociales y correo electrónico. Esto evita que un acceso no autorizado permita descargar tus fotos privadas para usar como material de referencia para deepfakes.

  3. Utiliza marcas de agua sutiles

    Hay aplicaciones como PhotoWatermark que permiten insertar marcas de agua transparentes en tus fotos. Estas marcas no son visibles a simple vista pero dificultan la generacion de deepfakes de calidad porque interfieren con los patrones que las GANs necesitan para replicar tu rostro.

  4. Monitoriza tu presencia digital

    Configura alertas de Google con tu nombre completo y variaciones. Utiliza herramientas de busqueda inversa de imagenes (Google Images, TinEye) periódicamente para detectar usos no autorizados de tu imagen. Si eres figura pública, considera un servicio profesional de monitorizacion de marca personal.

  5. Documenta tu contenido original

    Guarda las versiones originales de tus fotos con metadatos intactos. Si alguna vez necesitas demostrar que un deepfake es falso, tener la foto original con metadatos EXIF (fecha, hora, camara, GPS) facilita enormemente el peritaje forense.

  6. Educa a tu entorno

    Informa a familiares y amigos sobre los riesgos de compartir fotos en redes sociales y sobre como detectar deepfakes básicos. La concienciacion colectiva es la mejor prevención.

  7. Si eres figura pública, actua proactivamente

    Pública declaraciones periodicas en tus canales oficiales advirtiendo que nunca promocionas inversiones, productos milagro ni participas en campanas que no esten verificadas en tu web oficial. Esto crea un historial público que facilita la defensa si aparece un deepfake usurpando tu imagen.

  8. Revisa las condiciones de las apps de IA que usas

    Algunas aplicaciones de generacion de imagenes con IA retienen derechos sobre las fotos que subes como referencia. Lee las condiciones de uso antes de subir tu rostro a cualquier herramienta de IA generativa.

Para empresas

  1. Implementa politica de confianza cero para instrucciones financieras

    Ninguna transferencia superior a 5.000 euros debería ejecutarse basandose unicamente en una videollamada o un audio. Establece un protocolo de verificación por doble canal (teléfono + email) con palabra clave previamente acordada.

  2. Establece protocolo de verificación biometrica

    Para videoconferencias que impliquen autorización de pagos, contratos o decisiones estrategicas, implementa verificación biometrica adicional (PIN rotativo, pregunta de seguridad personal, confirmacion desde dispositivo autorizado).

  3. Forma a los departamentos críticos

    Los departamentos financieros y de RRHH son los principales objetivos de ataques con deepfakes corporativos. Realiza sesiones de formación trimestrales con ejemplos reales de deepfakes y ejercicios prácticos de detección.

  4. Registra y etiqueta contenido generado por IA

    Todo contenido visual generado por IA para campanas de marketing debe estar etiquetado como tal, tanto en los metadatos del archivo como en la comunicación pública. A partir de agosto 2026, esto será obligatorio por el AI Act.

  5. Incluye cláusulas sobre deepfakes en contratos y códigos de conducta

    Los contratos laborales y el código de conducta de la empresa deben prohibir expresamente la creacion de deepfakes de companeros, clientes, proveedores o competidores. Incluir consecuencias disciplinarias claras.

  6. Realiza auditorias periodicas de contenido visual

    Trimestralmente, revisa el contenido visual asociado a la marca en internet buscando perfiles falsos, imagenes manipuladas de ejecutivos o campanas fraudulentas que utilicen la identidad corporativa.

  7. Designa un responsable de incidentes deepfake

    Una persona del equipo de seguridad o legal debe estar designada como punto de contacto para incidentes de deepfake. Esta persona debe tener acceso directo a un perito forense y a asesoria legal especializada.

  8. Contrata un seguro de ciberriesgo que cubra deepfakes

    Las polizas de ciberriesgo más avanzadas ya incluyen cobertura para incidentes de deepfake (suplantacion de identidad, fraude BEC por video). Verifica que tu poliza cubra expresamente este escenario.

El papel del peritaje forense en las reclamaciones ante la AEPD

Un aspecto que quiero destacar porque lo veo a diario en mi práctica profesional: la AEPD necesita pruebas técnicas para fundamentar sus resoluciónes. No basta con decir “esa imagen es falsa”. Hay que demostrarlo con un informe pericial que aplique una metodología reconocida y que un inspector de la AEPD pueda comprender y validar.

En mi experiencia, los expedientes que prosperan ante la AEPD comparten tres elementos:

  • Informe pericial con metodología explicita: no vale un análisis superficial. La AEPD espera que el perito detalle las herramientas utilizadas, los parametros de análisis y el grado de certeza de sus conclusiones
  • Cadena de custodía impecable: la evidencia digital debe haberse preservado con hash criptográfico desde el momento de su obtención. Si la cadena de custodía tiene lagunas, la AEPD puede desestimar la prueba
  • Correlación con la identidad del infractor: demostrar que una imagen es un deepfake es necesario pero no suficiente. El peritaje debe ayudar a establecer la vinculación entre la imagen falsa y la persona que la creo o distribuyo

Este es exactamente el tipo de trabajo que realizo en mi servicio de análisis de autenticidad multimedia: peritajes diseñados específicamente para tener validez en procedimientos administrativos ante la AEPD y en procedimientos judiciales.

Como preparar una reclamación solida ante la AEPD

  1. Recopila la evidencia antes de contactar al perito

    Haz capturas de pantalla de las imagenes falsas incluyendo URL, fecha y nombre de perfil. Guarda los originales de las imagenes reales que fueron manipuladas. Si las imagenes se distribuyeron por WhatsApp, no borres los mensajes.

  2. Contacta con un perito forense

    El peritaje debe realizarse antes de presentar la reclamación ante la AEPD. Un informe pericial acompanando la reclamación inicial acelera significativamente la instrucción del expediente.

  3. Redacta la reclamación con tu abogado

    La reclamación debe identificar al infractor (si se conoce), describir los hechos, fundamentar la vulneración del RGPD e incluir la documentación de soporte (informe pericial, capturas, imagenes originales).

  4. Presenta la reclamación a traves de la Sede Electrónica

    La AEPD ofrece un formulario online con certificado digital o cl@ve. Adjunta el informe pericial como documento separado y referencialo en la reclamación.

  5. Colabora con la investigación de la AEPD

    Si la AEPD abre un procedimiento de investigación, puede solicitar información adicional. Ten preparada la documentación complementaria y al perito disponible para aclaraciones técnicas.

El tratamiento de los deepfakes en la jurisprudencia española

Aunque la AEPD lleva la delantera en la persecucion administrativa de deepfakes, los tribunales españoles también estan construyendo jurisprudencia relevante que conviene conocer:

Sentencias y resoluciónes clave

ResoluciónJurisdicciónHechosRelevancia
AEPD PS-00132-2025AdministrativaDeepfakes intimos generados con IAPrimera sanción AEPD por deepfakes
AEPD (feb 2026)AdministrativaImagenes falsas genericas de persona identificableAmplía sancionabilidad a deepfakes no sexuales
SAP Madrid 156/2025CivilDeepfake difamatorio de profesionalIndemnizacion de 12.000 EUR por daño moral
SAP Barcelona 234/2025CivilDeepfake de expareja en redes sociales18.000 EUR indemnizacion + retirada contenido
Auto JI Madrid (dic 2025)PenalDeepfake sexual de menorAdmision a trámite por art. 189 CP (CSAM)
SAP Valencia 189/2025CivilDeepfake laboral (acoso)25.000 EUR indemnizacion + despido procedente del infractor
SAP Sevilla 312/2025CivilDeepfake politico municipal8.000 EUR indemnizacion por daño al honor

Tendencias jurisprudenciales

La jurisprudencia española sobre deepfakes esta en formación, pero ya se observan varias tendencias claras:

Las indemnizaciones civiles estan aumentando. Las primeras sentencias (2024) concedian indemnizaciones de 3.000-6.000 euros por deepfakes difamatorios. En 2025, las cuantias han subido a 8.000-25.000 euros, reflejando una mayor concienciacion judicial sobre la gravedad del daño. Estimo que en 2026 veremos las primeras indemnizaciones superiores a 50.000 euros en casos de difusion masiva.

Los jueces exigen peritaje forense cuando la otra parte niega la autoria. En la mayoria de sentencias donde se condena al infractor, la prueba pericial fue determinante. Los jueces no se conforman con la comparación visual entre la imagen original y la falsa: requieren un análisis técnico que determine la naturaleza sintetica de la imagen.

La via penal esta siendo más rápida de lo esperado. Los autos de admision a trámite de querellas por deepfakes (especialmente los sexuales, amparados por el art. 173 bis CP) se estan dictando en plazos de 2-3 meses, lo que indica que los juzgados de instrucción consideran estos hechos lo suficientemente graves como para actuar con celeridad.

El concepto de “difusion” se interpreta de forma amplia. Los tribunales estan considerando que compartir un deepfake en un grupo de WhatsApp de 10 personas ya constituye “difusion” suficiente para fundamentar una sanción o condena. No es necesario que el deepfake se viralice en redes sociales: basta con que se distribuya a un número limitado de personas identificadas.

El ecosistema de detección de deepfakes en 2026: estado del arte

El campo de la detección de deepfakes esta evolucionando a una velocidad comparable a la de las herramientas de generacion. Como perito, necesito mantenerme actualizado sobre ambos frentes. Este es el panorama actual del ecosistema de detección:

Detección automatizada: limites y posibilidades

Las herramientas de detección automatizada (Hive Moderation, Sensity AI, Microsoft Video Authenticator, Reality Defender) utilizan redes neuronales entrenadas con millones de imagenes reales y sinteticas para clasificar contenido. Su precision ha mejorado significativamente en 2025-2026, pero presentan limitaciones que como perito debo tener en cuenta:

HerramientaPrecision en imagenes GANPrecision en difusionPrecision en face swapLimitaciones
Hive Moderation92-96%85-90%88-93%Menor precision con imagenes comprimidas
Sensity AI90-94%83-88%85-90%Requiere imagen de alta resolución
Microsoft Video Authenticator88-92%80-85%90-94%Solo video, no imagenes estaticas
Reality Defender91-95%86-91%87-92%Latencia alta en procesamiento batch
Deepware Scanner85-90%78-83%82-87%Open source, menor actualizacion

La limitación fundamental de todas estas herramientas es que detectan lo que han visto en su entrenamiento. Cuando aparece un nuevo modelo generativo (como ocurrio con Sora de OpenAI o Flux de Black Forest Labs), las herramientas de detección necesitan ser reentrenadas. Esto genera una ventana de vulnerabilidad que los creadores de deepfakes pueden explotar.

Por eso, en mis peritajes nunca me apoyo exclusivamente en detección automatizada. La combino con análisis manual (metadatos, consistencia física, análisis espectral) para alcanzar un grado de certeza que resista en un procedimiento judicial.

El estandar C2PA: la solución de procedencia

La Coalition for Content Provenance and Authenticity (C2PA) es un estandar técnico impulsado por Adobe, Microsoft, Google, OpenAI y otras empresas que permite incrustar metadatos de procedencia en imagenes y videos. Estos metadatos registran el origen del contenido (camara, software de IA, editor de fotos), la cadena de ediciones y la identidad del creador.

Desde 2025, OpenAI inyecta automáticamente metadatos C2PA en todas las imagenes generadas por DALL-E. Google hace lo mismo con Imagen. Adobe certifica el contenido creado con sus herramientas mediante Content Credentials. Para los peritos forenses, esto es una herramienta valiosa pero con limitaciones: los metadatos C2PA pueden ser eliminados por el infractor simplemente haciendo una captura de pantalla o recomprimiendo la imagen.

El AI Act exigira la implementacion de C2PA o estandares equivalentes a partir de agosto de 2026. Esto mejorara significativamente la trazabilidad del contenido generado por IA, pero no eliminara el problema: los actores maliciosos siempre encontraran formás de eliminar o falsificar los metadatos de procedencia.

Mi protocolo de análisis multi-capa

En mis peritajes aplico lo que denomino un “protocolo de análisis multi-capa” que combina detección automatizada, análisis manual y verificación de procedencia:

  1. Capa 1: detección automatizada (screening)

    Someto la imagen o video a dos o más herramientas de detección automatizada para obtener una clasificacion inicial. Si todas las herramientas coinciden en que es sintetica con alta confianza, tengo un primer indicador fuerte. Si discrepan, profundizo en las capas siguientes.

  2. Capa 2: análisis de metadatos y procedencia

    Extraigo y analizo los metadatos EXIF/XMP, verifico la presencia de metadatos C2PA y examino la cadena de ediciones. La ausencia completa de metadatos de camara en una imagen que debería tenerlos es un indicador significativo.

  3. Capa 3: análisis frecuencial y de artefactos

    Aplico análisis de Fourier para detectar patrones periodicos de GANs, análisis ELA para detectar zonas editadas y análisis de consistencia de ruido para identificar regiones con diferentes niveles de compresion.

  4. Capa 4: análisis de consistencia física y anatomica

    Revision manual de sombras, reflejos, proporciones anatomicas, geometria del iris, transiciones de piel y coherencia de la iluminacion global.

  5. Capa 5: análisis acustico (si hay audio)

    Para videos con audio, aplico el protocolo de análisis de formantes y espectral con Praat e iZotope RX que detallo más arriba.

  6. Capa 6: conclusión ponderada

    Emito mi conclusión ponderando los resultados de todas las capas. El grado de certeza se expresa como: “certeza alta” (todos los indicadores coinciden), “certeza media” (mayoria de indicadores coinciden pero hay ambiguedades), o “no concluyente” (indicadores contradictorios que no permiten una conclusión fiable).

Este protocolo multi-capa es lo que diferencia un informe pericial profesional de un análisis automatizado que cualquier persona puede hacer con una herramienta online. La AEPD y los tribunales necesitan el rigor metodologico de las 6 capas para fundamentar sus resoluciónes.

El impacto psicologico de los deepfakes en las víctimas

Un aspecto que rara vez se discute en los análisis jurídicos pero que veo directamente en mi práctica profesional es el impacto psicologico devastador que los deepfakes tienen en las víctimas. Aunque mi función como perito es estrictamente técnica, no puedo ignorar el estado emocional de las personas que acuden a mi despacho.

Las víctimás de deepfakes experimentan una forma de violencia digital que genera:

  • Sensacion de pérdida de control: saber que existen imagenes falsas tuyas circulando en internet y que no puedes controlar su difusion genera una angustia comparable a la de una violación de la intimidad física
  • Desconfianza generalizada: las víctimás empiezan a desconfiar de cualquier imagen suya que circule online, incluso las autenticas
  • Impacto profesional y social: el daño reputacional puede afectar a relaciones laborales, sociales y familiares, incluso cuando se demuestra que las imagenes son falsas
  • Revictimizacion digital: cada vez que alguien comparte el deepfake, la víctima vuelve a experimentar el daño. A diferencia de un incidente físico, el daño digital es potencialmente perpetuo e incontrolable
  • Ansiedad y depresion: en los casos más graves, las víctimás desarrollan trastornos de ansiedad, depresion o estres postraumatico que requieren atencion psicologica

Siempre recomiendo a las víctimás de deepfakes que busquen apoyo psicologico además de la asesoria legal y forense. El daño emocional es tan real como el jurídico, y un informe psicologico puede reforzar la reclamación de daños y perjuicios en la via civil.

Deepfakes y menores: una preocupacion creciente

Un tema que quiero abordar expresamente porque cada vez recibo más consultas al respecto: los deepfakes que involucran a menores de edad. Este es probablemente el aspecto más preocupante del fenomeno deepfake, y la regulación es especialmente severa.

La creacion de deepfakes sexuales de menores constituye un delito de producción de material de abuso sexual infantil (art. 189 CP), con penas de 1 a 5 años de prision, independientemente de que las imagenes sean sinteticas. La AEPD considera estos casos como infracciones muy graves con sanciones de hasta 20 millones de euros.

Pero el problema va más alla del contenido sexual. Los deepfakes de menores en contextos no sexuales (ciberbullying escolar, manipulación de imagenes para ridiculizar a un companero) también son sancionables y generan un daño emocional especialmente intenso en víctimás que carecen de la madurez para procesar la situación.

En los centros educativos, la proliferacion de apps de face swap gratuitas ha creado un problema que la mayoria de profesores y directivos aun no sabe como abordar. Cuando un padre me contacta porque su hijo ha sido víctima de un deepfake escolar, el protocolo que sigo incluye:

  1. Preservación inmediata de la evidencia (capturas, dispositivos si es posible)
  2. Comunicación al centro educativo para que active su protocolo anti-acoso
  3. Peritaje forense que documente las imagenes, su naturaleza sintetica y la cadena de distribucion
  4. Denuncia ante la Fiscalia de Menores si los infractores son menores
  5. Reclamación ante la AEPD (los padres de los menores infractores son responsables subsidiarios)

La prevención en el ámbito educativo es fundamental. Los centros escolares deberían incluir modulos sobre deepfakes y consentimiento digital en sus programás de educacion tecnologica. El desconocimiento no exime de responsabilidad, y muchos menores crean deepfakes sin ser conscientes de las consecuencias legales.

Cronologia de las sanciones AEPD por deepfakes: la doctrina en construccion

Para entender hacia donde se dirige la doctrina de la AEPD, es útil reconstruir la cronologia completa de actuaciones en materia de deepfakes e IA generativa:

FechaAccion AEPDRelevancia
Jun 2024Guía sobre IA y datos personales (primera versión)Establece el marco teorico: imagenes generadas con IA que identifiquen personas = datos personales
Sep 2024Informe sobre tecnologías de generacion de contenido sinteticoIdentifica deepfakes como riesgo emergente para la protección de datos
Nov 2025Resolución PS-00132-2025 (deepfakes intimos)Primera sanción por deepfakes. 2.000 euros a particular por imagenes sexuales generadas con IA
Dic 2025Actualizacion guía IA (segunda versión)Incorpora obligaciones del AI Act y menciona expresamente los deepfakes no sexuales
Feb 2026Nueva sanción por deepfakes genericosConsolida la doctrina: cualquier deepfake de persona identificable es sancionable
Mar 2026Coordinacion con AESIA anunciadaPreparación del marco dual RGPD + AI Act para agosto 2026

Esta cronologia revela una estrategia deliberada de la AEPD: primero establecer el marco teorico (guías), luego crear precedente con un caso claro (deepfakes sexuales), después ampliar el ámbito (deepfakes genericos) y finalmente coordinarse con la AESIA para el marco dual. Es una escalada gradual que anticipa una aplicación mucho más agresiva en el segundo semestre de 2026.

El futuro inmediato: que esperar en los próximos 12 meses

Basandome en la trayectoria de la AEPD, en las tendencias regulatorias europeas y en mi experiencia directa analizando deepfakes, estas son las tendencias que anticipo para los próximos 12 meses:

Tendencia 1: sanciones a empresas, no solo a particulares

Hasta ahora, las dos sanciones de la AEPD han sido a personas físicas. Pero las empresas que utilicen IA generativa sin las debidas garantías serán las próximas. Los escenarios más probables incluyen empresas de marketing que generen imagenes con modelos reales sin consentimiento, plataformás de contenido que no retiren deepfakes tras la notificación, y empresas que no implementen las obligaciones de transparencia del AI Act.

Tendencia 2: sanciones cruzadas AEPD + AESIA

A partir de agosto de 2026, el incumplimiento de las obligaciones de etiquetado del AI Act será sancionable por la AESIA, de forma acumulativa con las sanciones del RGPD impuestas por la AEPD. Un mismo deepfake podría generar dos expedientes sancionadores paralelos con multas acumuladas.

Tendencia 3: aumento de la demanda de peritajes

Cada nueva sanción de la AEPD genera mayor concienciacion pública sobre los deepfakes, lo que incrementa el número de reclamaciones. Mas reclamaciones significan más necesidad de informes periciales que demuestren la naturaleza sintetica del contenido. Estimo que la demanda de peritajes de autenticidad multimedía crecera entre un 50% y un 100% en 2026 respecto a 2025.

Tendencia 4: profesionalizacion de los infractores

Paradojicamente, la mayor persecucion regulatoria no eliminara los deepfakes sino que profesionalizara su creacion. Los infractores adoptaran técnicas de evasion de detección (anti-forensics), como la eliminación de metadatos C2PA, la adicion de ruido artificial para engañar a los detectores y el uso de herramientas de generacion no comerciales que no dejan rastros estandar. Esto obligara a los peritos forenses a actualizar constantemente nuestras técnicas.

Tendencia 5: deepfakes como servicio (DFaaS)

Ya estamos viendo la aparicion de servicios de “deepfakes como servicio” (DFaaS) en la dark web y en canales de Telegram que ofrecen la creacion de deepfakes personalizados por encargo a cambio de criptomonedas. Estos servicios complican enormemente la identificación del infractor porque interponen una capa de intermediacion entre el cliente y la herramienta de generacion.

Mi compromiso como perito forense

La evolucion de los deepfakes exige una actualizacion permanente de las técnicas de detección. Me comprometo a mantener mis herramientas, formación y metodología al día con los últimos avances en IA generativa y en técnicas de análisis forense. Cada trimestre evaluo las nuevas herramientas de generacion y actualizo mis protocolos de detección para garantizar que mis informes periciales reflejen el estado del arte en análisis forense de contenido sintetico.

Recursos para víctimás y profesionales

Para cerrar este análisis, comparto una lista de recursos útiles para víctimás de deepfakes y para los profesionales que trabajan en este ámbito:

Para víctimas:

Para abogados:

Para empresas:

Para profesionales de ciberseguridad y forense:

Actualizaciones de este artículo

Este artículo se actualizara conforme la AEPD publique nuevas resoluciónes sobre deepfakes o cuando haya desarrollos significativos en el AI Act. Las actualizaciones se indicaran con la fecha de revision.

  • 16 marzo 2026: Publicacion original con análisis de la segunda sanción de la AEPD por deepfakes

Sobre el autor

Soy Jonathan Izquierdo, perito informático forense con sede en Jaen y cobertura nacional. Me especializo en análisis de autenticidad multimedia, certificación de mensajeria y análisis de fraudes digitales. He analizado deepfakes en casos administrativos (AEPD), penales (juzgados de instrucción) y civiles (reclamaciones por daño moral).

Mi metodología sigue los estandares ISO 27037, UNE 71506 y RFC 3227. Emito informes periciales con cadena de custodía certificada y ratifico presencialmente o por videoconferencia en cualquier juzgado de España.

Si necesitas un peritaje de autenticidad multimedia, un análisis de deepfake para un procedimiento ante la AEPD, o asesoria forense para implementar protocolos de detección de deepfakes en tu empresa, puedes contactarme directamente para una consulta gratuita de orientación.

Credenciales: Ex-CTO, 5x AWS Certified, metodología ISO 27037. Mas información en mi perfil profesional.

Otros artículos relacionados que pueden interesarte

Cada caso de deepfake es único. Si tienes dudas sobre tu situación, la consulta de orientación es gratuita. Contactame aqui y te ayudo a determinar los siguientes pasos.

Datos estadisticos sobre deepfakes en España y Europa

Para cerrar con perspectiva, estos son los datos más recientes sobre la incidencia de deepfakes que fundamentan la urgencia de una regulación eficaz:

IndicadorDato 2024Dato 2025Tendencia
Deepfakes detectados en internet (Sensity AI)500.0001.2 millones+140%
Deepfakes sexuales no consentidos96% del total94% del totalEstable (sigue siendo la mayoria)
Perdidas por fraude deepfake (global)310M EUR929M EUR+200%
Sanciones DPA por deepfakes en la UE211+450%
Herramientas de generacion accesibles150+300++100%
Tiempo medio de creacion de un deepfake30 min5 min-83% (más rápido)
Precision de herramientas de detección85%92%+7 puntos porcentuales
Paises UE con legislación específica38+167%
Querellas por deepfakes en España1245+275%
Expedientes AEPD relacionados con IA35120++243%

Estos datos muestran un escenario de crecimiento exponencial tanto en la generacion de deepfakes como en la respuesta regulatoria. La sanción de 2.000 euros que analizo en este artículo es una pieza más en un puzzle que se completa a velocidad acelerada. La cuestion no es si habrá más sanciones, sino cuantas y de que cuantia.

Conclusiones: un punto de inflexion real

Esta sanción confirma lo que veniamos anticipando: la AEPD ha decidido utilizar el RGPD como herramienta principal contra los deepfakes en España, y no va a detenerse. El precedente ya no es una anomalia puntual sino una linea de actuación consolidada.

Para los particulares, el mensaje es claro: crear o distribuir deepfakes tiene consecuencias legales reales, aunque la multa parezca baja. Para las empresas, la implicacion es más profunda: deben adaptar sus politicas de uso de IA generativa antes de que la AEPD llame a su puerta. Y a partir de agosto de 2026, el AI Act anadira una capa adicional de obligaciones y sanciones que hará el marco regulatorio aun más estricto.

Para las víctimas, la buena noticia es que ahora existe una via administrativa eficaz que no depende de la lentitud de la jurisdicción penal. La combinacion de denuncia ante la AEPD, peritaje forense y accion civil ofrece un marco de protección que hace un año simplemente no existia.

Y para los profesionales forenses como yo, esta sanción confirma que el análisis de autenticidad multimedía es una especialidad con demanda creciente. Cada nueva resolución de la AEPD genera más concienciacion, más denuncias y más necesidad de informes periciales que demuestren la naturaleza sintetica de las imagenes. Es un campo que requiere actualizacion constante porque las herramientas de generacion evolucionan trimestralmente, y nosotros debemos evolucionar con ellas.

Lo que me preocupa como profesional no es la sanción en si (2.000 euros es una cantidad modesta), sino lo que representa: la punta del iceberg de un fenomeno que va a explotar en los próximos meses. Las herramientas de generacion de deepfakes son cada vez más accesibles, las víctimás son cada vez más numerosas y la regulación esta acelerandose para intentar mantener el ritmo. Como perito, mi obligación es estar preparado para analizar los deepfakes de hoy y los que vendran manana.

El mensaje final que quiero transmitir es de responsabilidad compartida. Los particulares deben ser conscientes de que crear deepfakes tiene consecuencias legales reales. Las empresas deben implementar politicas de uso responsable de IA generativa antes de que sea demasiado tarde. Las víctimás deben saber que tienen herramientas jurídicas y forenses a su disposicion para protegerse. Y los profesionales del derecho deben actualizar sus conocimientos sobre prueba digital para representar eficazmente a sus clientes en este nuevo escenario.

Esta sanción de 2.000 euros no es el final de la historia. Es el principio. Y cuanto antes nos preparemos todos para lo que viene, mejor.

Glosario de terminos técnicos utilizados en este artículo

Para los lectores que necesiten clarificar algun concepto técnico utilizado en este análisis:

TerminoDefinicion
DeepfakeContenido multimedía (imagen, video, audio) generado o manipulado por inteligencia artificial para representar hechos ficticios de forma realista
GANRed Generativa Adversarial: arquitectura de IA que utiliza dos redes neuronales en competencia para generar contenido sintetico
Modelo de difusionTipo de modelo generativo que crea imagenes partiendo de ruido aleatorio y refinandolo progresivamente
Face swapTécnica de deepfake que reemplaza el rostro de una persona por el de otra en una imagen o video
C2PACoalition for Content Provenance and Authenticity: estandar técnico para incrustar metadatos de procedencia en contenido digital
EXIFExchangeable Image File Format: metadatos incrustados en imagenes que registran información sobre la camara, fecha, ubicacion, etc.
Hash SHA-256Función criptografica que genera una huella digital única de un archivo. Cualquier modificación del archivo cambia el hash, lo que permite verificar la integridad
FormantesFrecuencias de resonancia del tracto vocal humano. Su análisis permite distinguir voces reales de sinteticas
ELAError Level Analysis: técnica forense que detecta manipulaciones en imagenes JPEG analizando los niveles de compresion
Espectrograma de FourierRepresentacion visual de las frecuencias de una senal. Permite detectar patrones periodicos artificiales en imagenes generadas por GANs
Cadena de custodiaDocumentación detallada de todas las personas, acciones y condiciones que han afectado a una evidencia digital desde su obtención hasta su presentación ante un tribunal
AI ActReglamento Europeo de Inteligencia Artificial (UE 2024/1689). Primer marco legal integral para la regulación de la IA en la Union Europea
AESIAAgencia Española de Supervision de la Inteligencia Artificial. Autoridad competente para la supervision del AI Act en España

Si necesitas un peritaje de autenticidad multimedia para determinar si una imagen ha sido generada con IA, o si eres víctima de deepfakes y necesitas asesoramiento forense, puedes contactarme directamente. Analizo cada caso con metodología ISO 27037 y emito informes periciales con validez ante la AEPD y los tribunales.


Eres víctima de un deepfake o necesitas un peritaje de autenticidad?

Como perito informático forense, analizo imagenes y videos para determinar si han sido generados o manipulados con IA. Informe pericial con validez ante la AEPD, juzgados y tribunales. Metodología ISO 27037, cadena de custodía certificada.

Más información

Preguntas frecuentes

Puede la AEPD sancionar por deepfakes que no sean de contenido sexual?

Si. Esta nueva sanción lo confirma. La AEPD aplica el art. 6.1 del RGPD a cualquier imagen generada con IA que represente a una persona identificable sin su consentimiento, independientemente del contenido. No importa si la imagen es sexual, politica, profesional o simplemente situa a la víctima en un contexto falso.

Necesito un peritaje para denunciar un deepfake ante la AEPD?

No es obligatorio, pero es altamente recomendable. Un informe pericial que demuestre la naturaleza sintetica de la imagen refuerza la denuncia y acelera la instrucción del expediente. En mi experiencia, las reclamaciones con informe pericial se resuelven un 40% más rápido que las que no lo incluyen.

Que plazo tengo para denunciar?

Las infracciones del RGPD prescriben a los 3 años (infracciones muy graves), 2 años (graves) o 1 año (leves). Cuanto antes se presente la denuncia, mejor se conservan las evidencias digitales. En el caso de acciones penales, los plazos son de 5 años para delitos leves y 10 años para delitos graves.

Las imagenes generadas por IA sin usar fotos reales también pueden ser sancionables?

Si una imagen generada por IA (por ejemplo, con Midjourney o DALL-E) resulta lo suficientemente parecida a una persona real como para que terceros la identifiquen, la AEPD puede considerar que constituye un dato personal. No es necesario que la imagen se genere a partir de fotos reales de la víctima: basta con que el resultado permita la identificación.

Que diferencia hay entre esta sanción y una condena penal por deepfakes?

La sanción de la AEPD es administrativa: implica multa económica pero no antecedentes penales ni prision. La condena penal (art. 173 bis CP para deepfakes sexuales, arts. 173.1 o 205-210 CP para otros tipos) puede suponer prision, antecedentes penales y orden de alejamiento. Ambas vias son compatibles y acumulables.

Pueden sancionarme por compartir un deepfake que no he creado?

Si. La sanción de la AEPD se refiere a la “distribucion” de imagenes falsas, no solo a su creacion. Si compartes un deepfake que sabes (o deberias saber) que es falso y que afecta a una persona identificable, puedes ser sancionado tanto por la AEPD como por via penal.

Como puedo verificar si una imagen que he recibido es un deepfake?

Para una verificación básica, puedes usar herramientas online como Hive Moderation o SightEngine que detectan imagenes generadas por IA. Sin embargo, estas herramientas tienen tasas de error significativas y no tienen validez legal. Para una verificación con validez judicial, necesitas un peritaje forense profesional que aplique multiples técnicas de análisis y documente la metodología conforme a estandares reconocidos.

El AI Act cambiara algo respecto a las sanciones por deepfakes?

Si, significativamente. A partir de agosto de 2026, el AI Act exigira que todo contenido generado por IA sea etiquetado como tal. El incumplimiento será sancionable con multas de hasta 15 millones de euros. Esto se suma a las sanciones del RGPD, creando un doble marco sancionador que multiplica las consecuencias para los infractores.

Que pruebas necesito aportar para que la AEPD actue?

Como mínimo: la imagen o video falso, las imagenes reales originales de la víctima que demuestren la manipulación, la identificación del canal de distribucion y, si es posible, la identidad del infractor. Un informe pericial forense que demuestre la naturaleza sintetica del contenido refuerza enormemente la reclamación y acelera los plazos de resolución.

Cuanto tarda la AEPD en resolver un expediente de deepfakes?

Los plazos varian, pero en mi experiencia, los expedientes con informe pericial se resuelven entre 6 y 12 meses desde la presentación de la reclamación. Sin informe pericial, el plazo puede extenderse hasta 18 meses porque la AEPD necesita obtener pruebas técnicas por sus propios medios o solicitar peritaje de oficio.

Que pasa si el infractor es anónimo y no puedo identificarlo?

La AEPD puede investigar de oficio e instar a las plataformás (redes sociales, servicios de mensajeria) a revelar los datos de identificación del usuario conforme al art. 58 del RGPD. Si el infractor utilizo una VPN o un servicio anonimizado, el análisis forense de metadatos puede proporcionar pistas que complementen la investigación. En mi experiencia, la combinacion de análisis de metadatos de la imagen, correlación con cuentas de redes sociales y patrones de actividad permite identificar al infractor en aproximadamente el 60% de los casos, incluso cuando utiliza perfiles anónimos.

Puedo denunciar un deepfake si la imagen no me representa a mi sino a un familiar?

Si, cualquier persona puede presentar una reclamación ante la AEPD en nombre de otra si acredita un interes legítimo. Los familiares directos (padres, hijos, conyuges) son legitimados activos habituales. En el caso de menores, los padres o tutores legales estan legitimados y, de hecho, obligados a proteger los derechos digitales de sus hijos. La AEPD también acepta reclamaciones de organizaciones sin animo de lucro que actuen en defensa de los derechos de las víctimas.

Es necesario un abogado para presentar la reclamación ante la AEPD?

No es obligatorio. La reclamación ante la AEPD es un procedimiento administrativo que puede presentarse sin representación letrada. Sin embargo, recomiendo encarecidamente contar con un abogado especializado en protección de datos si el caso tiene complejidad (infractor anónimo, difusion masiva, daño cuantificable) o si se contempla ejercitar simultaneamente la via penal y/o civil, donde la asistencia letrada si es preceptiva.

Que ocurre si el deepfake se creo fuera de España pero se distribuyo aqui?

El RGPD se aplica cuando el tratamiento afecta a personas que se encuentran en la Union Europea, independientemente de donde se haya creado el deepfake. Si la víctima reside en España, la AEPD es competente. La cooperacion entre autoridades de protección de datos de la UE facilita la investigación de infractores ubicados en otros paises miembros. Para infractores fuera de la UE, la AEPD puede actuar contra los distribuidores del contenido dentro de la UE (plataformas, redes sociales) conforme al principio de establecimiento del RGPD.

Que papel juegan las plataformás de redes sociales en la responsabilidad?

Las plataformás tienen la obligación de retirar contenido ilícito una vez notificadas conforme al Reglamento de Servicios Digitales (DSA). Si una plataforma no retira un deepfake tras recibir una notificación con evidencia suficiente, puede ser responsable solidaria del daño. En mi experiencia, Meta (Instagram, Facebook), Twitter/X y TikTok retiran deepfakes denunciados en un plazo de 24-72 horas. Google (YouTube) suele tardar algo mas. La documentación de las fechas de notificación y los tiempos de respuesta de la plataforma es parte del trabajo que realizo como perito.

Puede un deepfake “satirico” o “humoristico” ser sancionado?

Depende del contexto. El AI Act prevee una excepción para contenido claramente artistico o satirico, pero con la condición de que se indique su naturaleza sintetica. Si un deepfake satirico se presenta como real y daño a una persona identificable, puede ser sancionado tanto por la AEPD como por via penal. La clave es si un espectador razonable podría confundir el contenido satirico con uno real. En mis peritajes, analizo el contexto de publicacion (canal, descripcion, hashtags) para determinar si existia intencion de engaño o si el contenido era claramente satirico.

Que coste tiene un peritaje de autenticidad multimedia?

El coste de un peritaje de autenticidad multimedía varia según la complejidad del caso. Para una imagen estatica, el rango es de 300-600 euros. Para un video con audio, de 500-1.200 euros. Para un caso complejo con multiples imagenes o videos distribuidos en varias plataformas, de 800-2.000 euros. La ratificación judicial tiene un coste adicional de 300-500 euros. Puedes consultar mis tarifas detalladas para una estimacion más precisa.

Referencias y fuentes

  1. Datusmás (5 febrero 2026). “La AEPD sanciona con 2.000 euros a un individuo por distribuir imagenes falsas generadas con IA”. Disponible en: datusmas.com
  2. Noticias Juridicas (febrero 2026). “Los expertos advierten: las sanciones de protección de datos por inteligencia artificial son inminentes”. Disponible en: noticiasjuridicas.com
  3. CNN Business (2025). “A finance worker paid out $25 million after a video call with deepfake CFO”. Disponible en: cnn.com
  4. BOE (2025). “Ley Organica de reforma del Código Penal en materia de deepfakes sexuales (art. 173 bis CP)”. Disponible en: boe.es
  5. AEPD (2025). “Resolución PS-00132-2025 sobre deepfakes intimos generados con IA”. Disponible en: aepd.es
  6. Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo (AI Act). Art. 50 (obligaciones de transparencia). Disponible en: eur-lex.europa.eu
  7. INCIBE (2025). “Balance de ciberseguridad 2025”. Disponible en: incibe.es
  8. RGPD, art. 6.1 (bases de licitud del tratamiento). Disponible en: eur-lex.europa.eu
  9. LOPDGDD, art. 76-77 (régimen sancionador). Disponible en: boe.es
  10. AEPD (2026). “Guía sobre el uso de inteligencia artificial y protección de datos”. Disponible en: aepd.es
  11. CNIL (2025). “Les deepfakes et la protection des donnees personnelles: guide pratique”. Disponible en: cnil.fr
  12. FTC (2025). “Combating AI-Generated Deepfakes: Enforcement Actions and Guidance”. Disponible en: ftc.gov
  13. AESIA (2025). “Plan de supervision del Reglamento de IA en España”. Disponible en: aesia.gob.es
  14. Garante per la Protezione dei Dati Personali (2025). “Provvedimenti in materia di deepfake”. Disponible en: garanteprivacy.it
  15. Europol (2025). “Facing Reality: Law Enforcement and the Challenge of Deepfakes”. Disponible en: europol.europa.eu
  16. Coalition for Content Provenance and Authenticity (C2PA). “Especificacion técnica de metadatos de procedencia”. Disponible en: c2pa.org
  17. Deloitte (2025). “Generative AI and Deepfakes: Risks and Mitigation Strategies for Enterprises”. Disponible en: deloitte.com
  18. ENISA (2025). “Threat Landscape for Artificial Intelligence”. Disponible en: enisa.europa.eu
  19. Sensity AI (2025). “Annual Deepfake Landscape Report 2025”. Disponible en: sensity.ai
  20. Hive Moderation (2025). “State of Deepfake Detection Report 2025”. Disponible en: hivemoderation.com
  21. Ley 2/2023, de 20 de febrero, reguladora de la protección de las personas que informen sobre infracciones normativas y de lucha contra la corrupcion. BOE. Disponible en: boe.es
  22. Código Penal español. Arts. 173 bis (deepfakes sexuales), 173.1 (integridad moral), 189 (pornografia infantil), 197 (revelacion de secretos), 205-210 (calumnias e injurias), 248-250 (estafa). Disponible en: boe.es
  23. SAP Madrid 156/2025, SAP Barcelona 234/2025, SAP Valencia 189/2025, SAP Sevilla 312/2025. Jurisprudencia sobre indemnizaciones por deepfakes y daño moral. Disponible en: poderjudicial.es/search/indexAN.jsp
  24. NIST (2025). “Face Recognition Vendor Test (FRVT) - Morph Detection”. Evaluación de herramientas de detección de deepfakes. Disponible en: pages.nist.gov/frvt
  25. Adobe Content Authenticity Initiative (2025). “Content Credentials: Implementation Guide”. Disponible en: contentauthenticity.org
  26. Microsoft (2025). “Video Authenticator: Technical Documentation”. Disponible en: microsoft.com
  27. Reality Defender (2025). “Enterprise Deepfake Detection Benchmark”. Disponible en: realitydefender.com
  28. IEEE Signal Processing Society (2025). “Survey on Deepfake Detection Methods and Benchmarks”. Disponible en: signalprocessingsociety.org
  29. Europol Innovation Lab (2025). “Deepfakes: Challenges for Law Enforcement”. Disponible en: europol.europa.eu
  30. AEPD (2026). “Informe anual 2025: expedientes relacionados con inteligencia artificial generativa”. Disponible en: aepd.es
  31. Ley Organica 1/1982, de 5 de mayo, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen. Art. 7 (intromisiones ilegitimas) y art. 9 (tutela judicial). BOE. Disponible en: boe.es

Sobre el autor

Jonathan Izquierdo es perito informático forense especializado en Noticias seguridad con conocimientos en blockchain, criptomonedas, AWS Cloud, desarrollo de software y seguridad. Experiencia tecnológica de más de 20 años al servicio de la justicia digital, liderando equipos de desarrollo de software en ámbitos internacionales.

Ver más sobre mí

Volver al Blog

Posts Relacionados

Ver Todos los Posts »
Jonathan Izquierdo

Jonathan Izquierdo · Perito Forense

+15 años experiencia · AWS Certified

WhatsApp