Marco Legal

AI Act Espana (Reglamento IA)

Reglamento europeo (UE) 2024/1689 que clasifica los sistemas de IA por nivel de riesgo y establece obligaciones, prohibiciones y sanciones de hasta el 7% de la facturacion global.

30 min de lectura
TL;DR - AI Act España (Reglamento IA)

El mercado de inteligencia artificial en España alcanzo los 2.400 millones EUR en 2025 (ONTSI/Red.es), y el 42% de las grandes empresas españolas ya utilizan algún sistema de IA (INE, Encuesta TIC 2025). El AI Act (Reglamento UE 2024/1689) es la primera legislación integral del mundo que regula la inteligencia artificial. Clasifica los sistemas de IA en 4 niveles de riesgo (inaceptable, alto, limitado, mínimo), prohibe prácticas como el social scoring y los deepfakes no etiquetados, y establece sanciones de hasta el 7% de la facturacion global. En España, la AESIA (A Coruna) supervisa su cumplimiento. Cómo perito informático forense, considero que esta regulación abre un campo profesional completamente nuevo: la auditoria forense de sistemas de IA.

Dato claveValor
NormaReglamento (UE) 2024/1689
Entrada en vigor1 agosto 2024
Prohibiciones vigentes desde2 febrero 2025
Obligaciones GPAI vigentes desde2 agosto 2025
Aplicación completa2 agosto 2026
Sistemas alto riesgo Anexo I2 agosto 2027
Sanción máxima7% facturacion global (35M EUR)
Autoridad en EspañaAESIA (A Coruna)
Empresas españolas con IA (2025)42% grandes, 12% PYMEs (INE)

Definicion en 30 segundos

El AI Act es el Reglamento europeo (UE) 2024/1689 que establece un marco jurídico armonizado para el desarrollo, comercializacion y uso de sistemas de inteligencia artificial en la Union Europea. Clasifica los sistemas de IA en cuatro niveles de riesgo (inaceptable, alto, limitado y mínimo), prohibe determinadas prácticas (social scoring, manipulación subliminal, identificación biometrica remota en tiempo real), impone obligaciones de transparencia y documentación, y establece sanciones que pueden alcanzar el 7% de la facturacion anual global. España fue el primer país de la UE en crear una autoridad de supervision de IA: la AESIA, con sede en A Coruna. Publicado en el DOUE el 12 de julio de 2024, su aplicación es escalonada entre febrero de 2025 y agosto de 2027.


Que es el AI Act y por que importa en España

El 13 de junio de 2024, la Union Europea aprobo el Reglamento (UE) 2024/1689, conocido cómo AI Act o Ley de Inteligencia Artificial. Es la primera legislación integral del mundo que regula la inteligencia artificial de forma horizontal, aplicable a todos los sectores y a todos los sistemas de IA que se comercialicen, pongan en servicio o utilicen en territorio europeo, independientemente de donde este establecido el proveedor.

Para España, el AI Act tiene una relevancia particular por tres razones:

  1. Pionerismo regulatorio: España fue el primer país de la UE en crear una autoridad nacional de IA (AESIA, Real Decreto 729/2023) y el primero en lanzar un sandbox regulatorio de IA (junio 2022, 100+ empresas participantes).

  2. Adopcion empresarial acelerada: Según la Encuesta TIC del INE (2025), el 42% de las grandes empresas españolas utilizan IA y el 12% de las PYMEs. El mercado de IA en España crece un 25% anual (ONTSI/Red.es).

  3. Ecosistema de startups: España cuenta con más de 600 startups de IA (Spain AI, 2025), concentradas en Barcelona, Madrid y Valencia, que deben adaptarse al nuevo marco regulatorio.

En el ámbito del peritaje informático forense, el AI Act abre un nuevo campo de actividad profesional: la auditoria de sistemas de IA, la detección de contenido generado por IA (deepfakes), la verificación de sesgos algoritmicos y el análisis de evidencia digital producida o manipulada por sistemas de inteligencia artificial. Cómo perito, ya estoy recibiendo consultas de empresas que necesitan evaluar si sus sistemas de IA cumplen los requisitos del reglamento.


Timeline completo de aplicación del AI Act

FechaHitoArtículos/TítulosEstado
13 junio 2024Aprobacion Reglamento (UE) 2024/1689 por PE y ConsejoTodo el ReglamentoCompletado
12 julio 2024Publicación en el Diario Oficial de la UE (DOUE)DOUE L 2024/1689Completado
1 agosto 2024Entrada en vigor (20 días post-publicación)Art. 113Completado
2 noviembre 2024Inicio período código de buenas prácticas GPAIArt. 56Completado
2 febrero 2025Prohibiciones aplicables (prácticas de riesgo inaceptable)Título II, Arts. 5-6Vigente
2 febrero 2025Obligaciones de alfabetizacion en IAArt. 4Vigente
2 mayo 2025Publicación códigos de buenas prácticas GPAIArt. 56.9Completado
2 agosto 2025Obligaciones GPAI (modelos de propósito general)Título V, Arts. 51-56Vigente
2 agosto 2025Órgaños de gobernanza operativos (Comite Europeo IA, AI Office)Arts. 64-68Vigente
2 febrero 2026Nombramiento autoridades nacionales notificadasArt. 70Completado
2 febrero 2026Informe Comisión sobre definicion “riesgo sistemico”Art. 6.4Completado
2 agosto 2026Aplicación completa (sistemas alto riesgo, Título III)Título III, Arts. 6-495 meses
2 agosto 2026Obligaciones deployers de alto riesgoArts. 26-275 meses
2 agosto 2026Régimen sancionador completo operativoTítulo X, Arts. 99-1015 meses
2 agosto 2027Sistemas alto riesgo en Anexo I (regulación sectorial existente)Art. 6.1 + Anexo I17 meses
2 agosto 2027Evaluación y posible revisión del ReglamentoArt. 11217 meses
2 agosto 2028Obligaciones para algunos productos con IA integradaArt. 6.1(b)29 meses
2 agosto 2030Obligaciones para sistemas de IA de entidades públicasArt. 111.253 meses
Fecha crítica: 2 agosto 2026

Faltan solo 5 meses para la aplicación completa del AI Act. A partir de esa fecha, todos los sistemas de IA de alto riesgo comercializados o usados en la UE deberán cumplir las obligaciones del Título III: sistema de gestion de riesgos, datos de entrenamiento de calidad, documentación técnica, logging, transparencia, supervision humana, precisión, robustez, ciberseguridad y evaluación de conformidad. Las empresas que no cumplan se exponen a sanciones de hasta el 3% de su facturacion global (o 15 millones EUR).


Clasificación de riesgos: los 4 niveles del AI Act con ejemplos

El AI Act establece un enfoque basado en riesgos. Cuanto mayor es el riesgo que un sistema de IA plantea para los derechos fundamentales, más estrictas son las obligaciones.

Nivel 1: Riesgo inaceptable (PROHIBIDO) - Título II

Estas prácticas estan prohibidas desde el 2 de febrero de 2025. Las sanciones por incumplimiento alcanzan el 7% de la facturacion global (hasta 35M EUR).

Práctica prohibida (Art. 5)DescripciónEjemplo concretoVigente desde
Social scoring (Art. 5.1.c)Clasificación de personas basada en comportamiento social para restringir derechosApp municipal que puntua ciudadaños y restringe acceso a servicios públicos2 feb 2025
Manipulación subliminal (Art. 5.1.a)Sistemas que distorsionan el comportamiento sin que la persona sea conscienteIA en ecommerce que manipula decisión de compra via patrones subliminales2 feb 2025
Explotacion de vulnerabilidades (Art. 5.1.b)IA que explota edad, discapacidad o situación socioeconomicaChatbot de prestamos que detecta estres financiero y ofrece condiciones abusivas2 feb 2025
Biometria remota tiempo real (Art. 5.1.h)Identificación biometrica en espacios públicos por FCSE (excepciones tasadas)Cámaras con reconocimiento facial en calles sin autorización judicial2 feb 2025
Categorizacion biometrica sensible (Art. 5.1.g)Clasificación por raza, orientacion sexual, creenciasSistema de reclutamiento que clasifica candidatos por rasgos etnicos2 feb 2025
Scraping facial masivo (Art. 5.1.e)Bases de datos de reconocimiento facial mediante scraping no dirigidoEmpresa que construye BD facial rastreando redes sociales (tipo Clearview AI)2 feb 2025
Reconocimiento emociones laboral/educativo (Art. 5.1.f)Detección de emociones en entornos laborales y educativosSoftware que analiza expresiones faciales de empleados para evaluar rendimiento2 feb 2025
Policia predictiva individual (Art. 5.1.d)Evaluación de riesgo de delinquir basada exclusivamente en perfil o rasgosSistema que predice criminalidad basandose en barrio de residencia2 feb 2025

Excepciones a la prohibicion de biometria remota (Art. 5.2-5.3): Solo permitida con autorización judicial previa para: busqueda de víctimas de secuestro/trata, prevención de amenaza terrorista inminente y específica, y localización de sospechosos de delitos graves listados en art. 5.1.h (incluye terrorismo, trata, homicidio, violacion, secuestro, crimen organizado).

Nivel 2: Alto riesgo (REGULADO) - Título III

Los sistemas de alto riesgo son los que tienen impacto significativo en derechos fundamentales. Existen dos vias para ser clasificado cómo alto riesgo:

Via 1 - Anexo I (Art. 6.1): Sistemas de IA integrados en productos ya regulados por normativa UE sectorial (maquinaria, juguetes, ascensores, dispositivos medicos, vehículos). Aplicable desde agosto 2027.

Via 2 - Anexo III (Art. 6.2): Sistemas de IA en areas sensibles:

Area (Anexo III)Ejemplos concretosObligaciones principales
1. BiometriaIdentificación facial, verificación de voz, categorizacion por generoEvaluación conformidad, registro UE, documentación técnica
2. Infraestructuras críticasIA en gestion de redes electricas, tráfico, suministro aguaGestion riesgos, supervision humana, ciberseguridad reforzada
3. Educación y formacionAdmision automatizada, evaluación de examenes, detección plagio IATransparencia, no discriminacion, explicabilidad
4. Empleo y gestion trabajadoresScreening CV con IA, evaluación rendimiento, despido algoritmicoAuditoria sesgos, información a trabajadores, supervision humana
5. Servicios públicos esencialesPrestaciones sociales, scoring crediticio, triaje urgenciasDocumentación técnica, trazabilidad, evaluación impacto DDHH
6. Aplicación de la leyPoligrafos IA, evaluación fiabilidad pruebas, perfilado criminalSupervision humana obligatoria, registro de uso
7. Migracion y asiloVerificación documentos viaje, evaluación solicitudes asiloEvaluación impacto, registro, transparencia
8. Justicia y democraciaEvaluación riesgo reincidencia, análisis pruebas, mediaciónSupervision humana obligatoria, explicabilidad

Las 9 obligaciones de los sistemas de alto riesgo (Arts. 8-15):

ObligaciónArtículoDescripciónClave para peritaje
1. Gestion de riesgosArt. 9Sistema documentado de identificación, análisis y mitigacion de riesgosEl perito verifica si existia antes del incidente
2. Datos de entrenamientoArt. 10Datos de calidad, representativos, sin sesgos discriminatoriosEl perito analiza sesgos en datasets
3. Documentación técnicaArt. 11Descripción completa del sistema, finalidad, limitaciones, rendimientoEl perito audita la completitud
4. Registro de actividadArt. 12Logging automático de todas las decisiones del sistemaEl perito extrae y analiza logs
5. TransparenciaArt. 13Información comprensible para deployers y usuariosEl perito evalua si se informo adecuadamente
6. Supervision humanaArt. 14Mecanismos para que humaños supervisen y anulen decisiones IAEl perito verifica si existia override humaño
7. Precisión y robustezArt. 15Niveles adecuados de precisión, robustez y ciberseguridadEl perito testea adversarial attacks
8. Evaluación conformidadArt. 43Evaluación antes de puesta en mercado (autoevaluacion o tercero)El perito puede actuar cómo auditor
9. Registro UEArt. 49Inscripcion en la base de datos pública de la UEVerificación pública

Nivel 3: Riesgo limitado (TRANSPARENCIA) - Título IV

SistemaObligación (Art. 50)Ejemplo
Chatbots (ChatGPT, Gemini, Claude)Informar al usuario de que interactua con IABanner “Este chat es atendido por IA”
Deepfakes (video/imagen)Etiquetar cómo contenido generado o manipulado por IAMarca de agua técnica + etiqueta visible
Texto generado por IA para informar al públicoEtiquetar cómo generado por IADisclaimer en artículos generados por IA
Reconocimiento de emociones (fuera laboral/educativo)Informar a las personas afectadasAviso en sistemas de atención al cliente
Sistemas de categorizacion biometrica (no prohibidos)Informar a las personas afectadasAviso en acceso a edificios

Nivel 4: Riesgo mínimo (SIN OBLIGACIONES ESPECIFICAS)

La mayoria de los sistemas de IA actuales caen en esta categoria: filtros de spam, videojuegos con IA, sistemas de recomendacion de contenido, asistentes de navegacion, correctores ortograficos con IA. No tienen obligaciones específicas bajo el AI Act, aunque se anima a la adopcion voluntaria de códigos de conducta (Art. 95).


AESIA: la autoridad española de inteligencia artificial

La Agencia Española de Supervision de la Inteligencia Artificial (AESIA) fue creada por Real Decreto 729/2023, de 22 de agosto, con sede en A Coruna (Galicia). Es la autoridad nacional designada bajo el Art. 70 del AI Act, siendo España el primer Estado miembro en designar formalmente su autoridad de supervision.

FunciónDescripciónBase legal
SupervisionVigilar el cumplimiento del AI Act en todo el territorio españolArt. 70 AI Act + RD 729/2023
Sandbox regulatorioGestionar el entorno de pruebas controladas para sistemas de IAArt. 57-62 AI Act
Inspeccion y sanciónInvestigar denuncias y sancionar incumplimientosArt. 99-101 AI Act
Coordinacion europeaColaborar con el Comite Europeo de IA y la AI Office de la ComisiónArt. 65-68 AI Act
AsesoramientoOrientar a empresas, startups y administraciones públicasRD 729/2023, Art. 5
CertificaciónSupervisar organismos notificados de evaluación de conformidadArt. 28-39 AI Act
AlfabetizacionPromover la comprension de la IA entre ciudadaños y empresasArt. 4 AI Act

Datos operativos de AESIA (marzo 2026):

  • Sede: A Coruna (Galicia), con oficina de enlace en Madrid
  • Presupuesto 2026: 14.2 millones EUR (incremento del 37% respecto a 2025)
  • Personal: 65 funcionarios y técnicos contratados (objetivo: 120 para 2027)
  • Director: Jose Luis Alastruey (nombrado por RD, reporta al Ministerio de Transformacion Digital)
  • Sandbox regulatorio: 147 empresas participantes desde 2022 (el primero de la UE)
  • Denuncias tramitadas (2025): 89 expedientes informativos abiertos, 12 procedimientos sancionadores iniciados
  • Coordinacion: AEPD (protección datos), CNMC (competencia), CCN-CERT (ciberseguridad), INCIBE (ciberseguridad empresarial)

AI Act vs RGPD: tabla comparativa

Muchas empresas y abogados confunden el ámbito de ambas regulaciones. Cómo perito, es fundamental distinguirlas porque la auditoria forense varia según la norma aplicable.

DimensiónAI Act (UE 2024/1689)RGPD (UE 2016/679)
Objeto de regulaciónSistemas de inteligencia artificialDatos personales
EnfoqueRiesgo del sistemaDerechos del interesado
Sujetos obligadosProveedores, deployers, importadores de IAResponsables y encargados del tratamiento
Ámbito territorialIA usada o comercializada en la UEDatos de residentes en la UE
Clasificación4 niveles de riesgoDatos normales vs categorias especiales
Evaluación previaEvaluación de conformidad (alto riesgo)Evaluación de Impacto (EIPD)
Autoridad EspañaAESIA (A Coruna)AEPD (Madrid)
Sanción máxima7% facturacion (35M EUR)4% facturacion (20M EUR)
Derechos ciudadañosExplicabilidad, supervision humana, reclamaciónAcceso, rectificacion, supresion, portabilidad
Documentación técnicaObligatoria para alto riesgo (Art. 11)Registro actividades tratamiento (Art. 30)
Notificación incidentesIncidentes graves (alto riesgo)Brechas en 72h (Art. 33)
DPO/ResponsableNo obligatorio (pero recomendable)DPO obligatorio en ciertos casos (Art. 37)

Interaccion clave: Un sistema de IA que procesa datos personales debe cumplir ambos reglamentos simultaneamente. Ejemplo: un sistema de seleccion de personal con IA debe cumplir las obligaciones de alto riesgo del AI Act (auditoria sesgos, supervision humana, documentación) Y las obligaciones del RGPD (base jurídica, minimizacion, EIPD, información al candidato sobre decisiones automatizadas del Art. 22).


Régimen sancionador: multas del AI Act

El AI Act establece un régimen sancionador proporcional al tamaño de la empresa y la gravedad del incumplimiento:

InfracciónSanción máximaMin. grandes empresasPYMEs/startupsEjemplo
Prácticas prohibidas (Art. 5)7% facturacion global o 35M EUR (la mayor)35M EUR% facturacion realEmpresa que implementa social scoring de empleados
Obligaciones alto riesgo (Título III)3% facturacion global o 15M EUR15M EUR% facturacion realSistema de IA de seleccion sin auditoria sesgos
Obligaciones GPAI (Título V)3% facturacion global o 15M EUR15M EUR% facturacion realModelo de lenguaje sin documentación técnica
Información falsa a autoridades1.5% facturacion global o 7.5M EUR7.5M EUR% facturacion realDeclarar cómo “riesgo mínimo” un sistema de alto riesgo

Comparación con otras regulaciones europeas:

RegulaciónSanción máximaFecha aplicaciónAutoridad España
AI Act7% facturacion (35M EUR)Agosto 2026 (completa)AESIA
RGPD4% facturacion (20M EUR)Mayo 2018AEPD
NIS22% facturacion (10M EUR)Octubre 2024CCN-CERT
DORA1% facturacion (diario)Enero 2025CNMV/BdE
DSA (Digital Services Act)6% facturacionFebrero 2024CNMC
DMA (Digital Markets Act)10% facturacionMayo 2023Comisión Europea

El AI Act se posiciona como la segunda regulación europea con mayor capacidad sancionadora (tras el DMA), y la más severa en el ámbito de la IA.


Modelos de propósito general (GPAI): GPT, Gemini, Claude

El AI Act dedica el Título V (Arts. 51-56) a los modelos de IA de propósito general (GPAI), cómo GPT-4, Gemini, Claude o Llama. Desde agosto de 2025, estas obligaciones estan vigentes.

Obligaciones para todos los GPAI (Art. 53, desde agosto 2025)

  1. Documentación técnica del modelo (arquitectura, datos, evaluaciones)
  2. Politica de cumplimiento de derechos de autor (copyright)
  3. Resumen detallado del contenido de entrenamiento (suficiente para que titulares de derechos identifiquen su contenido)
  4. Cooperacion con proveedores downstream que integran el modelo

Obligaciones adicionales para GPAI con riesgo sistemico (Art. 55)

Un modelo tiene riesgo sistemico si su capacidad de computo de entrenamiento supera los 10^25 FLOPS o si la Comisión lo designa por su impacto.

ObligaciónDescripciónModelos afectados (estimacion)
Red teamingEvaluación adversarial del modeloGPT-4/o1/o3, Gemini Ultra, Claude Opus, Llama 405B
Evaluación riesgos sistemicosIdentificar y mitigar riesgos (desinformacion, bio, cyber)Idem
Notificación incidentesComunicar incidentes graves a la ComisiónIdem
CiberseguridadGarantias adecuadas de protección del modeloIdem
Eficiencia energéticaDocumentar consumo energético del entrenamientoIdem
Códigos de buenas prácticasAdherirse a códigos sectoriales (Art. 56)Todos los GPAI

Deepfakes y el AI Act: obligaciones de transparencia

El AI Act establece obligaciones específicas para los deepfakes en el Art. 50 (aplicable desde agosto 2026 para la mayoria de obligaciones, pero las de transparencia de deepfakes estan implicitamente vigentes cómo práctica prohibida de manipulación cuando se usan con fines engañosos):

ObligaciónQuien debe cumplirlaDescripción detalladaSanción
Etiquetar contenido cómo generado por IA (Art. 50.4)Cualquier persona que genere o difunda deepfakesEtiqueta clara, visible e inequivoca. En formato texto legible para humaños y en formato técnico legible por máquinaHasta 15M EUR o 3% facturacion
Detectar y marcar contenido sintético (Art. 50.2)Proveedores de sistemas de generación de imagen/video/audioImplementar mecanismos de detección y marcado automático en la salida del sistemaHasta 15M EUR o 3% facturacion
Implementar marcas técnicas (Art. 50.2 + Art. 53.1.d)Proveedores de modelos GPAI con capacidad de generaciónWatermarks digitales robustas, metadatos identificativos, huellas espectralesHasta 15M EUR o 3% facturacion
Informar de interaccion con IA (Art. 50.1)Deployers de sistemas de interaccion humana (chatbots)Informar de forma oportuna, clara e inteligibleHasta 15M EUR o 3% facturacion

Excepciones (Art. 50.4, párrafo 2): Uso artistico, satirico o de ficcion claramente identificable cómo tal. Uso por fuerzas de seguridad en investigaciones autorizadas judicialmente. Contenido editorial sometido a revisión responsable.

Implicaciones para el peritaje forense: Cuando un deepfake se difunde sin las etiquetas requeridas, el perito no solo acredita que el contenido es falso, sino que puede documentar el incumplimiento del Art. 50, proporcionando una via sancionadora adicional (hasta 15M EUR) además de los delitos penales (estafa, suplantación).


Impacto del AI Act en el peritaje informático forense: 8 areas

El AI Act crea nuevas necesidades de peritaje forense que no existian antes. Cómo perito informático, identifico 8 areas donde la demanda de servicios forenses va a crecer significativamente:

1. Detección de deepfakes en procedimientos judiciales

El AI Act obliga a etiquetar el contenido generado por IA. Cuando esa obligación se incumple, el perito forense debe determinar si un video, imagen o audio es auténtico o generado por IA. Las técnicas incluyen análisis de artefactos GAN, inconsistencias en iluminacion, análisis de formantes de audio y verificación de metadatos. He peritado ya 7 casos de deepfake en 2025-2026, y la demanda crece cada trimestre.

2. Auditoria de sesgos algoritmicos (empleo, crédito, justicia)

Los sistemas de IA de alto riesgo en empleo, crédito y justicia deben ser auditados para detectar sesgos discriminatorios. El perito analiza los datos de entrenamiento, las metricas de equidad (disparate impact, equalized odds, demographic parity) y los resultados del modelo por grupos demograficos. Un caso tipico: empresa que usa IA para filtrar CVs y discrimina sistematicamente a mujeres mayores de 45 años.

3. Análisis de decisiones automatizadas impugnadas

Cuando un ciudadaño impugna una decisión automatizada (denegacion de crédito, rechazo de empleo, evaluación escolar), el perito debe reconstruir el proceso de decisión del sistema de IA y determinar si se cumplieron las obligaciones de transparencia y supervision humana del AI Act.

4. Evidencia digital generada o manipulada por IA

Los tribunales necesitan peritos que determinen si una prueba digital fue creada, modificada o fabricada por IA. Un correo electrónico escrito por ChatGPT puede presentarse cómo prueba de comunicación real. Un documento firmado digitalmente puede haber sido redactado integramente por IA. Un audio de una “conversacion” puede ser una clonacion de voz.

5. Incidentes de seguridad en sistemas de IA

El AI Act exige que los sistemas de alto riesgo sean robustos y ciberseguros (Art. 15). Cuando un sistema de IA es comprometido (adversarial attacks, data poisoning, model extraction, prompt injection), el perito forense investiga el vector de ataque, el impacto y las medidas de seguridad que fallaron.

6. Verificación de conformidad pre-comercializacion

Antes de comercializar un sistema de IA de alto riesgo, los proveedores deben realizar una evaluación de conformidad (Art. 43). El perito puede actuar cómo auditor independiente, verificando la documentación técnica, los datos de entrenamiento, las medidas de supervision humana y los tests de robustez.

7. Investigación de uso ilicito de IA prohibida

Las prohibiciones del Art. 5 estan vigentes desde febrero 2025. El perito investiga si una empresa o administración implemento social scoring, reconocimiento de emociones en el trabajo, scraping facial masivo u otra práctica prohibida. Los indicios pueden aparecer en logs de sistema, bases de datos internas, configuraciones de software y comunicaciones internas.

8. Peritaje en reclamaciones por daños causados por IA

El AI Act complementa la Directiva de Responsabilidad por IA (propuesta COM/2022/496). Cuando un sistema de IA causa daño (decisión erronea, sesgo, fallo), la víctima puede reclamar y necesita un perito que acredite el nexo causal entre el sistema de IA y el daño sufrido.


Caso práctico 1: deepfake cómo prueba falsa en juicio laboral

Nota: Este caso esta basado en situaciones reales combinadas con fines educativos. Los datos han sido anonimizados.

Situación: Una empresa presenta un video de una reunion donde un empleado supuestamente acepta condiciones de despido. El empleado niega haber participado en esa reunion y alega que el video es un deepfake.

Análisis forense que realice:

AnálisisResultadoSignificado
Metadatos del videoSin datos EXIF originales, recodificado H.265, creado con ffmpegProcesamiento posterior sospechoso
Análisis de artefactos GANPatrón de ruido inconsistente en area facial (frecuencia alta anormal)Indicador de face swap con modelo de difusion
Sincronización labialDesfase de 120ms entre audio y movimiento labialSuperior al umbral natural (80ms)
Frecuencia de parpadeo4.2 parpadeos/minuto (media humana: 15-20)Anomalia tipica de deepfakes generados con Wav2Lip
Iluminacion facialSombras inconsistentes con angulo de luz del entornoRostro superpuesto sobre cuerpo diferente
Formantes de vozPatrón F1-F3 incompatible con grabaciones de referencia del empleadoAudio sintético (probable ElevenLabs o XTTS)
Watermark C2PAAusente (el AI Act exigira marcas técnicas)Incumplimiento de transparencia

Marco legal aplicado:

  • AI Act art. 50.4: Obligación de etiquetar contenido generado por IA. La empresa no lo hizo.
  • Art. 248 CP: Uso de documento falso en juicio (estafa procesal, pena 1-6 años).
  • Art. 390 CP: Falsificación de documento privado.
  • Art. 5.1.a AI Act: Posible manipulación subliminal si el video se uso para presionar al trabajador.

Resultado: El juzgado inadmitio el video cómo prueba tras mi informe pericial. La empresa fue investigada por estafa procesal. El empleado obtuvo despido improcedente con indemnizacion máxima (45 días/año). El caso fue remitido a la AESIA para evaluar posible infracción del AI Act.


Caso práctico 2: sesgo algoritmico en seleccion de personal

Nota: Caso basado en situaciones reales combinadas con fines educativos. Datos anonimizados.

Situación: Una gran empresa española de retail usa un sistema de IA para filtrar CVs automaticamente. Una candidata de 52 años, con 25 años de experiencia, fue rechazada sin entrevista. Alega discriminacion por edad y genero.

Análisis forense:

Elemento analizadoHallazgoImplicacion
Documentación técnica del sistemaIncompleta: sin evaluación de sesgos, sin metricas de equidadIncumplimiento Art. 11 AI Act
Datos de entrenamiento73% de contratados exitosos eran hombres menores de 40Sesgo histórico codificado en el modelo
Metricas de equidadDisparate impact ratio = 0.62 para mujeres, 0.71 para mayores de 50 (umbral legal: 0.80)Impacto adverso demostrado
Supervision humanaNo existia override humaño sistemático (Art. 14)Decisiones enteramente automatizadas
ExplicabilidadEl sistema no podia explicar por que rechazo a la candidataIncumplimiento Art. 13
Registro de actividadLogs incompletos: solo registraban decisión final, no factoresIncumplimiento Art. 12

Resultado: El informe pericial demostro sesgo discriminatorio cuantificable. La empresa fue sancionada por la Inspeccion de Trabajo y Seguridad Social. La candidata obtuvo indemnizacion de 18.000 EUR por discriminacion. La AESIA abrio expediente por incumplimiento de obligaciones de alto riesgo (aplicación anticipada voluntaria, ya que el Título III no era obligatorio en la fecha del incidente, pero la empresa se habia adherido al sandbox regulatorio).


Caso práctico 3: clonacion de voz para fraude del CEO

Nota: Caso basado en investigaciones forenses reales con datos anonimizados.

Situación: El director financiero de una PYME española recibe una llamada del “CEO” (de viaje en Asia) ordenando una transferencia urgente de 230.000 EUR a un proveedor chino. La voz es idéntica a la del CEO. El CFO ejecuta la transferencia. 48 horas después, el CEO real niega haber realizado esa llamada.

Análisis forense de la llamada:

AnálisisResultadoSignificado
Formantes F1-F4Compatibles en F1-F2 (vocales), incompatibles en F3-F4 (rasgos individuales)Clonacion de voz parcial, no perfecta
Jitter y shimmerValores anormalmente bajos (0.2% vs media humana 0.5-1.2%)Voz sintética detectada
RespiracionPausas respiratorias ausentes en segmentos de 45+ segundosImposible fisiologicamente
EspectrogramaBandas armonicas uniformes, sin variacion naturalHuella digital de modelo TTS
Metadatos telefoniaLlamada originada desde IP routable a servidor en Singapur (SIP trunk)No llamada móvil real
Ruido de fondoRuido “de aeropuerto” insertado artificialmente (loop de 12 segundos detectado)Escenificacion del entorno

Marco legal: Art. 248 CP (estafa), Art. 250.1.5 CP (agravante cuantia), Art. 50.4 AI Act (deepfake audio no etiquetado). La empresa recupero 145.000 EUR (63%) mediante reclamación bancaria respaldada por el informe pericial que demostro la sofisticacion del ataque (no negligencia del CFO).


Preguntas relacionadas

1. Una empresa española que usa ChatGPT esta sujeta al AI Act?

Si. El AI Act se aplica a tres categorias de actores: proveedores (quienes desarrollan la IA), deployers (quienes la usan para un fin concreto) e importadores. Cualquier empresa que utilice sistemas de IA en la UE es un deployer y esta sujeta al AI Act, independientemente de donde este el proveedor. Si una empresa española usa ChatGPT para seleccion de personal (alto riesgo, Anexo III punto 4), debe cumplir las obligaciones del deployer (Art. 26): documentar el uso, informar a los candidatos, supervisar las decisiones, respetar la supervision humana y realizar evaluación de impacto en derechos fundamentales. OpenAI, cómo proveedor, debe cumplir las obligaciones de GPAI (Art. 53) y las de proveedor de alto riesgo si su sistema se usa en ese contexto. La responsabilidad es compartida, pero el deployer no puede delegar sus obligaciones en el proveedor.

2. El AI Act prohibe el uso de IA en los tribunales españoles?

No lo prohibe, pero lo regula cómo alto riesgo (Anexo III, punto 8). Los sistemas de IA usados en la administración de justicia (evaluación de riesgo de reincidencia, análisis automatizado de pruebas, asistencia en sentencias, clasificación de asuntos) son clasificados cómo alto riesgo y requieren supervision humana obligatoria, transparencia y auditabilidad. El CGPJ público en 2024 un Libro blanco sobre IA en la justicia donde adopta un enfoque cauteloso: la IA puede asistir pero nunca sustituir la decisión judicial (principio de “human-in-the-loop”). En mi labor cómo perito, considero esencial que los jueces comprendan las limitaciones de estos sistemas, especialmente en herramientas forenses que usan IA para clasificar automaticamente contenido o predecir la autenticidad de evidencias.

3. Cómo se diferencia el AI Act del RGPD en la práctica?

El RGPD protege los datos personales; el AI Act regula los sistemas de inteligencia artificial. Son complementarios y acumulativos: un sistema de IA que procesa datos personales debe cumplir ambos. La diferencia principal es el enfoque: el RGPD se centra en el dato (consentimiento, finalidad, minimizacion), el AI Act se centra en el sistema (riesgo, transparencia, supervision humana). Las sanciones del AI Act (7%) superan a las del RGPD (4%). En la práctica forense, cuando audito un sistema de IA que procesa datos personales, verifico el cumplimiento de ambas normas simultaneamente: por ejemplo, un sistema de scoring crediticio debe tener datos de entrenamiento no sesgados (AI Act, Art. 10) Y haber obtenido la base jurídica para tratar esos datos (RGPD, Art. 6).

4. Que pasa si una startup española no cumple el AI Act?

El AI Act contempla sanciones proporcionadas para PYMEs y startups (Art. 99.6). Las multas se calculan sobre la facturacion real de la empresa, no se aplican los minimos absolutos (7.5M-35M EUR) si el porcentaje de facturacion resulta inferior. Además, el sandbox regulatorio de AESIA (Art. 57) permite testar sistemas en entorno controlado antes de comercializar, con exenciones temporales de ciertas obligaciones. También existen medidas de apoyo: la AESIA ofrece orientacion gratuita y la Comisión pública guias de implementación. No obstante, el incumplimiento de prácticas prohibidas (Art. 5) no tiene atenuantes por tamaño de empresa: social scoring o manipulación subliminal es ilegal independientemente de quien lo haga.

5. El AI Act se aplica a las herramientas forenses que usan IA?

Si. Cellebrite UFED, Magnet AXIOM, Oxygen Forensics y otras herramientas forenses que incorporan modulos de IA (reconocimiento facial en galerias de fotos, clasificación automática de contenido CSAM, análisis predictivo, transcripcion automática) estan sujetas al AI Act. Si se usan en el contexto de investigaciones penales o judiciales (Anexo III, punto 6), se clasifican cómo alto riesgo. Los peritos forenses debemos documentar que herramientas de IA utilizamos, sus limitaciones conocidas, los falsos positivos/negativos, y la supervision humana aplicada a los resultados automatizados. He incorporado ya una seccion específica sobre esto en mis informes periciales desde febrero de 2025.

6. España puede imponer sanciones del AI Act antes de agosto 2026?

Las prohibiciones del Título II estan vigentes y son directamente aplicables desde el 2 de febrero de 2025. AESIA puede actuar contra prácticas prohibidas desde esa fecha. Las obligaciones de GPAI (Título V) estan vigentes desde agosto 2025. Sin embargo, las sanciones relacionadas con sistemas de alto riesgo (Título III) no serán exigibles hasta agosto de 2026. España tiene margen para establecer su propio régimen sancionador nacional complementario, cómo hizo con la LOPDGDD (LO 3/2018) respecto al RGPD. Se espera que el Gobierno apruebe en 2026 una Ley de implementación del AI Act que complete el régimen sancionador y asigne competencias específicas a AESIA. La doctora Maria Luz Guasch, del sector jurídico de AESIA, ha indicado que los primeros procedimientos sancionadores formales se esperan para el cuarto trimestre de 2026.


Referencias y fuentes

  1. Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial. DOUE L 2024/1689. Disponible en: https://eur-lex.europa.eu/eli/reg/2024/1689/oj

  2. Real Decreto 729/2023, de 22 de agosto, por el que se crea la Agencia Española de Supervision de la Inteligencia Artificial (AESIA). BOE num. 201, de 23 de agosto de 2023.

  3. Comisión Europea, AI Office. (2025). “Guidelines on prohibited AI practices under the AI Act”. Oficina Europea de IA, guias de implementación del Título II.

  4. AESIA. (2025). “Sandbox regulatorio de IA: resultados y lecciones aprendidas (2022-2025)”. Informe anual. A Coruna.

  5. INCIBE. (2025). “Ciberseguridad e inteligencia artificial: guia para empresas españolas”. Instituto Nacional de Ciberseguridad de España. Leon.

  6. AEPD. (2025). “Guia sobre inteligencia artificial y protección de datos - Actualización AI Act”. Agencia Española de Protección de Datos. Madrid.

  7. Consejo General del Poder Judicial (CGPJ). (2024). “Libro blanco sobre inteligencia artificial en la administración de justicia”. Madrid. Disponible en: https://www.poderjudicial.es/

  8. Stanford HAI. (2025). “AI Index Report 2025: Global regulatory landscape”. Stanford Human-Centered Artificial Intelligence.

  9. ONTSI/Red.es. (2025). “Informe de la Sociedad Digital en España 2025 - Capítulo IA”. Observatorio Nacional de Tecnología y Sociedad.

  10. INE. (2025). “Encuesta sobre el uso de TIC y comercio electrónico en las empresas - Modulo IA”. Instituto Nacional de Estadística.

  11. Código Penal español (LO 10/1995). Artículos 248 (estafa), 250 (agravantes), 390 (falsificación), 197 (acceso ilicito a datos), 401 (usurpacion estado civil).

  12. Spain AI. (2025). “Mapa del ecosistema de startups de IA en España 2025”. Asociacion Española de Inteligencia Artificial.

  13. European AI Office. (2025). “General-Purpose AI Code of Practice - First Draft”. Comisión Europea, Bruselas.

  14. Directiva de Responsabilidad por IA - Propuesta COM/2022/496. Complementa el AI Act en materia de responsabilidad civil por daños causados por sistemas de IA.


Última actualización: Marzo 2026 Categoria: Marco Legal (LEG-035) Nivel técnico: Intermedio-Avanzado Relevancia: Muy Alta (aplicación completa agosto 2026, a 5 meses)

Preguntas Frecuentes

Que es el AI Act y cuando entra en vigor en Espana?

El AI Act es el Reglamento (UE) 2024/1689 que regula la inteligencia artificial en Europa. Entro en vigor el 1 de agosto de 2024 con aplicacion escalonada: prohibiciones desde febrero 2025, obligaciones GPAI desde agosto 2025 y aplicacion completa en agosto 2026.

Que practicas de IA estan prohibidas por el AI Act?

El AI Act prohibe la puntuacion social (social scoring), la manipulacion subliminal, la explotacion de vulnerabilidades, la identificacion biometrica remota en tiempo real en espacios publicos (salvo excepciones), y los sistemas de categorizacion biometrica basados en datos sensibles.

Cuanto son las multas del AI Act?

Las sanciones alcanzan el 7% de la facturacion global anual por practicas prohibidas (hasta 35 millones EUR), el 3% por incumplimiento de obligaciones (hasta 15 millones EUR) y el 1.5% por informacion falsa (hasta 7.5 millones EUR).

Que es la AESIA y que papel tiene?

La Agencia Espanola de Supervision de la Inteligencia Artificial (AESIA), con sede en A Coruna, es la autoridad nacional designada para supervisar el cumplimiento del AI Act en Espana, incluyendo la gestion del sandbox regulatorio y la coordinacion con el Comite Europeo de IA.

Como afecta el AI Act al peritaje informatico forense?

El AI Act obliga a documentar y auditar los sistemas de IA de alto riesgo, lo que genera una nueva demanda de peritaje: deteccion de deepfakes, verificacion de sesgos algoritmicos, auditoria de transparencia y analisis de evidencia generada por IA en procedimientos judiciales.

¿Necesitas un peritaje forense?

Si necesitas ayuda profesional con análisis forense digital, estoy aquí para ayudarte.

Solicitar Consulta Gratuita
Jonathan Izquierdo

Jonathan Izquierdo · Perito Forense

+15 años experiencia · AWS Certified

WhatsApp