Marco Legal

AI Act — Clasificación de Riesgo

Sistema de clasificación en cuatro niveles de riesgo (inaceptable, alto, limitado y mínimo) establecido por el Reglamento (UE) 2024/1689 (AI Act) que determina las obligaciones legales, requisitos de transparencia y sanciones aplicables a cada sistema de inteligencia artificial desplegado o comercializado en la Unión Europea.

45 min de lectura

¿Qué es la clasificación de riesgo del AI Act?

El Reglamento (UE) 2024/1689, conocido como AI Act o Ley de Inteligencia Artificial, es la primera legislación integral del mundo que regula los sistemas de inteligencia artificial. Su mecanismo central es un sistema de clasificación por niveles de riesgo que determina qué obligaciones legales se aplican a cada sistema de IA en función del peligro que supone para los derechos fundamentales, la salud, la seguridad y la democracia.

Esta clasificación sigue un enfoque piramidal: cuanto mayor es el riesgo del sistema de IA, más estrictas son las obligaciones y mayores las sanciones por incumplimiento.

Entrada en vigor escalonada

El AI Act entró en vigor el 1 de agosto de 2024, pero su aplicación es escalonada: las prohibiciones de prácticas inaceptables son ejecutables desde febrero de 2025, las obligaciones para modelos de IA de propósito general (GPAI) desde agosto de 2025, y la aplicación completa del reglamento — incluidas las obligaciones para sistemas de alto riesgo — desde agosto de 2026.

Visión general de los 4 niveles de riesgo

┌─────────────────────────────────────────────────────┐
│                 RIESGO INACEPTABLE                   │
│              ████████████████████████                │
│           Prácticas PROHIBIDAS (Art. 5)              │
│         Sanciones: 35M€ o 7% facturación            │
├─────────────────────────────────────────────────────┤
│                    ALTO RIESGO                       │
│              ██████████████████                      │
│        Sistemas del Anexo III (Art. 6-49)            │
│     Obligaciones estrictas de cumplimiento           │
│         Sanciones: 15M€ o 3% facturación            │
├─────────────────────────────────────────────────────┤
│                  RIESGO LIMITADO                     │
│              ████████████████                        │
│       Obligaciones de transparencia (Art. 50)        │
│     Chatbots, deepfakes, detección emociones         │
│         Sanciones: 7,5M€ o 1,5% facturación         │
├─────────────────────────────────────────────────────┤
│                  RIESGO MÍNIMO                       │
│              ██████████████                          │
│         Sin obligaciones específicas                 │
│       Filtros de spam, videojuegos, etc.             │
│              Código de conducta voluntario            │
└─────────────────────────────────────────────────────┘
NivelArtículosEjemplosObligación principal
InaceptableArt. 5Social scoring, vigilancia biométrica masivaPROHIBICIÓN total
AltoArts. 6-49, Anexo IIIBiometría, infraestructura crítica, empleo, justiciaConformidad, auditoría, documentación
LimitadoArt. 50Chatbots, deepfakes, emotion AITransparencia e información
MínimoArt. 95Filtros spam, IA en videojuegos, recomendadoresCódigo de conducta voluntario

Nivel 1: Riesgo inaceptable — Prácticas prohibidas (Artículo 5)

Descripción general

El artículo 5 del AI Act establece una lista cerrada de prácticas de IA completamente prohibidas en la Unión Europea. Estas prácticas se consideran tan peligrosas para los derechos fundamentales que ninguna excepción de interés público justifica su uso (salvo excepciones muy limitadas para la identificación biométrica).

Aplicación desde febrero de 2025

Las prohibiciones del artículo 5 son las primeras disposiciones del AI Act que entraron en aplicación efectiva, el 2 de febrero de 2025. Cualquier empresa u organización que utilice o desarrolle estos sistemas puede ser sancionada con hasta 35 millones de euros o el 7% de su facturación global anual.

Prácticas prohibidas en detalle

1. Manipulación subliminal o engañosa (Art. 5.1.a)

Prohibición: Sistemas de IA que utilicen técnicas subliminales, manipuladoras o engañosas — más allá de la conciencia del individuo — para distorsionar materialmente su comportamiento, causándole o pudiendo causarle un perjuicio significativo.

Ejemplos concretos:

EjemploPor qué está prohibido
IA que modula frecuencias de audio para inducir comprasManipulación subliminal que el usuario no puede detectar
Chatbot que simula empatía humana para explotar vulnerabilidades emocionalesEngaño deliberado que distorsiona decisiones
Interfaz con patrones oscuros potenciados por IA para forzar consentimientosManipulación del comportamiento del usuario
Sistema de precios dinámicos basado en estado emocional detectadoExplotación de estado psicológico para beneficio comercial

Análisis técnico: Para que se active esta prohibición, deben concurrir tres elementos: (1) técnica subliminal o manipuladora, (2) distorsión material del comportamiento, y (3) perjuicio significativo real o potencial. La IA que simplemente persuade (como un recomendador de productos) no entra en esta categoría si el usuario es consciente de la recomendación.

2. Explotación de vulnerabilidades (Art. 5.1.b)

Prohibición: Sistemas de IA que exploten las vulnerabilidades de personas o grupos específicos derivadas de su edad, discapacidad o situación social o económica, con el fin de distorsionar materialmente su comportamiento de forma perjudicial.

Grupos protegidos:

Grupo vulnerableEjemplo de explotación prohibida
Personas mayoresIA que identifica deterioro cognitivo para vender productos financieros complejos
MenoresAlgoritmos que explotan la impulsividad infantil para maximizar tiempo de pantalla
Personas con discapacidadAsistentes de IA que manipulan a personas con discapacidad intelectual
Personas en situación económica precariaPréstamos predatorios dirigidos por IA a personas con dificultades financieras

3. Puntuación social (Social scoring) (Art. 5.1.c)

Prohibición: Sistemas de IA utilizados por autoridades públicas (o en su nombre) para evaluar o clasificar a personas físicas durante un período de tiempo basándose en su comportamiento social o en características personales conocidas, inferidas o previstas, cuando dicha puntuación conduzca a un trato perjudicial injustificado o desproporcionado.

Contexto: Esta prohibición está inspirada directamente en el Sistema de Crédito Social chino, que asigna puntuaciones a ciudadanos basándose en su comportamiento social y puede restringir su acceso a servicios públicos, transporte o crédito.

Elementos clave:

  • La prohibición aplica a autoridades públicas y entidades que actúen en su nombre
  • No se limita a un “sistema de crédito social” formal; cualquier puntuación social basada en IA está incluida
  • La evaluación debe producir un trato perjudicial injustificado o desproporcionado en contextos diferentes al que generó los datos
Sector privado y social scoring

La prohibición del artículo 5.1.c se dirige principalmente a autoridades públicas. Sin embargo, el uso de puntuación social por entidades privadas podría entrar en la prohibición general de manipulación (art. 5.1.a) o en las obligaciones de alto riesgo si se usa para decisiones que afectan a derechos fundamentales.

4. Evaluación de riesgo de delincuencia por perfilado (Art. 5.1.d)

Prohibición: Sistemas de IA que evalúen o predigan el riesgo de que una persona física cometa un delito basándose únicamente en el perfilado o en la evaluación de rasgos y características de personalidad, salvo cuando se use para complementar evaluaciones humanas basadas en hechos objetivos verificables directamente vinculados a actividad delictiva.

Implicaciones forenses: Los sistemas de “predictive policing” (policía predictiva) que perfilan a individuos basándose en su raza, barrio, historial crediticio u otros proxies están prohibidos. Sin embargo, los sistemas que analizan patrones delictivos geográficos o temporales (sin perfilar individuos) no entran en la prohibición.

5. Scraping masivo de imágenes faciales (Art. 5.1.e)

Prohibición: Sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la recopilación no dirigida de imágenes faciales de Internet o de grabaciones de CCTV.

Caso de referencia: Esta prohibición aborda directamente la práctica de empresas como Clearview AI, que recopiló más de 30.000 millones de imágenes faciales de redes sociales e Internet sin consentimiento para crear una base de datos de reconocimiento facial vendida a fuerzas de seguridad.

Práctica¿Prohibida?
Scraping masivo de fotos de redes sociales para reconocimiento facial — Art. 5.1.e
Base de datos policial de fotos de detenidosNo — recopilación dirigida, no masiva
Empresa que usa fotos de empleados para control de accesoNo — consentimiento + finalidad específica
Recopilación de imágenes CCTV para entrenar modelo de reconocimiento — Art. 5.1.e

6. Inferencia de emociones en trabajo y educación (Art. 5.1.f)

Prohibición: Sistemas de IA que infieran las emociones de una persona física en el ámbito laboral y en las instituciones educativas, salvo cuando el sistema de IA esté destinado a ser puesto en servicio o utilizado por razones médicas o de seguridad.

Contexto: Esta prohibición aborda el creciente mercado de “emotion AI” o “affective computing” que analiza expresiones faciales, tono de voz y lenguaje corporal para inferir estados emocionales.

Uso¿Prohibido?
Cámara que analiza expresiones de empleados para medir satisfacción
Software que monitoriza estrés de alumnos durante exámenes
Sistema médico que detecta dolor en pacientes no comunicativosNo — excepción médica
Detector de fatiga para conductores profesionalesNo — excepción de seguridad
IA que analiza tono de voz en call center para evaluar rendimiento

7. Categorización biométrica por datos sensibles (Art. 5.1.g)

Prohibición: Sistemas de categorización biométrica que clasifiquen individualmente a personas basándose en sus datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, vida sexual u orientación sexual.

Excepción: Se permite el etiquetado o filtrado de conjuntos de datos biométricos adquiridos legalmente en el ámbito de la aplicación de la ley.

8. Identificación biométrica remota en tiempo real (Art. 5.1.h)

Prohibición: Uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público con fines de aplicación de la ley.

Excepciones estrictas (requieren autorización judicial previa):

ExcepciónCondiciones
Búsqueda de víctimasSecuestro, trata de personas, explotación sexual
Amenaza terroristaAmenaza específica, sustancial e inminente
Delitos gravesBúsqueda de sospechosos de delitos del Anexo II (pena máxima ≥4 años)
Videovigilancia masiva

Esta prohibición es especialmente relevante en España, donde existen miles de cámaras de CCTV en espacios públicos. El uso de reconocimiento facial en tiempo real sobre estas cámaras — salvo las excepciones autorizadas judicialmente — está prohibido desde febrero de 2025. Las fuerzas de seguridad españolas deben obtener autorización judicial previa caso por caso.

Sanciones por prácticas prohibidas

InfractorSanción máxima
Empresa grande35 millones € o 7% de la facturación global anual (lo que sea mayor)
PYMEHasta 35 millones € (proporcional a tamaño)
StartupSanciones proporcionadas para no obstaculizar la innovación
Administración públicaCompetencia de la autoridad nacional (AESIA en España)

Nivel 2: Alto riesgo — Sistemas del Anexo III (Artículos 6-49)

¿Qué es un sistema de IA de alto riesgo?

Un sistema de IA se clasifica como alto riesgo cuando cumple una de estas dos condiciones:

Condición A (Art. 6.1): Es un producto o componente de seguridad de un producto cubierto por la legislación de armonización de la UE listada en el Anexo I (maquinaria, dispositivos médicos, juguetes, ascensores, equipos de protección individual, etc.) Y requiere una evaluación de conformidad por un tercero.

Condición B (Art. 6.2): Está incluido en una de las ocho categorías del Anexo III.

El Anexo III: las 8 categorías de alto riesgo

Categoría 1: Biometría (Anexo III, punto 1)

SistemaEjemploObligaciones específicas
Identificación biométrica remota (no en tiempo real)Reconocimiento facial post-evento en grabaciones CCTVEvaluación de conformidad, registro EU, supervisión humana
Categorización biométricaClasificar personas por género, edad, etnia mediante IADocumentación técnica, pruebas de no discriminación
Detección de emociones (fuera de trabajo/educación)Análisis de emociones en publicidad, atención al clienteTransparencia, logs, supervisión humana

Relevancia forense: El perito informático puede ser requerido para auditar sistemas de reconocimiento facial utilizados por empresas de seguridad privada, verificar la precisión y ausencia de sesgos raciales, y documentar el cumplimiento de las obligaciones del Anexo III.

Categoría 2: Infraestructuras críticas (Anexo III, punto 2)

Sistemas de IA utilizados como componentes de seguridad en la gestión y operación de:

InfraestructuraEjemplo de IA de alto riesgo
Tráfico rodadoIA que controla semáforos adaptativos
Suministro de aguaSistemas de IA para detección de contaminación
Suministro de gas y calefacciónIA para gestión de redes de distribución
Suministro eléctricoAlgoritmos de balanceo de carga en smart grids
InternetIA para gestión de tráfico en redes troncales
Transporte digitalVehículos autónomos, control de tráfico aéreo
Directiva NIS2 y AI Act

Los sistemas de IA de alto riesgo en infraestructuras críticas están sujetos tanto al AI Act como a la Directiva NIS2 (seguridad de redes y sistemas de información). Las empresas afectadas deben cumplir ambas normativas de forma simultánea, lo que aumenta la complejidad del cumplimiento y la demanda de auditorías especializadas.

Categoría 3: Educación y formación profesional (Anexo III, punto 3)

SistemaRiesgo específico
Acceso a instituciones educativasIA que decide admisiones en universidades
Evaluación de estudiantesCorrección automática de exámenes con consecuencias académicas
Evaluación del nivel de educaciónSistemas que determinan el nivel educativo apropiado
Supervisión de exámenesProctoring automatizado con IA
Detección de comportamiento prohibidoIA que detecta plagio o trampas en exámenes

Caso relevante: Los sistemas de proctoring (supervisión remota de exámenes) con IA, utilizados masivamente durante la pandemia COVID-19, son clasificados como alto riesgo. Deben cumplir obligaciones de transparencia, no discriminación y supervisión humana.

Categoría 4: Empleo y gestión de trabajadores (Anexo III, punto 4)

SistemaEjemploRiesgo
Contratación y selecciónIA que filtra CVs o realiza entrevistas automatizadasDiscriminación por género, edad, raza
Decisiones sobre ascensosAlgoritmos que recomiendan promocionesSesgo algorítmico
Terminación de contratosIA que identifica candidatos a despidoDiscriminación indirecta
Asignación de tareasSistemas que distribuyen trabajo basándose en perfilesExplotación laboral
Monitorización de rendimientoPeople analytics con IAVigilancia excesiva
Impacto laboral en España

España tiene una de las tasas de uso de IA en RRHH más altas de Europa. Herramientas como HireVue, Pymetrics, Eightfold AI y similares que se utilizan para selección de personal son sistemas de alto riesgo bajo el AI Act. Las empresas que las utilicen sin cumplir las obligaciones del AI Act se exponen a sanciones de hasta 15 millones de euros o el 3% de su facturación global. Los sindicatos pueden solicitar informes periciales sobre estos sistemas.

Categoría 5: Acceso a servicios esenciales (Anexo III, punto 5)

ServicioSistema de IA de alto riesgo
Prestaciones públicasIA que decide elegibilidad para ayudas sociales
Servicios de emergenciaSistemas de priorización de llamadas al 112
Puntuación crediticiaScoring bancario automatizado
Seguros de vida y saludIA para evaluación de riesgo actuarial
Calificación crediticiaSistemas de evaluación de solvencia

Implicación en España: Los sistemas de scoring bancario utilizados por entidades financieras españolas (CaixaBank, Santander, BBVA, etc.) para decisiones de crédito son sistemas de alto riesgo. Los consumidores tienen derecho a explicaciones sobre las decisiones automatizadas (art. 22 RGPD + AI Act).

Categoría 6: Aplicación de la ley (Anexo III, punto 6)

SistemaUso policial
Evaluación de riesgo de victimizaciónPredecir probabilidad de que una persona sea víctima
Polígrafos y herramientas de detecciónDetectar estados emocionales en interrogatorios
Evaluación de fiabilidad de pruebasIA que evalúa veracidad de declaraciones
Perfilado de sospechososPredicción de reincidencia o comportamiento delictivo
Análisis forense de imágenesReconocimiento facial en investigaciones

Relevancia forense: El perito informático puede ser llamado a evaluar la fiabilidad técnica de sistemas de IA utilizados por las fuerzas de seguridad, verificar la ausencia de sesgos discriminatorios y documentar si se respetó la supervisión humana obligatoria.

Categoría 7: Migración, asilo y control de fronteras (Anexo III, punto 7)

SistemaAplicación
Detección de riesgosIA que evalúa riesgo de seguridad de viajeros
Evaluación de solicitudesIA que ayuda a procesar solicitudes de asilo
Verificación de documentosDetección de documentos falsificados con IA
Vigilancia fronterizaSistemas de detección en fronteras

Categoría 8: Administración de justicia y procesos democráticos (Anexo III, punto 8)

SistemaAplicación
Asistencia judicialIA que sugiere resultados judiciales o interpreta legislación
Resolución alternativa de disputasSistemas de mediación automatizada
Procesos electoralesIA que influye en resultados electorales
IA en la justicia española

La Instrucción CGPJ 2/2026 regula el uso de herramientas de IA en la administración de justicia española. Los jueces pueden usar asistentes de IA para investigación jurídica, pero las decisiones judiciales deben ser siempre humanas. Los sistemas de IA que asistan a jueces en la toma de decisiones son de alto riesgo bajo el AI Act.

Obligaciones para sistemas de alto riesgo

Los proveedores y deployers de sistemas de IA de alto riesgo deben cumplir un extenso conjunto de obligaciones:

Obligaciones del proveedor (Arts. 8-25)

  1. Sistema de gestión de riesgos (Art. 9): Implementar un sistema continuo de identificación, análisis, evaluación y mitigación de riesgos durante todo el ciclo de vida del sistema de IA. Incluir medidas de prueba para identificar las medidas de gestión de riesgos más adecuadas.

  2. Gobernanza de datos (Art. 10): Los conjuntos de datos de entrenamiento, validación y prueba deben cumplir criterios de calidad: ser relevantes, representativos, libres de errores y completos. Se deben examinar los posibles sesgos y adoptar medidas para prevenirlos.

  3. Documentación técnica (Art. 11): Elaborar documentación técnica detallada antes de comercializar el sistema, que incluya: descripción del sistema, elementos del diseño, procesos de desarrollo, requisitos de infraestructura, análisis de rendimiento, medidas de gestión de riesgos y descripción del sistema de supervisión humana.

  4. Registro automático de eventos (Art. 12): El sistema debe permitir el registro automático de eventos (logs) durante todo su período de uso. Los logs deben permitir la trazabilidad del funcionamiento del sistema y facilitar la supervisión posterior al despliegue.

  5. Transparencia e información (Art. 13): Proporcionar instrucciones de uso claras y comprensibles al deployer, que incluyan: capacidades y limitaciones del sistema, nivel de precisión esperado, circunstancias de uso previstas, especificaciones de los datos de entrada y medidas de supervisión humana.

  6. Supervisión humana (Art. 14): Diseñar el sistema para que pueda ser supervisado eficazmente por personas humanas. El supervisor humano debe poder comprender las capacidades y limitaciones del sistema, interpretar correctamente su output, decidir no usar el sistema o descartar su resultado, e intervenir o interrumpir el sistema en cualquier momento.

  7. Precisión, robustez y ciberseguridad (Art. 15): Lograr un nivel adecuado de precisión, robustez frente a errores y perturbaciones, y ciberseguridad. El sistema debe ser resiliente frente a intentos de manipulación adversarial.

  8. Evaluación de conformidad (Art. 43): Someterse a una evaluación de conformidad antes de la comercialización. Según la categoría, puede ser autoevaluación o evaluación por un organismo notificado.

  9. Marcado CE y registro (Arts. 48-49): Tras superar la evaluación de conformidad, colocar el marcado CE y registrar el sistema en la base de datos de la UE.

Obligaciones del deployer (Arts. 26-27)

ObligaciónDetalle
Uso conforme a instruccionesUtilizar el sistema según las instrucciones del proveedor
Supervisión humanaGarantizar que la supervisión humana se realiza efectivamente
Datos de entradaAsegurar que los datos de entrada son relevantes y representativos
MonitorizaciónSupervisar el funcionamiento del sistema y reportar incidentes
DPIARealizar una evaluación de impacto en protección de datos cuando proceda
Información a trabajadoresInformar a los representantes de los trabajadores y a los afectados
Evaluación de impacto en derechos fundamentalesLos deployers del sector público y entidades privadas que presten servicios públicos

Evaluación de conformidad

El proceso de evaluación de conformidad varía según la categoría:

Tipo de evaluaciónCuándo aplicaProceso
Autoevaluación (Anexo VI)La mayoría de sistemas de alto riesgo del Anexo IIIEl proveedor evalúa internamente el cumplimiento
Organismo notificado (Anexo VII)Sistemas biométricos de identificación remotaUn organismo independiente certifica el cumplimiento
Legislación sectorialProductos del Anexo IEvaluación según la normativa sectorial aplicable

Registro en la base de datos de la UE

Todos los sistemas de IA de alto riesgo deben registrarse en la base de datos pública de la UE antes de su comercialización o puesta en servicio. El registro incluye:

  • Nombre del proveedor y sus datos de contacto
  • Descripción del sistema de IA
  • Estado del sistema (activo, retirado, revocado)
  • Países donde se comercializa
  • Declaración de conformidad
  • Instrucciones de uso

Nivel 3: Riesgo limitado — Obligaciones de transparencia (Artículo 50)

¿Qué sistemas tienen riesgo limitado?

Los sistemas de riesgo limitado no están prohibidos ni requieren las extensas obligaciones de los sistemas de alto riesgo, pero deben cumplir obligaciones específicas de transparencia para que los usuarios sepan que interactúan con IA.

Obligaciones de transparencia por tipo de sistema

Chatbots e interfaces conversacionales (Art. 50.1)

ObligaciónDetalle
Informar de la interacción con IAEl usuario debe saber que interactúa con un sistema de IA antes de la interacción
ExcepciónCuando sea evidente por las circunstancias (contexto de uso claramente automatizado)
FormatoClaro, comprensible, accesible. No se requiere formato específico

Ejemplo práctico: Un chatbot de atención al cliente en un e-commerce español debe incluir un mensaje como: “Estás hablando con un asistente de inteligencia artificial. Un agente humano está disponible si lo solicitas.”

Sistemas de detección de emociones (Art. 50.3)

ObligaciónDetalle
Informar a las personas expuestasAntes de activar el sistema, informar que se está analizando su estado emocional
ExcepcionesUsos médicos o de seguridad, y prevención de delitos con autorización judicial

Deepfakes y contenido generado por IA (Art. 50.4)

Tipo de contenidoObligación
Deepfakes de vídeo/imagenEtiquetar de forma clara que el contenido ha sido generado o manipulado por IA
Audio generado por IAInformar que el audio ha sido generado artificialmente
Texto generado por IAInformar cuando el texto trate asuntos de interés público y se publique para informar al público
ExcepcionesUso artístico, satírico o de ficción (con limitaciones); revisión humana editorial
Impacto en medios de comunicación y marketing

Las agencias de marketing y medios de comunicación en España deben etiquetar el contenido generado por IA cuando se publique para informar al público. Esto incluye textos, imágenes y vídeos generados o sustancialmente modificados por IA. El incumplimiento conlleva sanciones de hasta 7,5 millones de euros o el 1,5% de la facturación global.

Formato del etiquetado

El AI Act establece que el etiquetado debe ser:

  • Legible por máquina: Metadatos embebidos en el archivo (estándares como C2PA, IPTC)
  • Legible por humanos: Información visible para el usuario final
  • Persistente: Debe mantenerse a lo largo de la cadena de distribución
  • Interoperable: Compatible con estándares técnicos europeos

Estándares técnicos relevantes:

EstándarDescripciónAplicación
C2PA (Coalition for Content Provenance and Authenticity)Metadatos de procedencia de contenidoImágenes, vídeos, audio
IPTC (International Press Telecommunications Council)Metadatos de noticias y mediosTexto periodístico, fotografías
EXIF modificadoMetadatos en imágenesFotografías manipuladas por IA
SynthID (Google)Marca de agua imperceptibleImágenes y audio generados por IA

Nivel 4: Riesgo mínimo — Sin obligaciones específicas

Sistemas de riesgo mínimo

La gran mayoría de sistemas de IA actualmente en uso se clasifican como riesgo mínimo. No tienen obligaciones específicas bajo el AI Act, aunque se les anima a adherirse a códigos de conducta voluntarios.

Ejemplos de IA de riesgo mínimo:

SistemaUso
Filtros de spamClasificación automática de correo no deseado
Recomendadores de contenidoSugerencias en plataformas de streaming
Correctores ortográficos con IACorrección y sugerencias de escritura
IA en videojuegosNPCs, generación procedural de contenido
Asistentes de navegaciónGoogle Maps, Waze con predicción de tráfico
Optimización de inventarioIA para gestión de stock
Sistemas de traducciónDeepL, Google Translate

Códigos de conducta (Art. 95)

El AI Act incentiva la creación de códigos de conducta para sistemas de riesgo mínimo que cubran:

  • Sostenibilidad medioambiental (eficiencia energética)
  • Accesibilidad para personas con discapacidad
  • Participación de stakeholders en el diseño
  • Diversidad en equipos de desarrollo
  • Formación en alfabetización de IA

Modelos de IA de propósito general (GPAI) — Título IIIA

Régimen especial para modelos fundacionales

Además de la clasificación por niveles de riesgo, el AI Act establece un régimen separado para los modelos de IA de propósito general (GPAI), también conocidos como modelos fundacionales (GPT-4, Claude, Gemini, Llama, Mistral, etc.).

Aplicación desde agosto de 2025

Las obligaciones para modelos GPAI son aplicables desde el 2 de agosto de 2025, un año antes de la aplicación general del AI Act. Los proveedores de modelos fundacionales (OpenAI, Anthropic, Google, Meta, Mistral) ya deben cumplir estas obligaciones.

Clasificación de modelos GPAI

TipoCriterioObligaciones
GPAI estándarCualquier modelo de propósito generalDocumentación técnica, política de derechos de autor, resumen de datos de entrenamiento
GPAI con riesgo sistémicoModelos con >10^25 FLOP de entrenamiento o designados por la ComisiónTodas las anteriores + evaluación adversarial, monitorización de incidentes, ciberseguridad, eficiencia energética

Obligaciones de proveedores GPAI

Modelos GPAI estándar (Art. 53)

ObligaciónDetalle
Documentación técnicaIncluyendo proceso de entrenamiento y evaluación
Información a proveedores downstreamPara que puedan cumplir sus obligaciones del AI Act
Política de derechos de autorCumplir la Directiva de derechos de autor (opt-out del text mining)
Resumen de datos de entrenamientoPublicar un resumen de los datos usados para entrenamiento

Modelos GPAI con riesgo sistémico (Art. 55)

Obligación adicionalDetalle
Evaluación del modeloTests adversariales (red teaming), evaluación de capacidades peligrosas
Monitorización de incidentesRegistro y reporte de incidentes graves
CiberseguridadNivel adecuado de protección del modelo y su infraestructura
Eficiencia energéticaDocumentar y publicar el consumo energético del modelo
Informe a la ComisiónReportes periódicos sobre el cumplimiento

Impacto en empresas españolas

Las empresas españolas que usen modelos GPAI (ChatGPT, Claude, Gemini) para crear sistemas de IA de alto riesgo son “deployers” bajo el AI Act. Deben:

  1. Verificar que el proveedor del modelo GPAI cumple sus obligaciones
  2. Realizar su propia evaluación de conformidad para el sistema final
  3. Documentar cómo el modelo GPAI se integra en su sistema
  4. Garantizar la supervisión humana del sistema completo

Cronología de aplicación del AI Act

FechaHitoArtículos aplicables
1 agosto 2024Entrada en vigor del reglamento
2 febrero 2025Prohibiciones de prácticas inaceptablesArt. 5
2 febrero 2025Obligaciones de alfabetización en IAArt. 4
2 agosto 2025Obligaciones para modelos GPAIArts. 51-56
2 agosto 2025Gobernanza: Comité Europeo de IAArts. 64-68
2 agosto 2025Sanciones por incumplimiento GPAIArt. 99
2 agosto 2026Aplicación completa: alto riesgo, limitado, mínimoTodos los artículos
2 agosto 2027Obligaciones para sistemas de alto riesgo del Anexo IArt. 6.1
Agosto de 2026: fecha crítica

El 2 de agosto de 2026 es la fecha de aplicación completa del AI Act. A partir de esa fecha, las empresas que utilicen sistemas de IA de alto riesgo sin cumplir las obligaciones del reglamento se exponen a sanciones de hasta 15 millones de euros o el 3% de su facturación global anual. Las empresas deben prepararse ahora para cumplir en plazo.

Sanciones del AI Act

Estructura sancionadora

InfracciónSanción máxima (empresa grande)Sanción máxima (PYME/startup)
Prácticas prohibidas (Art. 5)35M€ o 7% facturación globalProporcionalmente menor
Incumplimiento obligaciones alto riesgo15M€ o 3% facturación globalProporcionalmente menor
Información incorrecta a autoridades7,5M€ o 1,5% facturación globalProporcionalmente menor

Comparativa con RGPD

AspectoAI ActRGPD
Sanción máxima35M€ o 7% facturación20M€ o 4% facturación
Autoridad supervisoraAESIA (España) + Comisión EuropeaAEPD (España)
EnfoqueClasificación por riesgo del sistemaProtección de datos personales
Sujetos obligadosProveedores, deployers, importadores, distribuidoresResponsables y encargados del tratamiento
Evaluación de impactoEvaluación de conformidad (Art. 43)DPIA (Art. 35 RGPD)
RegistroBase de datos UE de IA de alto riesgoRegistro de actividades de tratamiento

Criterios para determinar la sanción

Las autoridades supervisoras considerarán:

  1. La naturaleza, gravedad y duración de la infracción
  2. Si la infracción fue intencionada o negligente
  3. Las medidas adoptadas para mitigar el daño
  4. El grado de responsabilidad, considerando las medidas técnicas y organizativas implementadas
  5. Infracciones previas del mismo infractor
  6. El grado de cooperación con la autoridad supervisora
  7. La manera en que se tuvo conocimiento de la infracción
  8. El tamaño, la cuota de mercado y la facturación del infractor

AESIA: la autoridad española de supervisión de IA

¿Qué es la AESIA?

La Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) es la autoridad nacional competente designada por España para supervisar el cumplimiento del AI Act. Fue creada por Real Decreto 729/2023 y tiene su sede en A Coruña.

Competencias de la AESIA

CompetenciaDetalle
Supervisión del AI ActVigilar el cumplimiento del reglamento en España
Sandbox regulatorioGestionar el entorno controlado de pruebas de IA
InvestigaciónIniciar investigaciones de oficio o por denuncia
SancionesImponer sanciones por infracciones del AI Act
Coordinación europeaRepresentar a España en el Comité Europeo de IA
AsesoramientoOrientar a empresas sobre el cumplimiento
CertificaciónDesignar organismos notificados para evaluación de conformidad

Sandbox regulatorio de IA

El sandbox regulatorio es un entorno controlado donde empresas e innovadores pueden probar sistemas de IA bajo la supervisión de la AESIA, con flexibilidad regulatoria temporal. España fue uno de los primeros países de la UE en poner en marcha su sandbox.

Beneficios del sandbox:

  • Probar sistemas de IA sin riesgo de sanciones durante el período de prueba
  • Recibir orientación directa de la AESIA sobre cumplimiento
  • Acceder a datos de prueba proporcionados por el sandbox
  • Validar la clasificación de riesgo del sistema antes de la comercialización

Papel del perito informático forense

Servicios periciales relacionados con el AI Act

El perito informático forense tiene un papel creciente en el ecosistema del AI Act:

ServicioDescripción
Auditoría de clasificación de riesgoEvaluar técnicamente si un sistema de IA está correctamente clasificado según los criterios del Anexo III
Evaluación de sesgos algorítmicosAnalizar conjuntos de datos y modelos para detectar sesgos discriminatorios (género, raza, edad, discapacidad)
Verificación de supervisión humanaAuditar si los mecanismos de supervisión humana son efectivos y no meramente formales
Análisis de logs y trazabilidadVerificar que el sistema registra adecuadamente sus decisiones y permite la trazabilidad
Auditoría de documentación técnicaEvaluar si la documentación técnica cumple los requisitos del AI Act
Peritaje en procedimientos sancionadoresInformes periciales para defender o acusar en expedientes sancionadores de la AESIA
Detección de deepfakesAnálisis forense de contenido potencialmente generado por IA
Evaluación de transparenciaVerificar que los sistemas de riesgo limitado cumplen las obligaciones de etiquetado

Metodología pericial para auditoría AI Act

  1. Identificación del sistema de IA: Determinar qué sistemas de IA utiliza la organización y cuál es su finalidad. Documentar proveedores, versiones, datos de entrada y salida, y usuarios del sistema.

  2. Clasificación de riesgo: Aplicar los criterios del artículo 6 y del Anexo III para determinar el nivel de riesgo de cada sistema. Verificar si el proveedor ha realizado correctamente la autoclasificación.

  3. Evaluación de cumplimiento por nivel: Para cada sistema de alto riesgo, verificar el cumplimiento de los artículos 8-15 (gestión de riesgos, gobernanza de datos, documentación, logs, transparencia, supervisión humana, precisión y ciberseguridad).

  4. Análisis de sesgos: Ejecutar pruebas técnicas para detectar sesgos en los datos de entrenamiento y en las salidas del modelo. Utilizar métricas estándar como disparate impact, equalized odds y demographic parity.

  5. Verificación de supervisión humana: Evaluar si los mecanismos de supervisión humana son efectivos. Verificar que los operadores humanos tienen la formación, las herramientas y la autoridad para intervenir. Comprobar que existe un proceso documentado para desactivar el sistema.

  6. Auditoría de logs: Verificar que el sistema registra automáticamente las decisiones, los datos de entrada, los resultados y los timestamps. Comprobar la integridad de los logs y su período de retención.

  7. Informe pericial: Emitir un informe con los hallazgos, el nivel de cumplimiento de cada obligación, las no conformidades detectadas y las recomendaciones de remediación. El informe debe ser comprensible para la AESIA, para un tribunal y para la dirección de la empresa.

Ejemplo de informe pericial: estructura recomendada

Un informe pericial sobre cumplimiento del AI Act debería contener las siguientes secciones:

SecciónContenido
1. Objeto de la periciaDefinición del sistema de IA auditado y alcance del informe
2. MetodologíaHerramientas utilizadas, estándares aplicados, proceso de auditoría
3. Descripción del sistemaArquitectura, datos de entrada/salida, modelo, proveedor
4. Clasificación de riesgoNivel asignado con justificación basada en el Anexo III
5. Evaluación de cumplimientoAnálisis artículo por artículo (arts. 8-15 para alto riesgo)
6. Análisis de sesgosResultados de las pruebas de equidad y no discriminación
7. Supervisión humanaEvaluación de la efectividad de los mecanismos implementados
8. No conformidadesLista priorizada de incumplimientos detectados
9. RecomendacionesPlan de remediación con plazos estimados
10. ConclusionesResumen ejecutivo del nivel de cumplimiento

Herramientas para auditoría de IA

HerramientaUsoLicencia
IBM AI Fairness 360Detección y mitigación de sesgos en modelos de IAOpen source
Google What-If ToolExploración visual de modelos de MLOpen source
Microsoft FairlearnEvaluación y mejora de equidad en modelosOpen source
AequitasAuditoría de sesgo y equidadOpen source
SHAPExplicabilidad de modelos (SHapley Additive exPlanations)Open source
LIMEExplicaciones locales interpretables de modelosOpen source
Alibi ExplainExplicabilidad de modelos black-boxOpen source
LangSmith / LangFuseMonitorización y trazabilidad de LLMsFreemium

Impacto sectorial en España

Sector financiero

Sistema de IAClasificación AI ActImpacto
Scoring crediticioAlto riesgo (Anexo III.5)Obligación de explicabilidad, auditoría de sesgos
Detección de fraudeAlto riesgo (Anexo III.5)Supervisión humana, documentación técnica
Asesoramiento automatizadoAlto riesgo (Anexo III.5)Transparencia, información al cliente
Chatbot de atención al clienteRiesgo limitadoInformar que es IA
Trading algorítmicoRegulación sectorial (MiFID II)Doble regulación

Sector sanitario

Sistema de IAClasificaciónImpacto
Diagnóstico asistido por IAAlto riesgo (Anexo I — dispositivos médicos)Certificación CE + AI Act
Triaje automatizadoAlto riesgoSupervisión humana obligatoria
Análisis de imágenes médicasAlto riesgo (dispositivo médico)Evaluación por organismo notificado
Gestión de citasRiesgo mínimoSin obligaciones específicas

Sector público

Sistema de IAClasificaciónImpacto
Asistentes virtuales AAPPRiesgo limitadoTransparencia
Sistemas de ayudas socialesAlto riesgo (Anexo III.5)Evaluación de impacto en derechos fundamentales
Policía predictivaAlto riesgo (Anexo III.6) o prohibidoRestricciones estrictas
Reconocimiento facial policialProhibido (tiempo real) o alto riesgo (diferido)Autorización judicial
Sistema de IAClasificaciónImpacto
Asistentes jurídicos IAAlto riesgo (Anexo III.8) si se usan en procesos judicialesSupervisión humana, transparencia
Revisión documentalRiesgo mínimo-limitadoCódigo de conducta recomendado
Predicción de resultados judicialesAlto riesgo (Anexo III.8)Documentación técnica, auditoría de sesgos
Chatbot de consultas legalesRiesgo limitadoInformar de la interacción con IA

Relación con otras normativas

AI Act y RGPD

El AI Act complementa al RGPD pero no lo sustituye. Cuando un sistema de IA procesa datos personales, debe cumplir ambas normativas simultáneamente:

AspectoAI ActRGPD
EnfoqueSeguridad y derechos fundamentales del sistemaProtección de datos personales
EvaluaciónEvaluación de conformidadDPIA (Evaluación de impacto)
TransparenciaSobre el sistema de IA en síSobre el tratamiento de datos personales
SupervisiónAESIAAEPD
SancionesHasta 7% facturaciónHasta 4% facturación
AcumulaciónSí — las sanciones pueden ser acumulativas

AI Act y Directiva NIS2

Los sistemas de IA de alto riesgo en infraestructuras críticas están sujetos a:

  • Las obligaciones de ciberseguridad del AI Act (Art. 15)
  • Las obligaciones de seguridad de la Directiva NIS2
  • Las obligaciones del Esquema Nacional de Seguridad (ENS) en España

AI Act y Directiva de Responsabilidad por IA

La Directiva de Responsabilidad por IA (propuesta) facilitará las reclamaciones civiles por daños causados por sistemas de IA de alto riesgo, invirtiendo la carga de la prueba en determinadas circunstancias.

Estándares técnicos y normas armonizadas

ISO/IEC 42001:2023 — Sistema de gestión de IA

La norma ISO/IEC 42001:2023 es el primer estándar internacional para sistemas de gestión de inteligencia artificial. Es altamente relevante para el cumplimiento del AI Act porque:

AspectoRelación con el AI Act
Gestión de riesgosComplementa las obligaciones de gestión de riesgos del Art. 9
Gobernanza de datosAlineada con los requisitos de gobernanza de datos del Art. 10
DocumentaciónFacilita el cumplimiento de los requisitos de documentación técnica del Art. 11
AuditoríaProporciona marco de auditoría certificable
Mejora continuaCiclo PDCA compatible con la monitorización post-despliegue

Otras normas relevantes

NormaDescripciónAplicación AI Act
ISO/IEC 23894:2023Gestión de riesgos de IAArt. 9 (sistema de gestión de riesgos)
ISO/IEC TR 24027:2021Sesgo en sistemas de IAArt. 10 (gobernanza de datos, no discriminación)
ISO/IEC 24029-1:2021Robustez de redes neuronalesArt. 15 (robustez y ciberseguridad)
ISO/IEC 38507:2022Gobernanza de IA para organizacionesMarco general de gobernanza
ISO/IEC 22989:2022Conceptos y terminología de IADefiniciones alineadas con el AI Act
ISO/IEC 23053:2022Framework para sistemas de MLArquitectura de referencia
IEEE 7010-2020Bienestar ético en IAEvaluación de impacto ético

Normas armonizadas europeas (en desarrollo)

El CEN-CENELEC está desarrollando normas armonizadas específicas para el AI Act. Cuando se publiquen, su cumplimiento generará una presunción de conformidad con los requisitos del reglamento:

Norma en desarrolloArtículo AI ActEstado estimado
Sistema de gestión de riesgos de IAArt. 9Borrador 2025, publicación 2026
Gobernanza de datosArt. 10Borrador 2025, publicación 2026
Documentación técnicaArt. 11Borrador 2025, publicación 2026
TransparenciaArt. 13Borrador 2025, publicación 2026
Supervisión humanaArt. 14Borrador 2026
Precisión y robustezArt. 15Borrador 2026

Evaluación de impacto en derechos fundamentales (FRIA)

¿Qué es la FRIA?

El artículo 27 del AI Act establece que determinados deployers deben realizar una Evaluación de Impacto en Derechos Fundamentales (Fundamental Rights Impact Assessment — FRIA) antes de desplegar sistemas de IA de alto riesgo. Es diferente de la DPIA del RGPD y adicional a ella.

¿Quién debe realizarla?

  • Organismos de derecho público
  • Entidades privadas que prestan servicios públicos
  • Deployers de sistemas de scoring crediticio
  • Deployers de sistemas de evaluación de riesgos en seguros de vida y salud

Contenido de la FRIA

ElementoDescripción
Descripción del usoFinalidad, contexto, alcance geográfico y temporal
Personas afectadasGrupos potencialmente impactados e identificación de riesgos para cada grupo
Derechos fundamentales en riesgoDignidad, no discriminación, privacidad, protección de datos, libertad de expresión, educación, trabajo, tutela judicial efectiva
Medidas de mitigaciónPara cada derecho identificado como en riesgo
Supervisión humanaDescripción del proceso de intervención humana
Plan de monitorizaciónSeguimiento continuo de los riesgos identificados
Comunicación a la AESIANotificación del resultado al supervisor nacional
FRIA + DPIA = Evaluación integral

Cuando un sistema de IA de alto riesgo procesa datos personales, el deployer debe realizar tanto la FRIA (AI Act, art. 27) como la DPIA (RGPD, art. 35). Aunque son evaluaciones distintas con finalidades diferentes, pueden realizarse de forma conjunta para optimizar recursos, siempre que se cubran todos los requisitos de ambas normativas.

Preguntas frecuentes adicionales

¿Un chatbot de empresa es de alto riesgo?

No necesariamente. Un chatbot de atención al cliente que responde preguntas generales es de riesgo limitado (obligación de transparencia). Solo sería de alto riesgo si se usa para tomar decisiones que afecten a derechos fundamentales (por ejemplo, aprobar o denegar un crédito).

¿Las herramientas de IA generativa como ChatGPT son de alto riesgo?

Los modelos fundacionales (GPT-4, Claude, Gemini) están regulados como modelos GPAI, con su propio régimen. El sistema final que use el modelo puede ser de alto riesgo dependiendo de su aplicación. Por ejemplo, usar ChatGPT para charlar es riesgo mínimo, pero integrarlo en un sistema de selección de personal es alto riesgo.

¿Cómo afecta el AI Act a las PYMES y startups?

El AI Act incluye medidas de apoyo para PYMES: acceso prioritario al sandbox regulatorio, tasas reducidas para la evaluación de conformidad, sanciones proporcionadas al tamaño, y guías simplificadas de cumplimiento. Sin embargo, las obligaciones sustantivas son las mismas independientemente del tamaño de la empresa.

¿Qué pasa si mi proveedor de IA no cumple el AI Act?

Si el proveedor del sistema de IA no cumple sus obligaciones, el deployer puede ser responsable si era conocedor del incumplimiento o si no realizó la debida diligencia. Es recomendable incluir cláusulas de cumplimiento del AI Act en los contratos con proveedores de IA.

¿El AI Act se aplica a la IA desarrollada internamente?

Sí. El AI Act se aplica a cualquier sistema de IA puesto en servicio o utilizado en la UE, independientemente de si fue desarrollado internamente o adquirido a un proveedor externo. Una empresa que desarrolla su propio modelo de IA para uso interno actúa como “proveedor” y “deployer” simultáneamente.

¿Qué diferencia hay entre “proveedor” y “deployer” en el AI Act?

El proveedor (provider) es quien desarrolla o pone en el mercado el sistema de IA. El deployer es quien lo utiliza en su actividad profesional. Las obligaciones son diferentes: el proveedor es responsable del diseño, documentación y evaluación de conformidad; el deployer es responsable del uso conforme a instrucciones, la supervisión humana y la monitorización. Una misma empresa puede ser proveedor y deployer si desarrolla y usa su propio sistema.

¿Qué ocurre si clasifico incorrectamente mi sistema de IA?

La clasificación incorrecta (por ejemplo, clasificar como riesgo mínimo un sistema que es de alto riesgo) constituye una infracción del AI Act. La AESIA puede investigar de oficio o por denuncia, reclasificar el sistema y aplicar las sanciones correspondientes. Un informe pericial puede ser determinante para establecer la clasificación correcta.

¿Los sistemas de IA existentes deben adaptarse al AI Act?

Sí. Los sistemas de IA ya en uso antes de la entrada en vigor deben cumplir con el AI Act a partir de las fechas de aplicación correspondientes. No hay una cláusula de “grandfathering” que exima a los sistemas preexistentes. Las empresas deben auditar sus sistemas actuales y adaptarlos antes de agosto de 2026.

¿Cómo se relaciona el AI Act con la Ley de Servicios Digitales (DSA)?

La DSA y el AI Act son complementarios. Las plataformas en línea que usen sistemas de recomendación basados en IA deben cumplir con las obligaciones de transparencia de ambas normativas. Los sistemas de moderación de contenido con IA también pueden estar sujetos al AI Act si se utilizan para decisiones que afecten a derechos fundamentales.

¿El AI Act regula el uso de IA en investigaciones penales?

Sí, específicamente en el Anexo III.6 (aplicación de la ley). Los sistemas de IA usados para evaluación de riesgo de delincuencia, detección de engaño, evaluación de pruebas y reconocimiento facial en investigaciones son de alto riesgo con obligaciones estrictas. Además, el reconocimiento facial en tiempo real en espacios públicos está generalmente prohibido (art. 5.1.h), con excepciones limitadas que requieren autorización judicial.

Casos prácticos de clasificación de riesgo

Caso 1: Sistema de selección de personal con IA

Escenario: Una empresa de RRHH española desarrolla una herramienta de IA que analiza CVs, realiza entrevistas por vídeo con análisis de expresión facial, y genera una puntuación de idoneidad para cada candidato.

Clasificación:

ComponenteNivel de riesgoJustificación
Análisis de CVs con IAAlto riesgo (Anexo III.4)Decisión sobre contratación
Entrevista por vídeo con análisis facialAlto riesgo (Anexo III.4) + posible prohibición (art. 5.1.f)Empleo + inferencia de emociones
Puntuación de idoneidadAlto riesgo (Anexo III.4)Impacto directo en acceso al empleo

Obligaciones: Evaluación de conformidad, DPIA, documentación técnica, pruebas de no discriminación (género, edad, raza, discapacidad), supervisión humana efectiva, información a candidatos.

Caso 2: Chatbot bancario con funciones de crédito

Escenario: Un banco español implementa un chatbot de IA que atiende consultas generales, pero también puede pre-aprobar microcréditos de hasta 3.000€ basándose en el perfil del cliente.

FuncionalidadNivel de riesgoArtículo
Consultas generales (saldo, horarios)Riesgo limitadoArt. 50 (transparencia)
Pre-aprobación de microcréditosAlto riesgoAnexo III.5 (scoring crediticio)

Análisis pericial necesario: Un perito puede evaluar si el algoritmo de pre-aprobación discrimina por edad, género, código postal (como proxy de raza) u otros factores protegidos. También verificar que la supervisión humana es efectiva y no meramente nominal.

Caso 3: Sistema de vigilancia con reconocimiento facial

Escenario: Una empresa de seguridad privada en España instala cámaras con reconocimiento facial en un centro comercial para identificar a personas con orden de alejamiento.

UsoClasificaciónAnálisis
Identificación biométrica en tiempo real en espacio públicoProhibido (Art. 5.1.h)Solo permitido para fuerzas de seguridad con autorización judicial
Identificación biométrica post-evento (revisión de grabaciones)Alto riesgo (Anexo III.1)Permitido con obligaciones estrictas
Empresa privada operando el sistemaProhibidoLas excepciones solo aplican a fuerzas de seguridad

Conclusión pericial: El sistema está prohibido para una empresa de seguridad privada. El perito documenta la infracción, que puede conllevar una sanción de hasta 35M€ o el 7% de la facturación global.

Checklist de cumplimiento del AI Act para empresas

Fase 1: Inventario (inmediato)

TareaResponsableEstado
Inventariar todos los sistemas de IA en usoCTO / CIO
Identificar proveedores de IA y sus términos de servicioLegal + TI
Clasificar cada sistema según los niveles de riesgo del AI ActCISO + Legal
Identificar datos personales procesados por cada sistemaDPO
Documentar las decisiones de clasificaciónComité de IA

Fase 2: Evaluación (antes de agosto 2026)

TareaResponsableEstado
Realizar DPIA para sistemas de alto riesgo que procesan datos personalesDPO
Evaluar sesgos algorítmicos en sistemas de alto riesgoPerito / Auditor IA
Verificar mecanismos de supervisión humanaOperadores del sistema
Comprobar documentación técnica del proveedorTI + Legal
Evaluar cumplimiento de transparencia (chatbots, deepfakes)Marketing + TI
Verificar registro de sistemas de alto riesgo en base de datos UELegal

Fase 3: Implementación (continua)

TareaResponsableEstado
Implementar sistema de logs y trazabilidadTI
Formar a operadores humanos de sistemas de alto riesgoRRHH + TI
Establecer proceso de monitorización post-despliegueCISO
Crear protocolo de notificación de incidentes a AESIALegal + CISO
Auditoría periódica de cumplimiento (anual recomendada)Perito / Auditor externo
Actualizar RAT (Registro de Actividades de Tratamiento) con sistemas de IADPO

Guía de decisión: ¿mi sistema es de alto riesgo?

¿El sistema de IA toma o asiste en decisiones
que afectan a derechos fundamentales de personas?

    ├── SÍ → ¿Está incluido en el Anexo III?
    │         │
    │         ├── SÍ → ALTO RIESGO
    │         │        Obligaciones Arts. 8-49
    │         │
    │         └── NO → ¿Es un componente de seguridad
    │                   de un producto del Anexo I?
    │                   │
    │                   ├── SÍ → ALTO RIESGO
    │                   │
    │                   └── NO → RIESGO LIMITADO o MÍNIMO
    │                            Evaluar transparencia (Art. 50)

    └── NO → ¿Es un chatbot, genera deepfakes o detecta emociones?

              ├── SÍ → RIESGO LIMITADO
              │        Obligaciones de transparencia (Art. 50)

              └── NO → RIESGO MÍNIMO
                       Sin obligaciones específicas
                       Código de conducta voluntario (Art. 95)

Diferencias entre el AI Act y enfoques regulatorios internacionales

AI Act (UE) vs. Orden Ejecutiva de Biden (EE.UU., revocada)

AspectoAI Act (UE)EO 14110 Biden (EE.UU.)
NaturalezaReglamento vinculanteOrden ejecutiva (revocada por Trump en 2025)
EnfoqueClasificación por riesgo, obligaciones legalesVoluntario, basado en estándares
SancionesHasta 35M€ / 7% facturaciónSin sanciones directas
AlcanceCualquier sistema de IA en la UEModelos con >10^26 FLOP
Prohibiciones8 prácticas prohibidasSin prohibiciones
EstadoEn vigor y aplicándoseRevocada en enero 2025

AI Act vs. Reglamento chino de IA generativa

AspectoAI Act (UE)China (múltiples regulaciones)
EnfoqueProtección de derechos fundamentalesControl de contenido + seguridad nacional
RegistroBase de datos UE para alto riesgoRegistro obligatorio de todos los modelos de IA generativa
ContenidoNo regula contenido específicoProhibición de contenido que subvierta el orden socialista
TransparenciaEtiquetado de deepfakes y contenido IAEtiquetado obligatorio de todo contenido generado por IA

Referencias y fuentes

  • Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo (AI Act) — Diario Oficial de la Unión Europea, 12 de julio de 2024
  • Annexes I-XIII del Reglamento (UE) 2024/1689 — Listas de legislación armonizada, sistemas de alto riesgo y documentación técnica
  • Comisión Europea — “Artificial Intelligence Act: Questions and Answers” (2024)
  • Real Decreto 729/2023 — Creación de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA)
  • Instrucción CGPJ 2/2026 — Uso de herramientas de inteligencia artificial en la administración de justicia
  • NIST AI RMF 1.0 (2024) — AI Risk Management Framework
  • ISO/IEC 42001:2023 — Sistema de gestión de inteligencia artificial
  • AEPD — Guía sobre el uso de inteligencia artificial y protección de datos
  • Comité Europeo de Protección de Datos (EDPB) — Directrices sobre IA y RGPD
  • Future of Life Institute — EU AI Act Explorer (base de datos interactiva del reglamento)
  • Stanford HAI — AI Index Report 2025
  • Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) — Guías de cumplimiento del AI Act

Conclusión

La clasificación de riesgo del AI Act representa un cambio fundamental en la regulación de la inteligencia artificial en Europa y, por extensión, a nivel global. Con un sistema de cuatro niveles — desde prácticas absolutamente prohibidas hasta IA de riesgo mínimo sin obligaciones — el reglamento busca equilibrar la innovación tecnológica con la protección de los derechos fundamentales.

Para las empresas españolas, la fecha clave es el 2 de agosto de 2026, cuando la aplicación completa del reglamento hará que los sistemas de IA de alto riesgo deban cumplir todas las obligaciones de documentación, transparencia, supervisión humana y evaluación de conformidad. Las empresas que no se preparen a tiempo se enfrentan a sanciones que pueden alcanzar los 35 millones de euros o el 7% de su facturación global.

El perito informático forense desempeña un papel esencial en este nuevo ecosistema: desde la auditoría técnica de cumplimiento (clasificación de riesgo, sesgos algorítmicos, trazabilidad) hasta la emisión de informes periciales en procedimientos sancionadores ante la AESIA o en litigios judiciales. La demanda de peritos especializados en IA aumentará significativamente a medida que el AI Act entre en plena aplicación.

La combinación del AI Act con el RGPD crea un marco regulatorio sin precedentes. Las empresas deben adoptar un enfoque integral de gobernanza de IA que cubra tanto la seguridad del sistema como la protección de datos personales, con auditorías periódicas y documentación exhaustiva.

Última actualización: 30 de marzo de 2026 Categoría: Marco Legal Código: LEG-039

Preguntas Frecuentes

¿Cuáles son los 4 niveles de riesgo del AI Act europeo?

El AI Act clasifica los sistemas de IA en cuatro niveles: riesgo inaceptable (prácticas prohibidas como la puntuación social o la vigilancia biométrica masiva en tiempo real), alto riesgo (sistemas del Anexo III como biometría, infraestructuras críticas, empleo o justicia), riesgo limitado (chatbots, detección de emociones, deepfakes — con obligaciones de transparencia) y riesgo mínimo (sin obligaciones específicas).

¿Qué prácticas de IA están completamente prohibidas por el AI Act?

El AI Act prohíbe: la puntuación social (social scoring), la manipulación subliminal o engañosa, la explotación de vulnerabilidades de grupos específicos, la evaluación de riesgo de delincuencia basada en perfilado, el scraping masivo no dirigido de imágenes faciales, la inferencia de emociones en el trabajo y la educación (salvo seguridad), y la identificación biométrica remota en tiempo real en espacios públicos (con excepciones para delitos graves).

¿Cuándo se aplican las sanciones del AI Act y cuánto son?

Las prohibiciones de prácticas inaceptables son ejecutables desde febrero de 2025. Las sanciones máximas son: 35 millones de euros o el 7% de la facturación global por prácticas prohibidas, 15 millones o el 3% por incumplimiento de obligaciones de alto riesgo, y 7,5 millones o el 1,5% por suministrar información incorrecta.

¿Qué es la AESIA y qué papel tiene en España?

La Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), con sede en A Coruña, es la autoridad nacional competente para supervisar el cumplimiento del AI Act en España. Gestiona el sandbox regulatorio de IA, coordina con el Comité Europeo de Inteligencia Artificial y supervisa las obligaciones de proveedores y deployers de sistemas de IA en territorio español.

¿Cómo puede un perito informático ayudar con el cumplimiento del AI Act?

El perito informático puede realizar auditorías técnicas de sistemas de IA para verificar el cumplimiento del AI Act: clasificar el nivel de riesgo del sistema, evaluar la documentación técnica obligatoria, analizar sesgos algorítmicos, verificar los mecanismos de supervisión humana, auditar los registros automáticos (logs) y emitir informes periciales para procedimientos sancionadores o judiciales.

¿Necesitas un peritaje forense?

Si necesitas ayuda profesional con análisis forense digital, estoy aquí para ayudarte.

Solicitar Consulta Gratuita
Jonathan Izquierdo

Jonathan Izquierdo · Perito Forense

+15 años experiencia · AWS Certified

WhatsApp