Marco Legal

Instruccion CGPJ 2/2026 (IA en Tribunales)

Instruccion del Consejo General del Poder Judicial que regula el uso de inteligencia artificial en la administracion de justicia espanola, estableciendo requisitos de transparencia, verificacion y responsabilidad para jueces, abogados y peritos que utilicen herramientas de IA.

14 min de lectura
Definicion en 30 segundos

La Instrucción CGPJ 2/2026 es la primera norma española que regula especificamente el uso de inteligencia artificial en la administración de justicia. Publicada en febrero de 2026 por el Consejo General del Poder Judicial, establece tres principios fundamentales: transparencia (declarar cuando se usa IA), verificación (comprobar cada output) y responsabilidad (el profesional responde, no la herramienta). Afecta a jueces, magistrados, letrados de la administración de justicia, abogados, procuradores y peritos judiciales.

Dato claveDetalle
Órgaño emisorConsejo General del Poder Judicial (CGPJ)
NúmeroInstrucción 2/2026
FechaFebrero 2026
ÁmbitoAdministración de justicia española
Sujetos obligadosJueces, LAJ, abogados, procuradores, peritos
PrincipiosTransparencia, verificación, responsabilidad
Marco europeoComplementa AI Act (Reglamento UE 2024/1689)
DetonanteCasos de escritos con citas falsas generadas por IA

El abogado que cito 48 sentencias que no existian

En septiembre de 2024, un juez de un juzgado de primera instancia de Madrid descubrio algo insolito: un escrito de demanda citaba 48 sentencias del Tribunal Supremo y Audiencias Provinciales que, al verificarlas en el CENDOJ, simplemente no existian. Los números de sentencia eran plausibles, las fechas coherentes, los resumenes convincentes. Pero ninguna era real. El abogado habia utilizado ChatGPT para “investigar jurisprudencia” y habia copiado los resultados directamente en su escrito sin verificar una sola referencia.

El juez impuso una multa de 2.000 euros por temeridad procesal (artículo 247 LEC) y remitio el caso al Ilustre Colegio de Abogados de Madrid para procedimiento disciplinario. El caso, que trascendio a los medios, fue uno de los detonantes que impulso al CGPJ a elaborar la Instrucción 2/2026.

No fue un caso aislado. En 2024 y 2025, juzgados de Barcelona, Valencia y Sevilla reportaron incidentes similares: escritos con jurisprudencia “fantasma”, informes periciales con datos estadisticos inexistentes, y demandas con argumentaciones jurídicas generadas integramente por IA que contenian errores conceptuales graves. La inteligencia artificial habia llegado a los tribunales españoles, pero sin reglas. La Instrucción 2/2026 es la respuesta institucional.


Que regula la Instrucción CGPJ 2/2026

Los tres principios fundamentales

La Instrucción se estructura sobre tres principios que aplican a todos los operadores jurídicos:

PrincipioObligaciónConsecuencia de incumplimiento
TransparenciaDeclarar expresamente cuando se ha utilizado IA en la elaboración de escritos, informes o resoluciónesSanción disciplinaria, nulidad procesal potencial
VerificaciónComprobar personalmente cada dato, cita, referencia y conclusión generada por IAResponsabilidad personal del profesional por errores de la IA
ResponsabilidadEl profesional (juez, abogado, perito) responde del resultado final, no la herramienta de IANo cabe alegar “la IA se equivoco” cómo eximente

Ámbito de aplicación

La Instrucción aplica a:

  1. Jueces y magistrados: Uso de IA en borradores de resoluciónes, análisis de jurisprudencia, cálculo de indemnizaciones
  2. Letrados de la administración de justicia: Uso de IA en decretos, diligencias y actos de comunicación
  3. Abogados y procuradores: Uso de IA en escritos procesales, demandas, contestaciones y recursos
  4. Peritos judiciales: Uso de IA en informes periciales, análisis de datos y conclusiones técnicas
  5. Graduados sociales: Uso de IA en procedimientos laborales

Prohibiciones expresas

La Instrucción establece prohibiciones claras:

ProhibicionRazónAlternativa permitida
Delegar la decisión judicial a IAPrincipio de independencia judicial (art. 117 CE)IA cómo herramienta de apoyo, nunca decisoria
Usar IA sin declarar su usoPrincipio de transparenciaDeclaración expresa en el documento
Presentar outputs de IA cómo propiosIntegridad profesionalVerificar, adaptar y asumir responsabilidad
Usar IA para valorar prueba sin supervisionLibre valoración judicial (art. 741 LECrim)IA puede organizar datos, juez valora
Introducir datos de casos reales en IA generativa públicaProtección datos (RGPD) + secreto profesionalSolo IA en entorno cerrado o anonimizado
Prohibicion crítica para peritos: datos reales en IA pública

La Instrucción prohibe expresamente introducir datos de casos judiciales reales (nombres, hechos, evidencias) en herramientas de IA generativa pública cómo ChatGPT, Claude o Gemini. Los modelos de lenguaje pueden retener y reproducir datos de entrenamiento. Si un perito introduce datos de un caso en ChatGPT, esos datos podrian aparecer en respuestas a otros usuarios, violando el secreto profesional y el RGPD. La alternativa es usar IA en entornos cerrados (self-hosted) o trabajar con datos completamente anonimizados.


Impacto en el peritaje informático forense

La Instrucción CGPJ 2/2026 tiene implicaciones directas para los peritos informáticos forenses. Cómo perito, utilizo herramientas de IA en determinadas fases de mi trabajo, y la Instrucción me obliga a ser transparente sobre cómo y cuando las uso.

Donde uso IA en mi trabajo de peritaje (y donde no)

Fase del peritajeUso de IATipo de herramientaVerificación
Extracción forenseNoCellebrite, Oxygen, FTK (herramientas forenses dedicadas)N/A
Análisis de logsParcialScripts de correlación con ML para detección de anomaliasManual: reviso cada anomalia detectada
Investigación técnicaSiDocumentación técnica, manuales, RFCVerifico cada referencia contra fuente primaria
Redaccion del informeNoRedaccion manualN/A (el informe es mio, no de una IA)
Estadisticas y datosParcialBusqueda de datos de fuentes oficialesVerifico contra fuente primaria (INCIBE, CGPJ, etc.)
Análisis de malwareSiSandbox automatizados con ML (Cuckoo, Any.Run)Reviso comportamiento detectado manualmente

Obligaciones del perito bajo la Instrucción

  1. Declarar el uso de IA: Si he utilizado cualquier herramienta de IA en la elaboración del informe pericial, debo declararlo expresamente. Esto incluye: herramientas de análisis automatizado, modelos de ML para detección de anomalias, asistentes de IA para investigación, y cualquier otro software que incorpore componentes de inteligencia artificial.

  2. Especificar que herramienta y para que: No basta con decir “se utilizo IA”. La Instrucción exige indicar la herramienta concreta (nombre, versión, fabricante) y la fase del análisis en que se empleo. Ejemplo: “Se utilizo Cellebrite Physical Analyzer v9.x con modulo de clasificación automática de imagenes basado en ML para la categorizacion inicial de 12.000 fotografias extraidas del dispositivo.”

  3. Documentar la verificación: El perito debe documentar que verifico personalmente los resultados de la IA. Si una herramienta de ML detecto 47 imagenes sospechosas entre 12.000, el perito debe haber revisado manualmente las 47 y confirmar o descartar cada hallazgo.

  4. No presentar outputs de IA cómo conclusiones propias: Las conclusiones del informe pericial deben derivarse del análisis del perito, no de la salida de una IA. Si una herramienta de IA sugiere una conclusión, el perito debe evaluarla, contrastarla con su conocimiento técnico y, solo entonces, incorporarla (con las matizaciones pertinentes) a sus conclusiones.

  5. No introducir datos del caso en IA pública: Los datos del caso (imagenes, conversaciones, logs, identificadores) no pueden introducirse en servicios de IA generativa pública. Si necesito usar IA para analizar datos del caso, debo usar herramientas en entorno local o anonimizar completamente los datos.

El riesgo de los informes periciales “generados por IA”

He visto un fenomeno preocupante en los últimos meses: informes periciales que claramente han sido generados en gran parte por herramientas de IA generativa. Los indicadores son reconocibles:

Indicador de informe generado por IADescripción
Estadisticas genéricas sin fuente verificable”El 78% de los casos de phishing…” sin citar la fuente concreta
Lenguaje excesivamente pulido y uniformeFalta de variacion estilistíca natural entre secciones
Conclusiones desproporcionadas respecto al análisisConclusiones rotundas que no se derivan del análisis realizado
Datos “alucinados”Referencias a estudios, sentencias o normativas que no existen
Falta de detalle específico del casoEl informe habla en términos generales sin referirse a la evidencia concreta
Estructura formulaicaTodas las secciones siguen el mismo patrón (introducción, desarrollo, conclusión) sin adaptarse al caso
Cómo detectar un informe pericial generado por IA

Si sospechas que el informe pericial de la parte contraria ha sido generado por IA, estos son los puntos que debes verificar (y que un contrainforme pericial puede documentar): (1) Verificar cada sentencia, estudio y estadística citada contra fuentes primarias. (2) Comprobar si las conclusiones se derivan del análisis específico del caso o son generalizaciones. (3) Buscar “alucinaciones” (datos falsos pero plausibles). (4) Evaluar si el análisis técnico es reproducible o es mera descripción teórica.


El contexto europeo: AI Act y la Instrucción CGPJ

La Instrucción CGPJ 2/2026 no existe en el vacio. Se enmarca en el Reglamento (UE) 2024/1689 (AI Act), que clasifica los sistemas de IA según su nivel de riesgo:

Nivel de riesgo AI ActDescripciónAplicación a justicia
InaceptableIA prohibidaSocial scoring, manipulación subliminal
Alto riesgoRegulación estrictaSistemas de IA usados en justicia y seguridad
Riesgo limitadoObligación de transparenciaChatbots, generadores de contenido
Riesgo mínimoSin regulación específicaFiltros de spam, correctores ortograficos

El AI Act clasifica expresamente cómo alto riesgo los sistemas de IA utilizados en:

  • Administración de justicia
  • Procesos democraticos
  • Acceso a servicios públicos esenciales
  • Migracion, asilo y control de fronteras

Esto significa que cualquier herramienta de IA que se utilice en un procedimiento judicial en España (incluyendo herramientas de análisis forense con componentes de ML) debe cumplir los requisitos de alto riesgo del AI Act: documentación técnica, evaluación de conformidad, supervision humana y trazabilidad de decisiones.

La Instrucción CGPJ 2/2026 es la transposición práctica de estos principios europeos al ámbito de la administración de justicia española. Mientras el AI Act establece el marco regulatorio general, la Instrucción del CGPJ detalla cómo se aplican esos principios en el día a día de juzgados, tribunales y peritajes.


Mi enfoque: IA cómo herramienta, no cómo muleta

Cómo perito informático forense, mi posición respecto a la IA es pragmática: es una herramienta extraordinariamente útil cuando se usa correctamente, y extraordinariamente peligrosa cuando se usa cómo sustituto del análisis profesional.

Lo que la IA hace bien en el peritaje informático:

  1. Clasificación masiva de datos (categorizar miles de archivos por tipo, contenido, relevancia)
  2. Detección de anomalias en logs (identificar patrones inusuales en millones de registros)
  3. Reconocimiento de patrones en malware (identificar familias de malware por firma comportamental)
  4. Correlación temporal (cruzar eventos de multiples fuentes para construir timelines)
  5. Investigación técnica (documentación de protocolos, herramientas, vulnerabilidades)

Lo que la IA no puede hacer (y el perito si):

  1. Valorar la relevancia jurídica de un hallazgo técnico
  2. Establecer la cadena de custodia con garantias procesales
  3. Adaptar las conclusiones al caso concreto (no a generalidades)
  4. Ratificar el informe en juicio y responder preguntas del tribunal
  5. Aplicar experiencia profesional para distinguir lo relevante de lo accesorio

La Instrucción CGPJ 2/2026 refuerza esta distinción: la IA es una herramienta al servicio del profesional, no un sustituto. El día que un informe pericial pueda ser generado integramente por IA será el día que los peritos dejemos de ser necesarios. Ese día no ha llegado ni llegara en el futuro previsible.


Consecuencias del incumplimiento

InfracciónConsecuenciaBase legal
No declarar uso de IASanción disciplinaria + posible nulidad de actuacionesInstrucción CGPJ 2/2026 + Ley 1/2000 LEC
Presentar datos falsos generados por IAMulta por temeridad (art. 247 LEC) + sanción colegialArt. 247 LEC + Estatutos colegiales
Introducir datos del caso en IA públicaSanción AEPD por violacion RGPD + sanción disciplinariaRGPD art. 83 + Instrucción CGPJ
Informe pericial integramente generado por IAImpugnación + tacha del perito + sanción colegialArt. 343 LEC + Instrucción CGPJ
Juez que delega decisión a IANulidad radical de la resoluciónArt. 117 CE (independencia judicial)

Preguntas relacionadas

Puedo usar ChatGPT para ayudarme a redactar un informe pericial?

Puedes usar herramientas de IA cómo asistente de investigación (buscar documentación técnica, verificar sintaxis de protocolos) pero no para redactar las secciones sustantivas del informe (metodología, hallazgos, conclusiones). La Instrucción CGPJ 2/2026 exige que declares el uso de IA, verifiques cada dato y asumas responsabilidad total del contenido. Si un tribunal descubre que tu informe es un output de ChatGPT con minimas modificaciones, tu credibilidad cómo perito quedara destruida y el informe será impugnado.

La Instrucción CGPJ 2/2026 aplica también a peritos de parte (no judiciales)?

Si. La Instrucción aplica a todos los profesionales que intervienen en la administración de justicia, incluyendo peritos de parte designados por las partes (no solo a peritos judiciales designados por el tribunal). Si aportas un informe pericial a un procedimiento judicial, la Instrucción te vincula independientemente de quien te haya designado.

Que herramientas de IA estan permitidas y cuales prohibidas en el peritaje forense?

La Instrucción no prohibe ninguna herramienta específica. Lo que regula es el uso: cualquier herramienta de IA puede usarse si se cumplen los tres principios (transparencia, verificación, responsabilidad). Herramientas forenses que incorporan ML (Cellebrite con clasificación de imagenes, Magnet AXIOM con categorizacion automática) estan permitidas si se declara su uso y se verifican los resultados. Lo que esta restringido es introducir datos de casos reales en herramientas de IA generativa pública (ChatGPT, Claude, Gemini) por riesgo de fuga de datos.


Conceptos relacionados


Referencias y fuentes

  1. CGPJ. (2026). “Instrucción 2/2026 del Consejo General del Poder Judicial sobre el uso de inteligencia artificial en la Administración de Justicia”. poderjudicial.es
  2. Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo (AI Act). eur-lex.europa.eu
  3. Comisión Europea. (2025). “Ethical Guidelines on the Use of AI in Justice”. ec.europa.eu
  4. CEPEJ (Comisión Europea para la Eficacia de la Justicia). (2018). “Carta Etica Europea sobre el Uso de la Inteligencia Artificial en los Sistemas Judiciales”. coe.int
  5. Ley 1/2000, de 7 de enero, de Enjuiciamiento Civil. Arts. 247 (temeridad), 335-352 (prueba pericial), 343 (tacha de peritos). boe.es
  6. Constitución Española. Art. 117 (independencia judicial). boe.es
  7. RGPD (Reglamento General de Protección de Datos). Arts. 5 (principios), 32 (seguridad), 83 (sanciones). eur-lex.europa.eu
  8. Barrio Andres, M.. (2025). “Inteligencia Artificial y Administración de Justicia en España”. Revista del Poder Judicial, num. 109
  9. INCIBE. (2025). “Guia de uso seguro de IA generativa para profesionales”. incibe.es
  10. Fernandez de Bujan, F.. (2025). “La regulación del uso de IA en los tribunales españoles: análisis de la Instrucción CGPJ 2/2026”. Diario La Ley, num. 10456

Aviso legal: Este artículo analiza la Instrucción CGPJ 2/2026 y su impacto en la práctica del peritaje informático forense con finalidad informativa y educativa. No constituye asesoramiento jurídico. La interpretacion y aplicación concreta de la Instrucción corresponde a los órgaños judiciales competentes.

Sobre el autor: Jonathan Izquierdo, perito informático forense, ex-CTO y 5x AWS Certified, con metodología de trabajo basada en ISO 27037. Utilizo herramientas de IA de forma controlada y transparente en mi práctica forense, cumpliendo los requisitos de la Instrucción CGPJ 2/2026 y el AI Act.

Última actualización: 16 de marzo de 2026 Categoria: Marco Legal (LEG-036) Nivel técnico: Intermedio

Preguntas Frecuentes

Que regula la Instruccion CGPJ 2/2026?

Regula el uso de herramientas de inteligencia artificial por jueces, abogados y peritos en la administracion de justicia espanola, estableciendo obligaciones de transparencia (declarar cuando se usa IA), verificacion (comprobar outputs) y responsabilidad (el profesional responde del resultado, no la IA).

Un perito puede usar ChatGPT para elaborar un informe pericial?

Si, pero con condiciones estrictas: debe declarar que herramientas de IA ha utilizado, verificar personalmente cada dato y conclusion, y asumir responsabilidad total del informe. Un informe pericial que simplemente copia outputs de IA sin verificacion puede ser impugnado y el perito sancionado.

Que le paso al abogado que presento citas falsas generadas por IA?

En 2024, un abogado en Madrid presento un escrito con 48 sentencias citadas que no existian, generadas por ChatGPT. El juez le impuso una multa de 2.000 euros por temeridad procesal y refirio el caso al colegio de abogados para procedimiento disciplinario. Este caso fue uno de los detonantes de la Instruccion CGPJ 2/2026.

¿Necesitas un peritaje forense?

Si necesitas ayuda profesional con análisis forense digital, estoy aquí para ayudarte.

Solicitar Consulta Gratuita
Jonathan Izquierdo

Jonathan Izquierdo · Perito Forense

+15 años experiencia · AWS Certified

WhatsApp