Instruccion CGPJ 2/2026 (IA en Tribunales)
Instruccion del Consejo General del Poder Judicial que regula el uso de inteligencia artificial en la administracion de justicia espanola, estableciendo requisitos de transparencia, verificacion y responsabilidad para jueces, abogados y peritos que utilicen herramientas de IA.
Definicion en 30 segundos
La Instrucción CGPJ 2/2026 es la primera norma española que regula especificamente el uso de inteligencia artificial en la administración de justicia. Publicada en febrero de 2026 por el Consejo General del Poder Judicial, establece tres principios fundamentales: transparencia (declarar cuando se usa IA), verificación (comprobar cada output) y responsabilidad (el profesional responde, no la herramienta). Afecta a jueces, magistrados, letrados de la administración de justicia, abogados, procuradores y peritos judiciales.
| Dato clave | Detalle |
|---|---|
| Órgaño emisor | Consejo General del Poder Judicial (CGPJ) |
| Número | Instrucción 2/2026 |
| Fecha | Febrero 2026 |
| Ámbito | Administración de justicia española |
| Sujetos obligados | Jueces, LAJ, abogados, procuradores, peritos |
| Principios | Transparencia, verificación, responsabilidad |
| Marco europeo | Complementa AI Act (Reglamento UE 2024/1689) |
| Detonante | Casos de escritos con citas falsas generadas por IA |
El abogado que cito 48 sentencias que no existian
En septiembre de 2024, un juez de un juzgado de primera instancia de Madrid descubrio algo insolito: un escrito de demanda citaba 48 sentencias del Tribunal Supremo y Audiencias Provinciales que, al verificarlas en el CENDOJ, simplemente no existian. Los números de sentencia eran plausibles, las fechas coherentes, los resumenes convincentes. Pero ninguna era real. El abogado habia utilizado ChatGPT para “investigar jurisprudencia” y habia copiado los resultados directamente en su escrito sin verificar una sola referencia.
El juez impuso una multa de 2.000 euros por temeridad procesal (artículo 247 LEC) y remitio el caso al Ilustre Colegio de Abogados de Madrid para procedimiento disciplinario. El caso, que trascendio a los medios, fue uno de los detonantes que impulso al CGPJ a elaborar la Instrucción 2/2026.
No fue un caso aislado. En 2024 y 2025, juzgados de Barcelona, Valencia y Sevilla reportaron incidentes similares: escritos con jurisprudencia “fantasma”, informes periciales con datos estadisticos inexistentes, y demandas con argumentaciones jurídicas generadas integramente por IA que contenian errores conceptuales graves. La inteligencia artificial habia llegado a los tribunales españoles, pero sin reglas. La Instrucción 2/2026 es la respuesta institucional.
Que regula la Instrucción CGPJ 2/2026
Los tres principios fundamentales
La Instrucción se estructura sobre tres principios que aplican a todos los operadores jurídicos:
| Principio | Obligación | Consecuencia de incumplimiento |
|---|---|---|
| Transparencia | Declarar expresamente cuando se ha utilizado IA en la elaboración de escritos, informes o resoluciónes | Sanción disciplinaria, nulidad procesal potencial |
| Verificación | Comprobar personalmente cada dato, cita, referencia y conclusión generada por IA | Responsabilidad personal del profesional por errores de la IA |
| Responsabilidad | El profesional (juez, abogado, perito) responde del resultado final, no la herramienta de IA | No cabe alegar “la IA se equivoco” cómo eximente |
Ámbito de aplicación
La Instrucción aplica a:
- Jueces y magistrados: Uso de IA en borradores de resoluciónes, análisis de jurisprudencia, cálculo de indemnizaciones
- Letrados de la administración de justicia: Uso de IA en decretos, diligencias y actos de comunicación
- Abogados y procuradores: Uso de IA en escritos procesales, demandas, contestaciones y recursos
- Peritos judiciales: Uso de IA en informes periciales, análisis de datos y conclusiones técnicas
- Graduados sociales: Uso de IA en procedimientos laborales
Prohibiciones expresas
La Instrucción establece prohibiciones claras:
| Prohibicion | Razón | Alternativa permitida |
|---|---|---|
| Delegar la decisión judicial a IA | Principio de independencia judicial (art. 117 CE) | IA cómo herramienta de apoyo, nunca decisoria |
| Usar IA sin declarar su uso | Principio de transparencia | Declaración expresa en el documento |
| Presentar outputs de IA cómo propios | Integridad profesional | Verificar, adaptar y asumir responsabilidad |
| Usar IA para valorar prueba sin supervision | Libre valoración judicial (art. 741 LECrim) | IA puede organizar datos, juez valora |
| Introducir datos de casos reales en IA generativa pública | Protección datos (RGPD) + secreto profesional | Solo IA en entorno cerrado o anonimizado |
Prohibicion crítica para peritos: datos reales en IA pública
La Instrucción prohibe expresamente introducir datos de casos judiciales reales (nombres, hechos, evidencias) en herramientas de IA generativa pública cómo ChatGPT, Claude o Gemini. Los modelos de lenguaje pueden retener y reproducir datos de entrenamiento. Si un perito introduce datos de un caso en ChatGPT, esos datos podrian aparecer en respuestas a otros usuarios, violando el secreto profesional y el RGPD. La alternativa es usar IA en entornos cerrados (self-hosted) o trabajar con datos completamente anonimizados.
Impacto en el peritaje informático forense
La Instrucción CGPJ 2/2026 tiene implicaciones directas para los peritos informáticos forenses. Cómo perito, utilizo herramientas de IA en determinadas fases de mi trabajo, y la Instrucción me obliga a ser transparente sobre cómo y cuando las uso.
Donde uso IA en mi trabajo de peritaje (y donde no)
| Fase del peritaje | Uso de IA | Tipo de herramienta | Verificación |
|---|---|---|---|
| Extracción forense | No | Cellebrite, Oxygen, FTK (herramientas forenses dedicadas) | N/A |
| Análisis de logs | Parcial | Scripts de correlación con ML para detección de anomalias | Manual: reviso cada anomalia detectada |
| Investigación técnica | Si | Documentación técnica, manuales, RFC | Verifico cada referencia contra fuente primaria |
| Redaccion del informe | No | Redaccion manual | N/A (el informe es mio, no de una IA) |
| Estadisticas y datos | Parcial | Busqueda de datos de fuentes oficiales | Verifico contra fuente primaria (INCIBE, CGPJ, etc.) |
| Análisis de malware | Si | Sandbox automatizados con ML (Cuckoo, Any.Run) | Reviso comportamiento detectado manualmente |
Obligaciones del perito bajo la Instrucción
Declarar el uso de IA: Si he utilizado cualquier herramienta de IA en la elaboración del informe pericial, debo declararlo expresamente. Esto incluye: herramientas de análisis automatizado, modelos de ML para detección de anomalias, asistentes de IA para investigación, y cualquier otro software que incorpore componentes de inteligencia artificial.
Especificar que herramienta y para que: No basta con decir “se utilizo IA”. La Instrucción exige indicar la herramienta concreta (nombre, versión, fabricante) y la fase del análisis en que se empleo. Ejemplo: “Se utilizo Cellebrite Physical Analyzer v9.x con modulo de clasificación automática de imagenes basado en ML para la categorizacion inicial de 12.000 fotografias extraidas del dispositivo.”
Documentar la verificación: El perito debe documentar que verifico personalmente los resultados de la IA. Si una herramienta de ML detecto 47 imagenes sospechosas entre 12.000, el perito debe haber revisado manualmente las 47 y confirmar o descartar cada hallazgo.
No presentar outputs de IA cómo conclusiones propias: Las conclusiones del informe pericial deben derivarse del análisis del perito, no de la salida de una IA. Si una herramienta de IA sugiere una conclusión, el perito debe evaluarla, contrastarla con su conocimiento técnico y, solo entonces, incorporarla (con las matizaciones pertinentes) a sus conclusiones.
No introducir datos del caso en IA pública: Los datos del caso (imagenes, conversaciones, logs, identificadores) no pueden introducirse en servicios de IA generativa pública. Si necesito usar IA para analizar datos del caso, debo usar herramientas en entorno local o anonimizar completamente los datos.
El riesgo de los informes periciales “generados por IA”
He visto un fenomeno preocupante en los últimos meses: informes periciales que claramente han sido generados en gran parte por herramientas de IA generativa. Los indicadores son reconocibles:
| Indicador de informe generado por IA | Descripción |
|---|---|
| Estadisticas genéricas sin fuente verificable | ”El 78% de los casos de phishing…” sin citar la fuente concreta |
| Lenguaje excesivamente pulido y uniforme | Falta de variacion estilistíca natural entre secciones |
| Conclusiones desproporcionadas respecto al análisis | Conclusiones rotundas que no se derivan del análisis realizado |
| Datos “alucinados” | Referencias a estudios, sentencias o normativas que no existen |
| Falta de detalle específico del caso | El informe habla en términos generales sin referirse a la evidencia concreta |
| Estructura formulaica | Todas las secciones siguen el mismo patrón (introducción, desarrollo, conclusión) sin adaptarse al caso |
Cómo detectar un informe pericial generado por IA
Si sospechas que el informe pericial de la parte contraria ha sido generado por IA, estos son los puntos que debes verificar (y que un contrainforme pericial puede documentar): (1) Verificar cada sentencia, estudio y estadística citada contra fuentes primarias. (2) Comprobar si las conclusiones se derivan del análisis específico del caso o son generalizaciones. (3) Buscar “alucinaciones” (datos falsos pero plausibles). (4) Evaluar si el análisis técnico es reproducible o es mera descripción teórica.
El contexto europeo: AI Act y la Instrucción CGPJ
La Instrucción CGPJ 2/2026 no existe en el vacio. Se enmarca en el Reglamento (UE) 2024/1689 (AI Act), que clasifica los sistemas de IA según su nivel de riesgo:
| Nivel de riesgo AI Act | Descripción | Aplicación a justicia |
|---|---|---|
| Inaceptable | IA prohibida | Social scoring, manipulación subliminal |
| Alto riesgo | Regulación estricta | Sistemas de IA usados en justicia y seguridad |
| Riesgo limitado | Obligación de transparencia | Chatbots, generadores de contenido |
| Riesgo mínimo | Sin regulación específica | Filtros de spam, correctores ortograficos |
El AI Act clasifica expresamente cómo alto riesgo los sistemas de IA utilizados en:
- Administración de justicia
- Procesos democraticos
- Acceso a servicios públicos esenciales
- Migracion, asilo y control de fronteras
Esto significa que cualquier herramienta de IA que se utilice en un procedimiento judicial en España (incluyendo herramientas de análisis forense con componentes de ML) debe cumplir los requisitos de alto riesgo del AI Act: documentación técnica, evaluación de conformidad, supervision humana y trazabilidad de decisiones.
La Instrucción CGPJ 2/2026 es la transposición práctica de estos principios europeos al ámbito de la administración de justicia española. Mientras el AI Act establece el marco regulatorio general, la Instrucción del CGPJ detalla cómo se aplican esos principios en el día a día de juzgados, tribunales y peritajes.
Mi enfoque: IA cómo herramienta, no cómo muleta
Cómo perito informático forense, mi posición respecto a la IA es pragmática: es una herramienta extraordinariamente útil cuando se usa correctamente, y extraordinariamente peligrosa cuando se usa cómo sustituto del análisis profesional.
Lo que la IA hace bien en el peritaje informático:
- Clasificación masiva de datos (categorizar miles de archivos por tipo, contenido, relevancia)
- Detección de anomalias en logs (identificar patrones inusuales en millones de registros)
- Reconocimiento de patrones en malware (identificar familias de malware por firma comportamental)
- Correlación temporal (cruzar eventos de multiples fuentes para construir timelines)
- Investigación técnica (documentación de protocolos, herramientas, vulnerabilidades)
Lo que la IA no puede hacer (y el perito si):
- Valorar la relevancia jurídica de un hallazgo técnico
- Establecer la cadena de custodia con garantias procesales
- Adaptar las conclusiones al caso concreto (no a generalidades)
- Ratificar el informe en juicio y responder preguntas del tribunal
- Aplicar experiencia profesional para distinguir lo relevante de lo accesorio
La Instrucción CGPJ 2/2026 refuerza esta distinción: la IA es una herramienta al servicio del profesional, no un sustituto. El día que un informe pericial pueda ser generado integramente por IA será el día que los peritos dejemos de ser necesarios. Ese día no ha llegado ni llegara en el futuro previsible.
Consecuencias del incumplimiento
| Infracción | Consecuencia | Base legal |
|---|---|---|
| No declarar uso de IA | Sanción disciplinaria + posible nulidad de actuaciones | Instrucción CGPJ 2/2026 + Ley 1/2000 LEC |
| Presentar datos falsos generados por IA | Multa por temeridad (art. 247 LEC) + sanción colegial | Art. 247 LEC + Estatutos colegiales |
| Introducir datos del caso en IA pública | Sanción AEPD por violacion RGPD + sanción disciplinaria | RGPD art. 83 + Instrucción CGPJ |
| Informe pericial integramente generado por IA | Impugnación + tacha del perito + sanción colegial | Art. 343 LEC + Instrucción CGPJ |
| Juez que delega decisión a IA | Nulidad radical de la resolución | Art. 117 CE (independencia judicial) |
Preguntas relacionadas
Puedo usar ChatGPT para ayudarme a redactar un informe pericial?
Puedes usar herramientas de IA cómo asistente de investigación (buscar documentación técnica, verificar sintaxis de protocolos) pero no para redactar las secciones sustantivas del informe (metodología, hallazgos, conclusiones). La Instrucción CGPJ 2/2026 exige que declares el uso de IA, verifiques cada dato y asumas responsabilidad total del contenido. Si un tribunal descubre que tu informe es un output de ChatGPT con minimas modificaciones, tu credibilidad cómo perito quedara destruida y el informe será impugnado.
La Instrucción CGPJ 2/2026 aplica también a peritos de parte (no judiciales)?
Si. La Instrucción aplica a todos los profesionales que intervienen en la administración de justicia, incluyendo peritos de parte designados por las partes (no solo a peritos judiciales designados por el tribunal). Si aportas un informe pericial a un procedimiento judicial, la Instrucción te vincula independientemente de quien te haya designado.
Que herramientas de IA estan permitidas y cuales prohibidas en el peritaje forense?
La Instrucción no prohibe ninguna herramienta específica. Lo que regula es el uso: cualquier herramienta de IA puede usarse si se cumplen los tres principios (transparencia, verificación, responsabilidad). Herramientas forenses que incorporan ML (Cellebrite con clasificación de imagenes, Magnet AXIOM con categorizacion automática) estan permitidas si se declara su uso y se verifican los resultados. Lo que esta restringido es introducir datos de casos reales en herramientas de IA generativa pública (ChatGPT, Claude, Gemini) por riesgo de fuga de datos.
Conceptos relacionados
- Informe Pericial - Estructura y requisitos del dictamen pericial informático
- Ratificación Pericial - Defensa del informe en juicio oral
- Contrainforme Pericial - Refutacion técnica de informes deficientes
- Evidencia Digital - Marco general de la prueba electrónica
- Impugnación Pericial - Mecanismos para cuestionar un informe pericial
Referencias y fuentes
- CGPJ. (2026). “Instrucción 2/2026 del Consejo General del Poder Judicial sobre el uso de inteligencia artificial en la Administración de Justicia”. poderjudicial.es
- Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo (AI Act). eur-lex.europa.eu
- Comisión Europea. (2025). “Ethical Guidelines on the Use of AI in Justice”. ec.europa.eu
- CEPEJ (Comisión Europea para la Eficacia de la Justicia). (2018). “Carta Etica Europea sobre el Uso de la Inteligencia Artificial en los Sistemas Judiciales”. coe.int
- Ley 1/2000, de 7 de enero, de Enjuiciamiento Civil. Arts. 247 (temeridad), 335-352 (prueba pericial), 343 (tacha de peritos). boe.es
- Constitución Española. Art. 117 (independencia judicial). boe.es
- RGPD (Reglamento General de Protección de Datos). Arts. 5 (principios), 32 (seguridad), 83 (sanciones). eur-lex.europa.eu
- Barrio Andres, M.. (2025). “Inteligencia Artificial y Administración de Justicia en España”. Revista del Poder Judicial, num. 109
- INCIBE. (2025). “Guia de uso seguro de IA generativa para profesionales”. incibe.es
- Fernandez de Bujan, F.. (2025). “La regulación del uso de IA en los tribunales españoles: análisis de la Instrucción CGPJ 2/2026”. Diario La Ley, num. 10456
Aviso legal: Este artículo analiza la Instrucción CGPJ 2/2026 y su impacto en la práctica del peritaje informático forense con finalidad informativa y educativa. No constituye asesoramiento jurídico. La interpretacion y aplicación concreta de la Instrucción corresponde a los órgaños judiciales competentes.
Sobre el autor: Jonathan Izquierdo, perito informático forense, ex-CTO y 5x AWS Certified, con metodología de trabajo basada en ISO 27037. Utilizo herramientas de IA de forma controlada y transparente en mi práctica forense, cumpliendo los requisitos de la Instrucción CGPJ 2/2026 y el AI Act.
Última actualización: 16 de marzo de 2026 Categoria: Marco Legal (LEG-036) Nivel técnico: Intermedio
Preguntas Frecuentes
Que regula la Instruccion CGPJ 2/2026?
Regula el uso de herramientas de inteligencia artificial por jueces, abogados y peritos en la administracion de justicia espanola, estableciendo obligaciones de transparencia (declarar cuando se usa IA), verificacion (comprobar outputs) y responsabilidad (el profesional responde del resultado, no la IA).
Un perito puede usar ChatGPT para elaborar un informe pericial?
Si, pero con condiciones estrictas: debe declarar que herramientas de IA ha utilizado, verificar personalmente cada dato y conclusion, y asumir responsabilidad total del informe. Un informe pericial que simplemente copia outputs de IA sin verificacion puede ser impugnado y el perito sancionado.
Que le paso al abogado que presento citas falsas generadas por IA?
En 2024, un abogado en Madrid presento un escrito con 48 sentencias citadas que no existian, generadas por ChatGPT. El juez le impuso una multa de 2.000 euros por temeridad procesal y refirio el caso al colegio de abogados para procedimiento disciplinario. Este caso fue uno de los detonantes de la Instruccion CGPJ 2/2026.
Términos Relacionados
Informe Pericial
Documento técnico-legal elaborado por un perito informático que presenta los resultados de un análisis forense digital con validez probatoria en procedimientos judiciales.
Ratificación Pericial
Acto procesal en el que el perito comparece ante el tribunal para confirmar, explicar y defender su informe pericial, respondiendo preguntas del juez y las partes.
Evidencia Digital
Cualquier información almacenada o transmitida en formato digital que puede ser utilizada como prueba en un procedimiento judicial o investigación.
¿Necesitas un peritaje forense?
Si necesitas ayuda profesional con análisis forense digital, estoy aquí para ayudarte.
Solicitar Consulta Gratuita
