· Jonathan Izquierdo · Jurisprudencia  ·

15 min de lectura

Instrucción 2/2026 del CGPJ: la IA llega a los tribunales españoles (y un abogado multado por 48 sentencias falsas)

El CGPJ regula por primera vez el uso de inteligencia artificial en la justicia española. Días después, el TSJC multa a un abogado con 420 euros por citar 48 sentencias inexistentes generadas por IA. Análisis forense de ambos hitos.

El CGPJ regula por primera vez el uso de inteligencia artificial en la justicia española. Días después, el TSJC multa a un abogado con 420 euros por citar 48 sentencias inexistentes generadas por IA. Análisis forense de ambos hitos.

420 euros de multa por presentar un recurso con 48 sentencias que no existen. El Tribunal Superior de Justicia de Canarias acaba de sancionar a un abogado de Tenerife que utilizó una herramienta de inteligencia artificial generalista para redactar un escrito de apelación ante la Sala de lo Penal. El problema: las 48 citas de jurisprudencia que incluía —supuestas sentencias del Tribunal Supremo e incluso un informe del Consejo General del Poder Judicial— eran completamente inventadas. Ninguna existía en la base de datos del CENDOJ, el Centro de Documentación Judicial de acceso gratuito y universal (Infobae, 13 Feb 2026).

El caso llega apenas dos semanas después de que el Pleno del CGPJ aprobara la Instrucción 2/2026, la primera norma española que regula el uso de sistemas de inteligencia artificial en la actividad jurisdiccional, publicada en el BOE el 30 de enero de 2026 (BOE-A-2026-2205). La coincidencia temporal no es casual: España está entrando en una fase donde la IA será herramienta cotidiana en juzgados y despachos, y los riesgos de no verificar lo que produce son ya una realidad documentada.

Como perito informático forense, llevo meses advirtiendo sobre este escenario. La IA generativa produce textos convincentes, pero también fabrica datos con total aplomo. En el ámbito judicial, donde cada cita puede inclinar una sentencia, la verificación forense de contenidos generados por IA ya no es opcional: es una necesidad procesal.

TL;DR - Resumen ejecutivo

En 60 segundos:

  • Instrucción 2/2026 CGPJ: primera regulación española del uso de IA por jueces y magistrados (14 artículos, BOE 30 enero 2026)
  • Principio vertebral: control humano efectivo obligatorio, prohibición de automatizar decisiones judiciales
  • Solo sistemas autorizados: los jueces solo pueden usar IA proporcionada por las Administraciones de Justicia o el CGPJ
  • Caso TSJC Canarias: abogado multado con 420 euros por 48 citas de sentencias falsas generadas por IA generalista
  • Precedente internacional: caso Mata v. Avianca (Nueva York, 2023) — abogados multados con 5.000 dólares por sentencias inventadas por ChatGPT
  • Base de datos global: 116 casos documentados en 12 países de abogados citando jurisprudencia falsa generada por IA
  • Implicación forense: la verificación pericial de contenidos generados por IA es ahora una necesidad procesal

Consulta pericial gratuita →

Qué es la Instrucción 2/2026 del CGPJ

El 28 de enero de 2026, el Pleno del Consejo General del Poder Judicial aprobó la Instrucción 2/2026, publicada en el BOE dos días después. Se trata de la primera norma española que regula específicamente el uso de sistemas de inteligencia artificial en la actividad jurisdiccional, y comprende 14 artículos que establecen principios, obligaciones y prohibiciones para jueces y magistrados (CGPJ, enero 2026).

Los 9 principios fundamentales (artículo 4)

La Instrucción establece nueve principios que deben regir todo uso de IA en la función judicial:

PrincipioSignificado práctico
Control humano efectivoLa IA nunca puede operar de forma autónoma en decisiones judiciales
No sustitución del juezLa IA es herramienta auxiliar, nunca decisor
Responsabilidad judicialEl juez responde personalmente del contenido de sus resoluciones, use o no IA
Independencia judicialNingún sistema de IA puede condicionar la discrecionalidad del juez
Derechos fundamentalesLa IA no puede vulnerar derechos de las partes
Confidencialidad y seguridadLos datos judiciales no pueden introducirse en sistemas no autorizados
Prevención de sesgosLos sistemas de IA deben auditarse para detectar sesgos algorítmicos
ProporcionalidadEl uso de IA debe ser limitado y proporcional al fin perseguido
FormaciónLos jueces deben recibir capacitación específica sobre IA

Qué pueden hacer los jueces con IA (artículo 6)

La Instrucción permite cuatro usos concretos:

  1. Búsqueda y localización de jurisprudencia: investigar sentencias, doctrina y normativa
  2. Análisis documental: organizar y estructurar información de expedientes
  3. Borradores internos: generar resúmenes y borradores de trabajo (nunca como resolución final)
  4. Tareas administrativas: apoyo en gestión y funciones auxiliares

Qué tienen prohibido (artículo 8)

Las prohibiciones son igual de claras:

  • Automatizar, sustituir o delegar decisiones judiciales
  • Condicionar la independencia o discrecionalidad del juez (directa o indirectamente)
  • Asumir de forma acrítica el contenido generado por IA
  • Tratar datos personales especialmente protegidos sin autorización
  • Elaborar perfiles, predicciones de comportamiento o evaluaciones de riesgo
  • Cualquier uso contrario a los principios de la Instrucción

Solo sistemas autorizados (artículos 5 y 9)

Este es el punto más restrictivo: los jueces y magistrados solo pueden utilizar sistemas de IA facilitados por las Administraciones competentes en materia de justicia o por el propio CGPJ. Los sistemas no autorizados quedan prohibidos salvo para “preparación o estudio” con información de acceso público. En ningún caso se pueden introducir datos judiciales en sistemas no oficiales (BOE-A-2026-2205).

Cita clave de la Instrucción 2/2026

“La utilización de sistemas de IA en el ejercicio de la actividad jurisdiccional estará siempre sometida a un control humano real.” El artículo 7 añade que cuando un juez utilice un borrador generado por IA, debe realizar una “revisión, validación personal y completa” del contenido antes de que cualquier resolución sea definitiva.

El caso del abogado de Tenerife: 48 sentencias que nunca existieron

El 13 de febrero de 2026, la Sala de lo Penal del TSJC hizo pública su resolución sancionadora contra un letrado que había presentado un recurso de apelación ante la Audiencia Provincial de Santa Cruz de Tenerife. El escrito citaba 48 sentencias del Tribunal Supremo y un supuesto informe del CGPJ. Ninguno existía (El Español, 13 Feb 2026).

Cómo se descubrió el fraude

El servicio de documentación del TSJC verificó las 48 citas contra los registros oficiales del CENDOJ (Centro de Documentación Judicial), la base de datos de jurisprudencia de acceso libre y universal. Ninguno de los números de sentencia, fechas ni identificadores correspondía a resoluciones reales. Las 48 citas eran alucinaciones de la herramienta de IA (elDiario.es, 13 Feb 2026).

Qué dijo el tribunal

La Sala de lo Penal del TSJC fue contundente en su razonamiento:

  • El abogado utilizó una herramienta de IA generalista, no una específica para el sector jurídico
  • No verificó ni una sola cita: no contrastó números de sentencia, fechas ni identificadores
  • No consultó el CENDOJ, que es gratuito y de acceso universal
  • Generó una “dependencia ciega del sistema” al tratar la IA como decisor en vez de como asistente
  • La supervisión humana es “el eje vertebral de toda actividad profesional que emplee sistemas de IA en el ámbito jurídico”

La multa ejemplarizante: 420 euros

La cuantía de la multa fue calculada deliberadamente: 420 euros equivalen a la mitad del coste anual aproximado de una suscripción a una herramienta de IA jurídica especializada de las disponibles en el mercado. El mensaje del tribunal es claro: si vas a usar IA para ejercer la abogacía, invierte en una herramienta profesional y verificada, no en un chatbot generalista (Infobae, 13 Feb 2026).

Además de la multa, la Sala acordó trasladar la decisión al Colegio de Abogados correspondiente para depurar posibles responsabilidades disciplinarias.

Circunstancias atenuantes

El abogado, una vez descubierto el fraude, admitió los hechos expresamente, reconoció su responsabilidad y manifestó lo que los magistrados valoraron como un arrepentimiento “aparentemente sincero”. Esto redujo la sanción de lo que podría haber sido significativamente mayor.

Un problema global: 116 casos en 12 países

El caso de Tenerife no es un incidente aislado. Es la versión española de un fenómeno documentado a escala internacional.

Precedentes internacionales

CasoPaísAñoSanciónDetalle
Mata v. AviancaEE.UU. (Nueva York)20235.000 USDAbogado citó 6 sentencias inventadas por ChatGPT en demanda contra aerolínea (Xataka, 2023)
Base de datos LexLatin12 países2023-2026Varias116 casos documentados de abogados con jurisprudencia falsa generada por IA (LexLatin, 2026)
Juez Nueva JerseyEE.UU.2025Sentencia retiradaUn juez tuvo que retirar su propia sentencia por errores atribuibles al uso de IA (elAbogado, 2025)
Abogado TSJCEspaña (Tenerife)2026420 euros48 citas falsas en recurso ante la Audiencia Provincial

La tendencia es inequívoca: la IA generativa produce alucinaciones jurídicas con la misma confianza con la que produce texto correcto, y los profesionales del derecho que no verifican sus resultados se exponen a sanciones disciplinarias, multas y daño reputacional.

Implicaciones para la prueba digital: por qué el perito forense es ahora más necesario

La convergencia de la Instrucción 2/2026 y el caso del TSJC plantea un nuevo escenario para la prueba digital en España. Si la IA puede fabricar sentencias inexistentes con apariencia de autenticidad, también puede generar:

  • Correos electrónicos falsos que parecen legítimos hasta en los metadatos
  • Conversaciones de WhatsApp o Telegram fabricadas con coherencia temática y temporal
  • Documentos contractuales con firmas digitales simuladas
  • Deepfakes de audio y vídeo que suplantan la identidad de una parte
  • Informes técnicos o periciales con datos inventados pero formalmente correctos
  • Capturas de pantalla manipuladas con metadatos coherentes

El problema de la verificabilidad

Hasta ahora, la autenticidad de un documento digital se verificaba principalmente por su cadena de custodia, metadatos y hash. Pero la IA generativa añade una nueva capa de complejidad: puede producir contenido que supera los controles formales pero que es sustancialmente falso. Un correo electrónico puede tener cabeceras técnicamente correctas y, sin embargo, haber sido generado íntegramente por una IA.

Riesgo emergente para abogados y tribunales

Si un abogado puede presentar 48 sentencias falsas sin que nadie lo detecte hasta la verificación documental, un litigante puede presentar pruebas digitales fabricadas por IA que pasen los controles formales. La verificación pericial forense ya no es un complemento: es un requisito de fiabilidad procesal.

Cómo verificar si un contenido jurídico o probatorio ha sido generado por IA

Como perito informático forense, aplico una metodología de verificación en varias capas para detectar contenidos generados o manipulados por IA:

La regulación de la IA en el ámbito judicial español se articula a través de tres marcos normativos que convergen en 2026:

NormativaAlcanceEstadoRelevancia para la prueba digital
Instrucción 2/2026 CGPJUso de IA por jueces y magistrados españolesEn vigor (30 enero 2026)Prohíbe asumir contenido IA de forma acrítica; exige control humano y verificación
Reglamento Europeo de IA (AI Act)Todos los sistemas de IA en la UEParcialmente en vigor; reglas de alto riesgo desde agosto 2026Clasifica la evaluación de fiabilidad de pruebas como uso de alto riesgo; exige transparencia y supervisión humana (AI Act EU)
RGPDProtección de datos personales en la UEEn vigorProhíbe decisiones automatizadas sin supervisión humana (art. 22); exige minimización y proporcionalidad en el tratamiento de datos judiciales
LOPJ (art. 536 bis y ss.)Ley Orgánica del Poder JudicialEn vigorBase legal para la responsabilidad disciplinaria por uso indebido de IA en la función jurisdiccional
LECrim (arts. 382-384)Prueba electrónica en el proceso penalEn vigorRégimen de admisibilidad de la prueba digital; la autenticidad puede impugnarse y requiere verificación pericial

El AI Act y la prueba digital

El Reglamento Europeo de Inteligencia Artificial clasifica como sistemas de alto riesgo aquellos utilizados por autoridades judiciales para “investigar o interpretar hechos y la ley, y aplicar la ley a un conjunto concreto de hechos”. Esto incluye la evaluación de la fiabilidad de las pruebas. Las obligaciones de alto riesgo —registro, supervisión humana, transparencia, evaluación de conformidad— entrarán en vigor en agosto de 2026 (Parlamento Europeo, 2024).

Para los peritos informáticos forenses, esto significa que nuestros informes sobre contenido generado por IA tendrán un respaldo normativo europeo específico: la ley exige que se verifique la fiabilidad de las pruebas cuando interviene inteligencia artificial.

Qué debe hacer un abogado (y qué puede hacer un perito) ante la IA en los tribunales

La combinación de la Instrucción 2/2026 y el caso del TSJC establece un antes y un después. Estas son las recomendaciones prácticas:

Para abogados

  1. Nunca citar jurisprudencia sin verificarla en CENDOJ —es gratuito, universal e inmediato
  2. No usar IA generalista (ChatGPT, Gemini, Claude) como fuente jurisprudencial —están diseñadas para generar texto, no para verificar hechos
  3. Si usas IA jurídica especializada, sigue verificando cada cita en la fuente primaria
  4. Declara el uso de IA en tus escritos cuando lo consideres pertinente —la transparencia protege
  5. Solicita peritaje forense cuando la parte contraria presente pruebas digitales sospechosas

Para tribunales y letrados de la Administración de Justicia

  1. Verificar sistemáticamente las citas jurisprudenciales de los escritos procesales
  2. Formar a los equipos en detección de contenidos generados por IA
  3. Establecer protocolos de verificación documental ante indicios de contenido artificial
  4. Recurrir al perito informático cuando se cuestione la autenticidad de una prueba digital

Para empresas y particulares en procedimientos judiciales

  1. Certificar las pruebas digitales antes de aportarlas al proceso
  2. No confiar en capturas de pantalla sin respaldo forense
  3. Solicitar informe pericial si la otra parte presenta pruebas que podrían estar manipuladas por IA

¿Necesitas verificar pruebas digitales o contenido generado por IA?

Informe pericial forense para verificar la autenticidad de documentos, comunicaciones electrónicas, imágenes, audio y vídeo. Detección de deepfakes, alucinaciones de IA y manipulación digital. Válido en todas las jurisdicciones españolas. Primera consulta gratuita.

Más información

Preguntas frecuentes

¿Pueden los jueces españoles usar ChatGPT para redactar sentencias?

No directamente. La Instrucción 2/2026 del CGPJ establece que los jueces y magistrados solo pueden utilizar sistemas de IA proporcionados por las Administraciones competentes en materia de justicia o por el propio CGPJ (artículo 5). Los sistemas no autorizados, como ChatGPT, Gemini o Claude, solo pueden emplearse para “preparación o estudio” con información de acceso público, y en ningún caso se pueden introducir datos judiciales en ellos (artículo 9). Si un juez usa un borrador generado por IA autorizada, debe realizar una revisión y validación personal completa antes de dictar resolución (BOE-A-2026-2205).

¿Qué pasa si un abogado cita sentencias falsas generadas por IA en España?

El caso del TSJC de Canarias establece el primer precedente español: el abogado fue multado con 420 euros, se consideró que actuó contra el deber de veracidad y las reglas de buena fe procesal, y la resolución fue trasladada a su Colegio de Abogados para posibles responsabilidades disciplinarias. La cuantía de la multa fue deliberadamente ejemplarizante (la mitad del coste de una herramienta jurídica especializada). En casos más graves o reincidentes, las sanciones podrían ser significativamente mayores, incluyendo la suspensión del ejercicio profesional.

¿Cómo puedo saber si un documento o una prueba digital ha sido generada por IA?

La verificación requiere un análisis pericial en varias capas: (1) análisis de metadatos y trazabilidad del documento; (2) verificación cruzada en bases de datos oficiales (CENDOJ, BOE, EUR-Lex); (3) análisis lingüístico y estilométrico del texto; (4) detección de artefactos de IA en contenido multimedia (deepfakes de audio/vídeo); y (5) evaluación de coherencia interna del contenido. Un perito informático forense puede realizar este análisis y documentarlo en un informe válido ante cualquier jurisdicción. Consultar disponibilidad.

¿La Instrucción 2/2026 afecta a abogados y procuradores?

La Instrucción se dirige formalmente a jueces y magistrados, no a abogados. Sin embargo, tiene implicaciones indirectas muy relevantes para los letrados: (1) los jueces están obligados a verificar el contenido generado por IA, lo que aumenta la probabilidad de detectar citas falsas en escritos de parte; (2) el caso del TSJC demuestra que los tribunales ya sancionan el uso negligente de IA por abogados con base en el deber de veracidad y buena fe procesal; y (3) los Colegios de Abogados pueden depurar responsabilidades disciplinarias adicionales.

¿Qué relación tiene la Instrucción 2/2026 con el AI Act europeo?

Son normativas complementarias. La Instrucción 2/2026 regula el uso de IA por la judicatura española, mientras que el Reglamento Europeo de IA (AI Act) establece reglas generales para todos los sistemas de IA en la UE. El AI Act clasifica los sistemas de IA utilizados en la administración de justicia como de alto riesgo, lo que impondrá requisitos de transparencia, supervisión humana y evaluación de conformidad a partir de agosto de 2026. Ambas normas coinciden en un principio fundamental: el control humano efectivo sobre cualquier sistema de inteligencia artificial.

¿Cuánto cuesta un peritaje forense para verificar contenido generado por IA?

El coste depende de la complejidad y el volumen del material a analizar. Una verificación de autenticidad documental básica (metadatos, hashes, verificación cruzada) puede partir de 400 euros. Análisis más complejos que incluyan detección de deepfakes, estilometría avanzada o análisis forense de dispositivos oscilan entre 600 y 1.200 euros. Consulta gratuita disponible para evaluar tu caso específico y proporcionar un presupuesto detallado.

Referencias y fuentes

  1. BOE (2026). “Acuerdo de 28 de enero de 2026, del Pleno del CGPJ, por el que se aprueba la Instrucción 2/2026”. BOE-A-2026-2205. https://www.boe.es/diario_boe/txt.php?id=BOE-A-2026-2205

  2. CGPJ (2026). “El CGPJ aprueba una instrucción dirigida a la Carrera Judicial en relación con el empleo de la inteligencia artificial”. https://www.poderjudicial.es/cgpj/es/Poder-Judicial/En-Portada/El-CGPJ-aprueba-una-instruccion-dirigida-a-la-Carrera-Judicial-en-relacion-con-el-empleo-de-la-inteligencia-artificial-

  3. Infobae (2026). “Multan a un abogado por presentar un recurso con 48 citas a sentencias falsas: usó una IA para hacer el escrito”. 13 Feb 2026. https://www.infobae.com/espana/2026/02/13/multan-a-un-abogado-por-presentar-un-recurso-con-48-citas-a-sentencias-falsas-uso-una-ia-para-hacer-el-escrito/

  4. El Español (2026). “Multa de 420 euros a un abogado por citar en un escrito 48 sentencias falsas generadas por Inteligencia Artificial”. 13 Feb 2026. https://www.elespanol.com/espana/tribunales/20260213/multa-euros-abogado-citar-escrito-sentencias-falsas-generadas-inteligencia-artificial/1003744129079_0.html

  5. elDiario.es (2026). “Multa a un abogado en Tenerife que citó hasta 48 sentencias falsas sugeridas por IA”. 13 Feb 2026. https://www.eldiario.es/canariasahora/tribunales/multa-abogado-tenerife-cito-48-sentencias-falsas-sugeridas-ia_1_12988784.html

  6. El Independiente (2026). “Multa al abogado que usó la IA para 48 citas de jurisprudencia falsas en un recurso”. 13 Feb 2026. https://www.elindependiente.com/espana/2026/02/13/multa-al-abogado-que-uso-la-ia-para-48-citas-de-jurisprudencia-falsas-en-un-recurso/

  7. APM (2026). “La Instrucción 2/2026 del CGPJ sobre el uso de la inteligencia artificial por jueces y magistrados”. https://magistratura.es/la-instruccion-2-2026-del-cgpj-sobre-el-uso-de-la-inteligencia-artificial-por-jueces-y-magistrados/

  8. Xataka (2023). “Un abogado usó ChatGPT en un juicio. Ahora es él quien debe dar explicaciones a un juez por incluir citas falsas”. https://www.xataka.com/legislacion-y-derechos/abogado-uso-chatgpt-juicio-ahora-quien-debe-dar-explicaciones-a-juez-incluir-citas-falsas

  9. LexLatin (2026). “Problemas legales por el uso de ChatGPT: las alucinaciones de la inteligencia artificial dejan en evidencia a 116 abogados”. https://lexlatin.com/gestion-lexlatin/problemas-legales-chatgpt-alucinaciones-inteligencia-artificial-abogados

  10. Parlamento Europeo (2024). “EU AI Act: first regulation on artificial intelligence”. https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence

  11. Iberley (2026). “El CGPJ aprueba la Instrucción 2/2026 sobre uso de IA en actividad judicial”. https://www.iberley.es/noticias/nueva-instruccion-cgpj-uso-ia-actividad-judicial-36001

  12. Artificial Intelligence Act EU (2026). “EU Artificial Intelligence Act - Up-to-date developments”. https://artificialintelligenceact.eu/


Sobre el autor: Jonathan Izquierdo es perito informático forense con más de 10 años de experiencia en análisis forense digital, investigación de ciberincidentes y auditoría de sistemas. Ex-CTO y 5x AWS Certified, aplica metodología ISO 27037 en todas sus investigaciones periciales.

Última actualización: 15 de febrero de 2026.

Sobre el autor

Jonathan Izquierdo es perito informático forense especializado en Jurisprudencia con conocimientos en blockchain, criptomonedas, AWS Cloud, desarrollo de software y seguridad. Experiencia tecnológica de más de 20 años al servicio de la justicia digital, liderando equipos de desarrollo de software en ámbitos internacionales.

Ver más sobre mí

Volver al Blog

Posts Relacionados

Ver Todos los Posts »
Jonathan Izquierdo

Jonathan Izquierdo · Perito Forense

+15 años experiencia · AWS Certified

WhatsApp