· Jonathan Izquierdo · Legal ·
TSJN: usar IA para inventar sentencias es mala fe procesal
El Tribunal Superior de Justicia de Navarra advierte que fabricar sentencias con IA es mala fe procesal sancionable. Análisis del caso, marco legal y cómo detectarlo.

En marzo de 2026, los tribunales españoles han trazado una línea roja inequívoca: fabricar jurisprudencia con inteligencia artificial constituye mala fe procesal y será sancionado. El Tribunal Superior de Justicia de Navarra (TSJN) ha emitido una advertencia formal que marca un antes y un después en la relación entre la inteligencia artificial y la práctica forense en España. Esta declaración, publicada el 26 de marzo de 2026, no es un hecho aislado: se enmarca en una cadena de acontecimientos que incluye la multa del Tribunal Superior de Justicia de Canarias (TSJC) a un abogado por presentar 48 sentencias falsas generadas por ChatGPT, la denuncia contra un juez de Ceuta por usar jurisprudencia inventada por IA, y la publicación de la Instrucción 2/2026 del Consejo General del Poder Judicial (CGPJ), que regula por primera vez el uso de sistemas de inteligencia artificial en la actividad jurisdiccional española [1].
El fenómeno no es exclusivamente español. A nivel internacional, desde el célebre caso Mata v. Avianca en Estados Unidos (2023) hasta las recientes sanciones en Colombia, Italia y Australia, los tribunales de todo el mundo están descubriendo que las herramientas de IA generalista —como ChatGPT, Gemini o Claude— pueden generar citas jurisprudenciales extremadamente convincentes pero completamente inventadas. Este fenómeno, conocido como «alucinación» en la terminología técnica de los modelos de lenguaje, representa uno de los mayores desafíos para la integridad del sistema de justicia en la era digital [2].
Como perito informático forense, he visto multiplicarse las consultas sobre cómo verificar la autenticidad de documentos legales y detectar contenido sintético en escritos judiciales. Los tribunales, los colegios de abogados y los propios letrados necesitan cada vez más apoyo técnico especializado para identificar estos fraudes documentales. En este artículo, ofrezco un análisis exhaustivo del marco legal aplicable, la metodología forense de detección, los casos reales en España y el mundo, y una guía práctica para profesionales del Derecho.
El problema es profundo, técnicamente complejo y jurídicamente poliédrico. No basta con decir «hay que verificar las citas»: es necesario entender por qué fallan las herramientas de IA, cómo puede un perito informático detectar el fraude, qué consecuencias legales se derivan y cómo pueden protegerse los profesionales del Derecho. Este artículo aborda todas estas cuestiones con el rigor técnico y jurídico que la materia exige.
La magnitud del problema queda reflejada en las cifras: según la base de datos de hallucinations legales mantenida por Damien Charlotin, a marzo de 2026 se han documentado más de 100 casos en todo el mundo de abogados que han presentado jurisprudencia fabricada por IA ante tribunales [3]. La tendencia es claramente ascendente, y España no es una excepción. Los tres primeros meses de 2026 han concentrado más incidentes en nuestro país que todo el año anterior.
Este artículo es, probablemente, el análisis más completo disponible en español sobre la intersección entre inteligencia artificial, mala fe procesal y peritaje informático forense. Está dirigido a abogados, jueces, procuradores, peritos y cualquier profesional que necesite comprender las implicaciones técnicas y jurídicas de este fenómeno emergente.
Las cifras que revelan la magnitud del problema
Para dimensionar el alcance de esta crisis, es útil recopilar los datos disponibles a marzo de 2026:
| Indicador | Dato | Fuente |
|---|---|---|
| Casos documentados de alucinaciones legales de IA en todo el mundo | Más de 100 | Base de datos de Damien Charlotin [3] |
| Abogados identificados por usar jurisprudencia falsa de IA | Más de 116 | LexLatin [19] |
| Países donde se han producido casos | Al menos 12 | EE.UU., España, Colombia, Italia, Australia, UK, China, y otros |
| Multa máxima impuesta (EE.UU.) | $31.000 | California, 2025 |
| Multa máxima impuesta (España) | 420 € | TSJC Canarias, 2026 |
| Rango de multas previsto por la LEC (España) | 180-6.000 € | Art. 247 LEC |
| Tasa de alucinación de IA generalista en citas legales | 15-40% | Estudios múltiples [12] |
| Tasa máxima de alucinación observada en un caso español | 100% (48 de 48 citas) | TSJC Canarias [6] |
| Coste anual de IA jurídica especializada | 600-1.800 € | vLex, Aranzadi, La Ley |
| Coste de verificar una cita en Cendoj | 0 € (gratuito) | Poder Judicial |
Estas cifras ponen de manifiesto una paradoja preocupante: la verificación de citas es gratuita y toma segundos, pero los profesionales siguen presentando jurisprudencia sin verificar. La razón no es económica ni técnica, sino cultural: la presión temporal, la confianza excesiva en la tecnología y la falta de formación sobre las limitaciones de la IA.
Por qué este artículo importa ahora
La publicación de este análisis en marzo de 2026 coincide con un momento de inflexión. Los tres primeros meses de 2026 han concentrado más hitos regulatorios y jurisprudenciales sobre IA y justicia en España que todo el año anterior:
- La Instrucción 2/2026 del CGPJ (30 de enero) ha establecido el primer marco normativo para jueces.
- La multa del TSJC de Canarias (13 de febrero) ha sido la primera sanción económica a un abogado español.
- La advertencia del TSJN de Navarra (26 de marzo) ha extendido el marco a una doctrina prospectiva.
- El caso de Ceuta (en investigación) ha revelado que el problema afecta también a jueces y fiscales.
Estamos, en definitiva, en el momento en que la profesión jurídica española debe decidir cómo incorpora la inteligencia artificial a su práctica: de forma responsable, con verificación y transparencia, o de forma negligente, asumiendo riesgos crecientes de sanción. Este artículo pretende contribuir a que esa decisión sea informada.
TL;DR: lo esencial en 60 segundos
Alerta: IA y mala fe procesal en tribunales españoles
Qué ocurre: El TSJN advierte formalmente que fabricar sentencias con IA es mala fe procesal sancionable. El TSJC ya ha multado a un abogado con 420 euros por 48 citas falsas. Un juez de Ceuta está siendo investigado por usar jurisprudencia inventada por IA.
Por qué importa: Las consecuencias van desde multas procesales (art. 247 LEC, hasta 6.000 euros) hasta expedientes disciplinarios colegiales, responsabilidad civil frente al cliente y, en los casos más graves, responsabilidad penal por falsedad documental (arts. 390-396 del Código Penal).
Qué hacer:
- Verificar siempre todas las citas jurisprudenciales contra Cendoj antes de presentar escritos
- Usar herramientas de IA jurídica especializada (vLex, Aranzadi, La Ley Digital) en lugar de IA generalista
- Documentar el proceso de verificación como defensa preventiva
- Declarar el uso de herramientas de IA cuando proceda
Cuándo contactar a un perito: Si necesitas verificar la autenticidad de documentos legales, detectar contenido generado por IA en procedimientos judiciales, o necesitas un informe pericial que documente la fabricación de citas por IA.
Marco normativo clave: Art. 247 LEC (mala fe procesal), art. 11 LOPJ (buena fe), Instrucción 2/2026 CGPJ (IA en actividad jurisdiccional), arts. 390-396 CP (falsedad documental), Reglamento (UE) 2024/1689 (AI Act).
Qué ha pasado: cronología completa
Para comprender la magnitud de lo que está ocurriendo en los tribunales españoles —y en los del resto del mundo— es imprescindible reconstruir la cronología completa de los acontecimientos. Los hechos se han sucedido con una velocidad inusitada, y cada nuevo caso ha precipitado una respuesta institucional más contundente.
Los antecedentes internacionales (2023)
El primer caso documentado de un abogado que presentó jurisprudencia fabricada por inteligencia artificial ante un tribunal tuvo lugar en Estados Unidos. En febrero de 2022, Roberto Mata había demandado a la aerolínea Avianca por lesiones personales sufridas durante un vuelo internacional. Lo que parecía un caso rutinario de daños personales se convirtió en un escándalo sin precedentes cuando, en mayo de 2023, los abogados del demandante —Steven A. Schwartz y Peter LoDuca, del bufete Levidow, Levidow & Oberman P.C.— presentaron un escrito que contenía seis sentencias completamente inventadas por ChatGPT [4].
El escrito citaba casos como Varghese v. China Southern Airlines, Martinez v. Delta Airlines y Petersen v. Iran Air, ninguno de los cuales existía en realidad. ChatGPT había fabricado nombres de casos, números de expediente, fechas de resolución y hasta citas textuales de los supuestos fallos, todo con un formato impecable que resultaba tremendamente convincente. Los abogados de Avianca detectaron las anomalías cuando intentaron localizar las sentencias citadas y no las encontraron en ninguna base de datos legal.
El juez P. Kevin Castel, del Distrito Sur de Nueva York, celebró una audiencia de sanciones el 8 de junio de 2023 ante una sala abarrotada de periodistas y juristas. El 22 de junio de 2023, impuso una multa de 5.000 dólares a los abogados y les exigió notificar personalmente a los jueces cuyos nombres habían sido falsamente asociados a las sentencias inventadas [4]. El caso Mata v. Avianca se convirtió instantáneamente en el caso de referencia mundial sobre los peligros de usar IA generalista en la práctica jurídica.
La oleada de casos en 2024
Tras el caso Mata v. Avianca, se produjo una cascada de incidentes similares en todo el mundo durante 2024:
Estados Unidos, Colorado (enero 2024): Un abogado fue multado con 2.000 dólares por citar jurisprudencia fabricada por IA en un caso de custodia. El tribunal enfatizó que el desconocimiento de las limitaciones de la herramienta no eximía de responsabilidad profesional.
Australia, Sídney (marzo 2024): Un abogado de inmigración, presionado por plazos ajustados, incluyó 17 citas de casos en su escrito sin verificarlas. Las 17 resultaron ser fabricaciones de IA. El tribunal lo remitió al organismo disciplinario correspondiente.
Reino Unido (abril 2024): En un caso de apelación fiscal, un contribuyente que actuaba sin representación letrada presentó escritos que citaban nueve casos supuestamente relevantes. Todos resultaron ser inexistentes, generados por una herramienta de IA.
China (2024): Los tribunales chinos documentaron múltiples casos de abogados que utilizaban herramientas de IA para fabricar jurisprudencia, lo que llevó al Tribunal Popular Supremo a emitir una guía sobre el uso responsable de IA en la práctica jurídica.
Estos casos establecieron un patrón claro: el problema no estaba limitado a un país, un sistema jurídico o un tipo de procedimiento. Era un fenómeno global vinculado a la naturaleza misma de los modelos de lenguaje generativo.
España: los primeros casos (finales de 2025)
El primer caso documentado en España se produjo en Ceuta a finales de 2025. Un abogado del Ilustre Colegio de Abogados de Melilla, Rachid Mohamed Hammu, presentó una queja ante el CGPJ contra el titular del Juzgado de Instrucción número 5 de Ceuta. El motivo: un auto dictado el 1 de diciembre de 2025 que fundamentaba su decisión en sentencias del Tribunal Supremo que, tras ser comprobadas, resultaron ser completamente inexistentes [5].
Lo singular de este caso es que no fue un abogado quien usó la IA, sino que la cadena de errores comenzó con el fiscal de la causa, que incluyó las referencias falsas en su informe, y el magistrado las asumió como válidas, incorporándolas a su auto para denegar la personación del abogado en nombre de su cliente. El magistrado citó hasta tres sentencias inventadas del Tribunal Supremo, con pasajes entrecomillados y referencias aparentemente precisas que nunca existieron [5].
Este caso evidenció un problema aún más grave que el del abogado negligente: un operador jurídico con función pública (el fiscal) y un órgano judicial (el magistrado) habían basado sus actuaciones en jurisprudencia fabricada por IA, sin que ninguno de los eslabones de la cadena realizara la verificación más básica.
Enero 2026: la investigación del TSJC de Canarias
El siguiente caso español salió a la luz en enero de 2026, cuando el Tribunal Superior de Justicia de Canarias (TSJC) comunicó que estaba investigando si un abogado había utilizado sentencias inventadas por inteligencia artificial en un recurso de apelación penal. La Sala de lo Penal del TSJC había detectado anomalías en las 48 citas jurisprudenciales incluidas en el escrito del letrado [6].
La documentalista del tribunal fue quien dio la voz de alarma al intentar localizar las sentencias citadas en el Centro de Documentación Judicial (Cendoj). Ninguna de las 48 citas correspondía a resoluciones reales: ni los números de sentencia, ni las fechas, ni los ponentes, ni los fundamentos jurídicos existían en la base de datos oficial. Las citas presentaban un formato impecable —números de resolución correctamente formateados como STS, fechas verosímiles, nombres de ponentes que sonaban plausibles— pero eran fabricaciones completas de una herramienta de IA generalista.
30 de enero de 2026: la Instrucción 2/2026 del CGPJ
En medio de esta escalada de casos, el Pleno del Consejo General del Poder Judicial aprobó, el 28 de enero de 2026, la Instrucción 2/2026 sobre la utilización de sistemas de inteligencia artificial en el ejercicio de la actividad jurisdiccional. La Instrucción fue publicada en el Boletín Oficial del Estado el 30 de enero de 2026, bajo la referencia BOE-A-2026-2205 [7].
La Instrucción 2/2026 constituye el primer marco regulatorio específico para el uso de IA por jueces y magistrados en España. Su aprobación fue parcialmente precipitada por los casos de Ceuta y Canarias, que habían evidenciado la urgente necesidad de establecer criterios claros sobre cómo y cuándo los operadores jurídicos pueden utilizar herramientas de inteligencia artificial.
Los principios fundamentales de la Instrucción son:
| Principio | Contenido | Implicación práctica |
|---|---|---|
| Supervisión humana efectiva | Toda salida de IA debe ser revisada críticamente por el profesional | El juez no puede «copiar y pegar» sin verificar |
| No sustitución | La IA no puede reemplazar el criterio jurídico humano | Prohibido delegar la aplicación del Derecho a la máquina |
| Responsabilidad del profesional | Quien firma el escrito responde de su contenido íntegro | La IA no exime de responsabilidad al firmante |
| Transparencia | Obligación de declarar el uso de herramientas de IA | Los escritos deben indicar si se ha utilizado IA |
| Sistemas autorizados | Solo sistemas facilitados por las administraciones competentes | Los jueces no pueden usar ChatGPT para redactar resoluciones |
| Prohibición de perfilado | No se puede usar IA para perfilar personas o predecir comportamiento | Protección de derechos fundamentales |
| Control de calidad | Los sistemas deben estar sujetos a auditoría por el CGPJ | Supervisión institucional continua |
13 de febrero de 2026: la multa del TSJC de Canarias
La investigación del TSJC culminó el 13 de febrero de 2026 con la imposición de una multa de 420 euros al abogado que había presentado las 48 sentencias falsas. La Sala de lo Penal fundamentó su decisión en el artículo 247 de la Ley de Enjuiciamiento Civil, por vulneración del deber de buena fe procesal [6].
La cuantía de la multa merece un análisis particular: el tribunal calculó que los planes de suscripción básicos a herramientas de IA jurídica especializada cuestan aproximadamente 840 euros anuales. Dado que el abogado reconoció los hechos y mostró arrepentimiento, se le impuso la mitad de esa cantidad —420 euros— como una forma de cuantificar el «ahorro» que había obtenido al utilizar una herramienta de IA gratuita en lugar de una plataforma jurídica de pago con datos verificados [6].
Además de la multa, el tribunal ordenó dar traslado de su decisión al Colegio de Abogados en el que estaba inscrito el letrado, para que este valorara la procedencia de iniciar un expediente disciplinario. La resolución del TSJC estableció como doctrina que el principio de supervisión humana es el «eje vertebrador» de todas las actuaciones profesionales que emplean sistemas de IA en el ámbito de la abogacía.
La reacción de los colegios de abogados españoles (enero-marzo 2026)
La sucesión de casos (Ceuta, Canarias, Navarra) provocó una reacción inmediata de los colegios de abogados españoles, que empezaron a tomar medidas preventivas durante el primer trimestre de 2026:
Consejo General de la Abogacía Española (CGAE):
El CGAE anunció en febrero de 2026 la creación de un grupo de trabajo específico sobre IA y práctica profesional, encargado de elaborar directrices vinculantes para toda la abogacía española. Este grupo de trabajo, integrado por expertos en Derecho digital, deontología profesional y tecnología, tiene como mandato presentar un borrador de directrices antes de finales de 2026. Las directrices abordarán, entre otras cuestiones, las obligaciones de verificación, la declaración de uso de IA, los protocolos de supervisión humana y el régimen de responsabilidad del abogado.
Colegios autonómicos y locales:
Varios colegios de abogados han adoptado medidas anticipándose a las directrices nacionales:
- Algunos colegios han organizado jornadas formativas sobre los riesgos de la IA en la práctica jurídica, con participación de magistrados, peritos informáticos y profesores universitarios.
- Otros colegios han emitido circulares internas recordando a sus colegiados el deber de verificación de fuentes y las consecuencias de la mala fe procesal.
- Varios colegios están estudiando la inclusión de formación sobre IA como requisito de formación continua obligatoria.
Reacciones doctrinales:
La doctrina jurídica española ha reaccionado con una avalancha de publicaciones sobre el tema. Revistas como El Derecho, La Ley, Aranzadi, Diario La Ley y el blog «Hay Derecho» han publicado análisis sobre las implicaciones del uso de IA en la práctica forense. El consenso doctrinal es claro: el uso de IA no es el problema; el problema es el uso sin verificación.
26 de marzo de 2026: la advertencia del TSJN de Navarra — análisis en profundidad
El caso más reciente —y el que da título a este artículo— se produjo el 26 de marzo de 2026, cuando la Sala de lo Social del Tribunal Superior de Justicia de Navarra (TSJN) emitió una advertencia formal de alcance general sobre el uso de IA para fabricar jurisprudencia [1].
El caso concreto que originó la advertencia implicaba a una abogada que, en un recurso presentado en octubre de 2025, había incluido ocho citas inventadas de sentencias del Tribunal Constitucional, del Tribunal Supremo, del Tribunal Superior de Navarra y del Tribunal Superior de Madrid. Ninguna de las ocho sentencias existía en las bases de datos oficiales [1].
Detalle de las citas falsas detectadas:
La resolución del TSJN no identifica públicamente las sentencias concretas fabricadas, pero sí indica que abarcaban cuatro órganos judiciales diferentes (TC, TS, TSJ Navarra, TSJ Madrid), lo que sugiere que la herramienta de IA utilizada generó citas diversificadas para dar apariencia de solidez argumental al recurso. Este patrón es característico de los modelos de lenguaje: cuando se les pide jurisprudencia, tienden a citar múltiples tribunales y jurisdicciones para producir una argumentación que parezca exhaustiva y bien fundamentada.
La decisión de no sancionar:
A diferencia del caso canario, en este procedimiento la Sala decidió no imponer sanción económica a la letrada, archivando el procedimiento sancionador abierto contra ella. Las razones de esta decisión no se explicitan completamente en la resolución, pero pueden inferirse del contexto:
Novedad del fenómeno: al tratarse de uno de los primeros casos en España (el recurso fue presentado en octubre de 2025, antes de la multa del TSJC y de la publicación de la Instrucción 2/2026), el tribunal pudo considerar que la abogada no tenía referentes previos que le advirtieran del riesgo.
Ausencia de perjuicio procesal significativo: si el recurso fue desestimado por otras razones además de las citas falsas, el perjuicio causado al procedimiento y a la parte contraria pudo ser limitado.
Actitud de la letrada: aunque la resolución no lo detalla, es probable que la abogada mostrara una actitud colaborativa similar a la del caso del TSJC.
Función pedagógica de la advertencia: el TSJN pudo considerar que una advertencia general de gran alcance tendría mayor efecto disuasorio que una multa individual de cuantía limitada.
El texto clave de la resolución:
Los magistrados aprovecharon la resolución para emitir una advertencia que, por su contundencia y generalidad, tiene más alcance que la propia multa del TSJC:
«No nos cabe duda de que el uso descuidado de estas tecnologías en los procedimientos judiciales plantea importantes implicaciones deontológicas y, desde luego, es susceptible de integrar un claro ejemplo de mala fe procesal y de abuso del proceso.» [1]
Análisis jurídico de la declaración del TSJN:
Esta declaración del TSJN es extraordinariamente rica desde el punto de vista jurídico y merece un análisis detenido de cada uno de sus elementos:
«No nos cabe duda»: expresión de certeza judicial absoluta, sin matices ni reservas. El tribunal no dice «podría ser» o «en determinadas circunstancias»: afirma sin ambigüedad que el uso descuidado de IA en procedimientos judiciales tiene implicaciones deontológicas y puede constituir mala fe procesal.
«El uso descuidado de estas tecnologías»: el tribunal utiliza la expresión «uso descuidado», no «uso». Esto confirma que lo sancionable no es el uso de IA en sí mismo, sino el uso sin la debida diligencia. La palabra «descuidado» remite directamente al concepto de negligencia profesional, alineándose con el estándar de diligencia del artículo 42 del Estatuto de la Abogacía.
«Importantes implicaciones deontológicas»: el tribunal no se limita al plano procesal (mala fe) sino que extiende sus consideraciones al plano deontológico, sugiriendo que el uso negligente de IA puede vulnerar las normas de conducta profesional del abogado. Esto refuerza la vía del expediente disciplinario colegial.
«Mala fe procesal y abuso del proceso»: el tribunal menciona dos conceptos distintos pero relacionados. La «mala fe procesal» es la vulneración del deber de buena fe del artículo 247 de la LEC. El «abuso del proceso» es un concepto más amplio que incluye la utilización del proceso con fines ajenos a la tutela judicial efectiva. Al mencionar ambos, el tribunal amplía el ámbito de reproche.
Naturaleza jurídica de la advertencia:
La advertencia del TSJN tiene una naturaleza jurídica peculiar: no es una sentencia (porque no resuelve un conflicto entre partes), ni una instrucción (porque el TSJN no tiene competencia para emitir instrucciones de carácter general), ni una circular (porque no se dirige a órganos inferiores). Es, más bien, un obiter dictum de carácter general incluido en una resolución que archiva un procedimiento sancionador: una reflexión judicial que, aunque no vinculante en sentido estricto, tiene un peso persuasivo enorme sobre todos los profesionales que ejerzan ante las salas del TSJN.
En la práctica, esta advertencia funciona como un «aviso previo» que elimina la posibilidad de alegar desconocimiento en futuros casos. Cualquier abogado que presente citas falsas de IA ante el TSJN después del 26 de marzo de 2026 no podrá argumentar que no conocía la posición del tribunal, lo que refuerza tanto el elemento subjetivo (conocimiento del riesgo) como la gravedad de la conducta a efectos de graduación de la sanción.
Comparación con el enfoque del TSJC:
| Aspecto | TSJC Canarias | TSJN Navarra |
|---|---|---|
| Tipo de resolución | Sanción efectiva | Advertencia sin sanción |
| Cuantía de la multa | 420 euros | 0 euros |
| Alcance | Caso individual | Doctrina general prospectiva |
| Efecto temporal | Retroactivo (sanciona conducta pasada) | Prospectivo (avisa para el futuro) |
| Traslado al Colegio | Sí | No consta |
| Principio enunciado | Supervisión humana como eje vertebrador | Mala fe procesal y abuso del proceso |
| Efecto disuasorio | Alto (caso concreto) | Muy alto (aviso general) |
| Precedente para futuros casos | Sí (primera sanción española) | Sí (doctrina prospectiva más contundente) |
Ambos enfoques son complementarios y, vistos en conjunto, configuran un marco jurisprudencial emergente que deja poco margen de duda: los tribunales españoles no van a tolerar la presentación de jurisprudencia fabricada por IA, y las consecuencias serán cada vez más severas.
Esta declaración es también significativa porque no se limita a sancionar un caso individual, sino que establece el criterio del tribunal con carácter prospectivo: cualquier profesional que ejerza ante las salas del TSJN queda advertido de que la fabricación de jurisprudencia mediante IA será tratada como mala fe procesal en el futuro.
Cuadro cronológico completo
| Fecha | Lugar | Órgano / Actor | Hecho | Consecuencia |
|---|---|---|---|---|
| May 2023 | EE.UU. (Nueva York) | Distrito Sur NY | Caso Mata v. Avianca: 6 sentencias falsas de ChatGPT | Multa de $5.000 a los abogados [4] |
| Ene 2024 | EE.UU. (Colorado) | Tribunal estatal | Citas falsas de IA en caso de custodia | Multa de $2.000 |
| Mar 2024 | Australia (Sídney) | Tribunal de inmigración | 17 citas falsas de IA | Remisión a organismo disciplinario |
| Abr 2024 | Reino Unido | Tribunal fiscal | 9 casos inexistentes citados | Desestimación del recurso |
| Mar 2025 | Italia (Florencia) | Tribunal de Florencia | Sentencias falsas del Tribunal Supremo italiano | Advertencia, sin sanción [8] |
| Nov 2025 | Colombia | Corte Suprema | Anulación de sentencia basada en citas falsas de IA | Primera anulación judicial por IA [9] |
| Dic 2025 | España (Ceuta) | Juzgado Instrucción n.º 5 | Juez y fiscal usan jurisprudencia inventada por IA | Denuncia ante CGPJ [5] |
| Ene 2026 | España (Canarias) | TSJC Sala de lo Penal | Investigación: 48 sentencias falsas en recurso | Multa 420 €, traslado al Colegio [6] |
| 30 Ene 2026 | España | CGPJ (Pleno) | Instrucción 2/2026 sobre IA en actividad jurisdiccional | BOE-A-2026-2205 [7] |
| 13 Feb 2026 | España (Canarias) | TSJC | Resolución sancionadora firme | 420 € + expediente disciplinario [6] |
| Feb 2026 | Colombia | Corte Suprema | Primera sanción a abogado por IA en Latinoamérica | 15 salarios mínimos [9] |
| 26 Mar 2026 | España (Navarra) | TSJN Sala de lo Social | Advertencia general: IA + sentencias falsas = mala fe procesal | Doctrina prospectiva [1] |
Marco legal en España: análisis exhaustivo
La sanción por presentar sentencias falsas generadas por inteligencia artificial no requiere una legislación nueva: el ordenamiento jurídico español ya cuenta con un marco normativo robusto que los tribunales están aplicando con creciente firmeza. Sin embargo, la intersección entre las normas existentes y las nuevas realidades tecnológicas genera cuestiones jurídicas complejas que merecen un análisis detallado.
Ley de Enjuiciamiento Civil (LEC): el artículo 247
El artículo 247 de la Ley 1/2000, de 7 de enero, de Enjuiciamiento Civil es la norma central sobre la que pivotan las sanciones por uso fraudulento de IA en escritos judiciales. Su texto establece [10]:
«1. Los intervinientes en todo tipo de procesos deberán ajustarse en sus actuaciones a las reglas de la buena fe.»
«2. Los tribunales rechazarán fundadamente las peticiones e incidentes que se formulen con manifiesto abuso de derecho o entrañen fraude de ley o procesal.»
«3. Si los Tribunales estimaren que alguna de las partes ha actuado conculcando las reglas de la buena fe procesal, podrán imponerle, en pieza separada, mediante acuerdo motivado, y respetando el principio de proporcionalidad, una multa que podrá oscilar de ciento ochenta a seis mil euros, sin que en ningún caso pueda superar la tercera parte de la cuantía del litigio.»
«4. Si los tribunales entendieren que la actuación contraria a las reglas de la buena fe podría ser imputable a alguno de los profesionales intervinientes en el proceso, sin perjuicio de lo dispuesto en el apartado anterior, darán traslado de tal circunstancia a los Colegios profesionales respectivos por si pudiera proceder la imposición de algún tipo de sanción disciplinaria.»
Este artículo es la base legal sobre la que se fundamentó tanto la multa del TSJC de Canarias como la advertencia del TSJN de Navarra. Varios aspectos merecen atención especial:
No se exige dolo: la buena fe procesal del artículo 247 no requiere que el profesional haya actuado con intención de engañar. La negligencia —no verificar las citas antes de presentarlas— es suficiente para imponer la multa. El abogado que copia y pega citas de ChatGPT sin contrastarlas contra Cendoj está incumpliendo el deber de diligencia, independientemente de que creyera que las citas eran reales.
Principio de proporcionalidad: el tribunal debe motivar la multa atendiendo a las circunstancias del caso, los daños causados al procedimiento, a la otra parte y a la Administración de Justicia, la capacidad económica del infractor y la reiteración de la conducta. Este principio explica por qué la multa del TSJC fue relativamente baja (420 euros en un rango de 180 a 6.000): era un primer caso, el abogado reconoció los hechos y no hubo daño material al proceso.
Doble consecuencia: además de la multa procesal, el artículo 247.4 prevé que el tribunal dé traslado a los colegios profesionales para que valoren la imposición de sanciones disciplinarias. Esto significa que el abogado sancionado se enfrenta a un doble procedimiento: el procesal (multa) y el colegial (expediente disciplinario), con consecuencias potencialmente acumulativas.
Ámbito de aplicación universal: el artículo se aplica a «los intervinientes en todo tipo de procesos», lo que incluye no solo a los abogados sino también a procuradores, peritos, partes litigantes y cualquier otro interviniente procesal.
Ley Orgánica del Poder Judicial (LOPJ): artículos 11 y 238 bis
La Ley Orgánica 6/1985, de 1 de julio, del Poder Judicial complementa la protección de la buena fe procesal con dos disposiciones relevantes:
El artículo 11.1 establece con carácter general:
«En todo tipo de procedimiento se respetarán las reglas de la buena fe. No surtirán efecto las pruebas obtenidas, directa o indirectamente, violentando los derechos o libertades fundamentales.»
El artículo 11.2 añade:
«Los Juzgados y Tribunales rechazarán fundadamente las peticiones, incidentes y excepciones que se formulen con manifiesto abuso de derecho o entrañen fraude de ley o procesal.»
La importancia del artículo 11.1 de la LOPJ en el contexto de las sentencias falsas generadas por IA es doble. Por un lado, refuerza la obligación de buena fe que ya establece el artículo 247 de la LEC. Por otro, introduce la cuestión de la prueba ilícita: si un escrito judicial fundamenta su argumentación en sentencias que no existen, ¿puede considerarse que las «pruebas» (las citas jurisprudenciales) han sido «obtenidas violentando derechos»?
La respuesta no es sencilla. Las citas jurisprudenciales no son, técnicamente, pruebas en sentido estricto, sino argumentos jurídicos. Sin embargo, cuando un abogado cita una sentencia como si fuera real y el tribunal la toma en consideración para fundamentar su decisión —como ocurrió en el caso de Ceuta—, la frontera entre argumento jurídico y prueba documental se difumina.
El artículo 238 bis de la LOPJ, introducido por la Ley Orgánica 1/2025, regula específicamente el uso de sistemas de inteligencia artificial en la Administración de Justicia, estableciendo que la IA se utilizará como herramienta de apoyo, nunca como sustituto del criterio humano, y que el juez o magistrado será siempre responsable de las decisiones que adopte.
Código Penal: falsedad documental (arts. 390-396)
En los supuestos más graves, la presentación de sentencias falsas generadas por IA puede tener relevancia penal. Los artículos del Código Penal aplicables dependen del tipo de documento y de la condición del sujeto activo.
Artículo 390 del Código Penal — Falsedad documental por autoridad o funcionario público:
«Será castigado con las penas de prisión de tres a seis años, multa de seis a veinticuatro meses e inhabilitación especial por tiempo de dos a seis años, la autoridad o funcionario público que, en el ejercicio de sus funciones, cometa falsedad: […] 2.º Simulando un documento en todo o en parte, de manera que induzca a error sobre su autenticidad. 3.º Suponiendo en un acto la intervención de personas que no la han tenido, o atribuyendo a las que han intervenido en él declaraciones o manifestaciones diferentes de las que hubieran hecho. 4.º Faltando a la verdad en la narración de los hechos.»
Este artículo sería aplicable al caso de Ceuta, donde un juez y un fiscal —autoridades y funcionarios públicos— utilizaron jurisprudencia fabricada por IA en el ejercicio de sus funciones. Si se acreditara dolo (que sabían o debían saber que las sentencias eran falsas), las penas podrían alcanzar los seis años de prisión.
Artículo 393 del Código Penal — Presentación en juicio de documento falso:
«El que, a sabiendas de su falsedad, presentare en juicio o, para perjudicar a otro, hiciere uso de un documento falso de los comprendidos en los artículos precedentes, será castigado con la pena inferior en grado a la señalada a los falsificadores.»
Este artículo es el más directamente aplicable a los abogados que presentan sentencias falsas generadas por IA. El elemento clave es la expresión «a sabiendas de su falsedad»: requiere que el abogado conociera —o debiera haber conocido, según interpretaciones expansivas— que las sentencias eran falsas. Dado que la verificación contra Cendoj es gratuita y sencilla, un tribunal podría argumentar que el desconocimiento de la falsedad es inexcusable para un profesional del Derecho.
Artículo 395 del Código Penal — Falsedad en documento privado:
«El que, para perjudicar a otro, cometiere en documento privado alguna de las falsedades previstas en los tres primeros números del apartado 1 del artículo 390, será castigado con la pena de prisión de seis meses a dos años.»
Artículo 396 del Código Penal — Uso de documento privado falso:
«El que, a sabiendas de su falsedad, presentare en juicio o, para perjudicar a otro, hiciere uso de un documento falso de los comprendidos en el artículo anterior, incurrirá en la pena inferior en grado a la señalada a los falsificadores.»
Importante: la frontera entre negligencia y dolo
La principal cuestión jurídica pendiente de resolver es dónde se sitúa la frontera entre la negligencia (sancionable con multa procesal y expediente disciplinario) y el dolo (que podría activar la responsabilidad penal). Hasta marzo de 2026, ningún tribunal español ha condenado penalmente a un abogado por presentar sentencias falsas de IA. Sin embargo, a medida que la jurisprudencia sobre esta materia se consolida y los tribunales advierten reiteradamente del riesgo, será cada vez más difícil alegar desconocimiento como excusa. La doctrina del «dolo eventual» —que contempla los supuestos en los que el sujeto se representa el resultado como probable y, pese a ello, continúa con su conducta— podría aplicarse al abogado que sigue utilizando IA generalista sin verificación después de las advertencias del TSJN y el TSJC.
Estafa procesal (art. 250.1.7.º del Código Penal)
Un supuesto adicional de responsabilidad penal es la estafa procesal, tipificada en el artículo 250.1.7.º del Código Penal como una modalidad agravada de estafa:
«1. El delito de estafa será castigado con las penas de prisión de uno a seis años y multa de seis a doce meses, cuando: […] 7.º Se cometa estafa procesal. Incurren en la misma los que, en un procedimiento judicial de cualquier clase, manipularen las pruebas en que pretendieran fundar sus alegaciones o emplearen otro fraude procesal análogo, provocando error en el Juez o Tribunal y llevándole a dictar una resolución que perjudique los intereses económicos de la otra parte o de un tercero.»
La aplicación de este tipo penal a las sentencias falsas de IA requiere que se cumplan tres elementos: (a) manipulación de pruebas o fraude procesal análogo, (b) provocación de error en el juez, y (c) perjuicio económico a la otra parte. En el caso de Ceuta, donde el magistrado efectivamente asumió las citas falsas y las incorporó a su auto, se habrían cumplido al menos los dos primeros elementos.
Estatuto General de la Abogacía Española
El Real Decreto 135/2021, de 2 de marzo, que aprueba el Estatuto General de la Abogacía Española, establece obligaciones deontológicas que complementan el marco sancionador:
El artículo 42 del Estatuto obliga al abogado a actuar con diligencia profesional. Presentar citas jurisprudenciales sin verificar —independientemente de que las haya generado una IA o las haya inventado el propio letrado— constituye una negligencia que puede dar lugar a [11]:
- Expediente disciplinario colegial: con sanciones que van desde el apercibimiento hasta la suspensión temporal del ejercicio profesional.
- Responsabilidad civil frente al cliente: si la negligencia causa perjuicio al cliente (por ejemplo, la pérdida del procedimiento por desestimación del escrito), el abogado puede ser demandado por daños y perjuicios conforme al artículo 1101 del Código Civil.
El artículo 54 del Estatuto refuerza la obligación de probidad procesal:
«El abogado deberá actuar con probidad y buena fe con relación al tribunal o a su presidente y a los demás intervinientes en los procedimientos […]»
Jurisprudencia previa sobre mala fe procesal: doctrina aplicable
Para situar en contexto la advertencia del TSJN y la multa del TSJC, es importante recordar que la doctrina sobre mala fe procesal del artículo 247 de la LEC está bien consolidada, aunque su aplicación a la IA es novedosa. Los tribunales españoles han definido la mala fe procesal a través de una amplia jurisprudencia que incluye las siguientes conductas típicas:
Conductas expresamente consideradas como mala fe procesal por la jurisprudencia:
- Alegar hechos que el litigante sabe falsos o cuya falsedad debería haber conocido con una diligencia mínima.
- Presentar documentación que se sabe inexistente, manipulada o falsificada.
- Formular peticiones manifiestamente improcedentes con el único fin de dilatar el procedimiento.
- Interponer recursos sin fundamento alguno, con finalidad exclusivamente dilatoria.
- Ocultar documentación relevante que el profesional tiene obligación de aportar.
- Utilizar el proceso con fines ajenos a la tutela judicial efectiva, como el acoso o la presión económica.
La presentación de sentencias falsas generadas por IA encaja directamente en las dos primeras categorías: alegar hechos (jurisprudenciales) que el profesional debería haber verificado, y presentar documentación (citas jurisprudenciales) que resulta ser inexistente. No se requiere que el abogado haya fabricado las citas intencionadamente; basta con que no haya realizado la verificación que le era razonablemente exigible.
El estándar de diligencia exigible:
La cuestión clave es determinar qué nivel de verificación es razonablemente exigible a un abogado cuando utiliza herramientas de IA. Los tribunales están convergiendo hacia un estándar claro:
Verificación factual contra Cendoj: es el mínimo indispensable, exigible en todos los casos. Cendoj es gratuito, público, accesible online y permite verificar la existencia de cualquier sentencia en segundos. La omisión de esta comprobación elemental es, por sí sola, constitutiva de negligencia profesional.
Contraste con bases de datos adicionales: recomendable pero no estrictamente exigible como mínimo. La verificación en Aranzadi, vLex o La Ley Digital proporciona seguridad adicional pero implica un coste de suscripción.
Lectura completa de la sentencia citada: exigible cuando la cita incluye extractos textuales o fundamentos de derecho específicos. El abogado debe haber leído efectivamente la sentencia que cita, no solo verificar su existencia.
Comprobación de la vigencia doctrinal: el abogado debe asegurarse de que la doctrina citada no ha sido superada o matizada por jurisprudencia posterior.
Este estándar de diligencia no es nuevo ni específico de la IA: es el mismo que siempre se ha exigido a los profesionales del Derecho en la elaboración de escritos judiciales. Lo que la IA ha cambiado es la facilidad con la que se pueden generar citas aparentemente válidas sin haberlas verificado, lo que multiplica el riesgo de negligencia.
Jurisprudencia del Tribunal Supremo sobre buena fe procesal:
El Tribunal Supremo ha definido la buena fe procesal como «la exigencia de un comportamiento ajustado a valoraciones éticas, que condiciona y limita el ejercicio de los derechos subjetivos, con lo que el principio se convierte en un criterio de valoración de conductas, al que ha de ajustarse el ejercicio de los derechos» (STS de 14 de febrero de 2014).
En aplicación de esta doctrina, el TS ha declarado que la buena fe procesal exige:
- Veracidad: las alegaciones y afirmaciones de las partes deben ajustarse a la verdad de los hechos.
- Lealtad: las partes deben actuar con lealtad procesal, sin recurrir a maniobras que perjudiquen a la contraparte o al propio proceso.
- Probidad: las actuaciones procesales deben estar guiadas por una finalidad legítima de tutela judicial.
- Coherencia: las partes no pueden adoptar posiciones procesales contradictorias con sus actos anteriores (doctrina de los actos propios).
La presentación de sentencias falsas generadas por IA vulnera al menos los principios de veracidad y lealtad, fundamentando la calificación como mala fe procesal que han adoptado tanto el TSJC como el TSJN.
Derecho comparado: regulación de la IA jurídica en otros ordenamientos
Para completar el análisis del marco legal, es relevante examinar cómo están regulando otros ordenamientos jurídicos el uso de IA en la práctica del Derecho:
Estados Unidos:
No existe una regulación federal unificada. Sin embargo, múltiples tribunales federales y estatales han emitido órdenes generales (standing orders) que exigen a los abogados declarar el uso de herramientas de IA en la elaboración de escritos procesales. Algunos tribunales, como el Distrito Sur de Nueva York (donde se juzgó el caso Mata v. Avianca), exigen además una certificación expresa de que todas las citas han sido verificadas por un ser humano. La American Bar Association (ABA) ha emitido orientaciones éticas sobre el uso de IA, pero sin carácter vinculante.
Reino Unido:
La Solicitors Regulation Authority (SRA) y el Bar Standards Board (BSB) han publicado orientaciones sobre el uso responsable de IA en la práctica jurídica. El Lord Chief Justice de Inglaterra y Gales emitió en diciembre de 2023 una guía que permite a los jueces usar IA para tareas de asistencia, pero prohíbe su uso como sustituto del razonamiento judicial. Los abogados están sujetos a las reglas generales de competencia y diligencia profesional.
Francia:
El Consejo Nacional de Barreaux ha publicado una guía sobre el uso de IA por abogados que enfatiza la verificación de fuentes y la declaración de uso. El Conseil supérieur de la magistrature ha emitido recomendaciones para jueces y fiscales que se alinean con los principios de la Instrucción 2/2026 española.
Alemania:
El Bundesrechtsanwaltskammer (Colegio Federal de Abogados) ha emitido directrices que enfatizan la responsabilidad del abogado por el contenido de sus escritos, independientemente de las herramientas utilizadas. Se está trabajando en una regulación más específica a nivel de los Länder.
Colombia:
Como hemos visto, la Corte Suprema ha sido pionera en la sanción efectiva tanto de jueces como de abogados por el uso negligente de IA. El Consejo Superior de la Judicatura ha emitido directrices sobre el uso de IA que se inspiran en los principios de la CEPEJ europea.
Australia:
La Law Council of Australia ha publicado una guía sobre el uso responsable de IA que enfatiza la verificación obligatoria de todas las citas generadas por herramientas automatizadas. Varios tribunales estatales han emitido práctica directions específicas sobre la materia.
Esta panorámica comparada muestra que España, con la Instrucción 2/2026 del CGPJ y la jurisprudencia emergente del TSJC y el TSJN, se sitúa en una posición intermedia: más avanzada que algunos ordenamientos (como el alemán o el italiano) pero menos consolidada que otros (como el estadounidense o el colombiano). La tendencia regulatoria global es inequívoca: todos los ordenamientos avanzan hacia la exigencia de verificación, transparencia y responsabilidad del profesional.
La Instrucción 2/2026 del CGPJ: análisis completo
La Instrucción 2/2026 merece un análisis más detallado, dado que constituye el primer instrumento normativo específico sobre IA en la justicia española. Publicada en el BOE bajo la referencia BOE-A-2026-2205, sus disposiciones más relevantes son [7]:
Ámbito de aplicación: la Instrucción se dirige directamente a jueces y magistrados de la carrera judicial española. No regula directamente la conducta de los abogados, procuradores ni otros operadores jurídicos. Sin embargo, como ha demostrado el TSJN, sus principios están siendo aplicados analógicamente por los tribunales para evaluar la conducta de los letrados.
Principios rectores: La Instrucción establece seis principios que deben regir el uso de IA en la actividad jurisdiccional:
- Legalidad y respeto de derechos fundamentales: todo uso de IA debe respetar los derechos y libertades fundamentales reconocidos en la Constitución.
- Supervisión humana efectiva: el juez o magistrado debe realizar una revisión completa y crítica de toda salida generada por IA.
- Transparencia: obligación de informar cuando se hayan utilizado herramientas de IA en la elaboración de resoluciones.
- No sustitución del criterio jurídico humano: la IA es una herramienta de apoyo, nunca un sustituto del razonamiento jurídico.
- Responsabilidad del profesional: quien firma la resolución es responsable de su contenido íntegro, incluidas las partes asistidas por IA.
- No discriminación: los sistemas de IA no pueden ser utilizados para perfilar personas o predecir comportamientos.
Usos permitidos: la Instrucción autoriza el uso de IA para:
- Búsqueda y localización de información jurídica (legislación, jurisprudencia, doctrina)
- Recuperación de antecedentes procesales o documentales
- Elaboración de borradores de resoluciones, siempre como instrumento de apoyo
- Análisis y sistematización de grandes volúmenes de información procesal
Usos prohibidos: queda expresamente prohibido:
- Automatizar la aplicación del Derecho a un caso concreto
- Perfilar personas o predecir su comportamiento
- Utilizar sistemas de IA no facilitados por las administraciones competentes
- Delegar en la IA la toma de decisiones judiciales
Régimen sancionador: el incumplimiento de la Instrucción puede dar lugar a responsabilidad disciplinaria conforme a la LOPJ.
Relación con el Reglamento europeo de IA (AI Act): la Instrucción 2/2026 se dictó en el contexto del Reglamento (UE) 2024/1689, conocido como AI Act, que clasifica los sistemas de IA utilizados en la administración de justicia como sistemas de «alto riesgo». Esto implica que estos sistemas deben cumplir requisitos reforzados de gestión de riesgos, calidad de datos, documentación técnica, supervisión humana y ciberseguridad.
Ley de Enjuiciamiento Criminal (LECrim)
Aunque los casos españoles documentados hasta ahora se han producido en la jurisdicción civil, social y penal, la Ley de Enjuiciamiento Criminal también contiene disposiciones relevantes:
El artículo 283 bis de la LECrim establece la obligación de veracidad en las actuaciones procesales penales. Si un abogado defensor fundamenta su recurso en jurisprudencia fabricada por IA, podría argumentarse que está obstruyendo la administración de justicia.
El artículo 536 de la LECrim regula la responsabilidad de los letrados por actuaciones procesales indebidas, incluyendo la posibilidad de multas y correcciones disciplinarias.
Cuadro resumen del marco sancionador
| Norma | Artículo | Conducta sancionada | Sanción | Requisito subjetivo |
|---|---|---|---|---|
| LEC | 247 | Mala fe procesal | Multa 180-6.000 € + costas | Negligencia suficiente |
| LOPJ | 11 | Violación buena fe procesal | Inadmisión de peticiones | Negligencia suficiente |
| Código Penal | 390 | Falsedad documental (funcionario) | Prisión 3-6 años | Dolo |
| Código Penal | 393 | Presentación documento falso en juicio | Pena inferior en grado | Dolo («a sabiendas») |
| Código Penal | 395-396 | Falsedad en documento privado / uso | Prisión 6 meses-2 años | Dolo + perjuicio a tercero |
| Código Penal | 250.1.7.º | Estafa procesal | Prisión 1-6 años + multa | Dolo + error judicial + perjuicio económico |
| Estatuto Abogacía | 42 | Falta de diligencia profesional | Apercibimiento a suspensión | Negligencia |
| Instrucción 2/2026 | Varios | Incumplimiento (jueces) | Responsabilidad disciplinaria LOPJ | Variable |
Cómo detectar documentos jurídicos generados por IA: guía técnica forense
La detección de documentos legales generados o asistidos por inteligencia artificial es una disciplina técnica emergente que combina análisis lingüístico computacional, informática forense y verificación factual. Como perito informático forense, he desarrollado una metodología estructurada que integra múltiples técnicas complementarias, consciente de que ninguna de ellas es infalible por sí sola.
Esta sección está diseñada para ofrecer tanto una visión general accesible para profesionales del Derecho como un nivel técnico suficiente para peritos informáticos y otros especialistas. La detección de contenido generado por IA es un campo en rápida evolución, y las técnicas descritas aquí reflejan el estado del arte a marzo de 2026.
Contexto técnico: cómo funcionan los modelos de lenguaje grandes (LLM)
Para comprender por qué los modelos de IA fabrican jurisprudencia y cómo podemos detectarlo, es necesario explicar —en términos accesibles— el mecanismo interno de los Large Language Models (LLM). Esta comprensión es fundamental tanto para los peritos que deben explicar sus hallazgos ante un tribunal como para los abogados que deben entender los riesgos de las herramientas que utilizan.
Arquitectura básica: el modelo transformer
Los modelos de lenguaje modernos se basan en una arquitectura denominada transformer, desarrollada por investigadores de Google en 2017. Esta arquitectura procesa el texto como una secuencia de tokens (unidades mínimas de texto, que pueden ser palabras completas, fragmentos de palabras o signos de puntuación) y calcula, para cada posición de la secuencia, la probabilidad de cada posible siguiente token.
El proceso de generación funciona así:
- El usuario introduce un prompt (instrucción o consulta), por ejemplo: «Cita jurisprudencia del Tribunal Supremo sobre responsabilidad civil extracontractual».
- El modelo tokeniza el prompt (lo convierte en una secuencia de tokens numéricos).
- Para cada nueva posición, el modelo calcula la probabilidad de cada token del vocabulario (que puede contener 30.000-100.000 tokens distintos).
- Selecciona un token según la distribución de probabilidades (normalmente el más probable, con cierta aleatoriedad controlada por un parámetro llamado «temperatura»).
- Repite el proceso para cada nueva posición, generando el texto token a token.
Lo que el modelo NO hace:
Es crucial entender lo que un LLM no hace:
No consulta bases de datos: cuando genera una cita jurisprudencial, no busca en Cendoj, Aranzadi ni ninguna otra base de datos. Genera texto que «parece» una cita basándose en los patrones aprendidos durante su entrenamiento.
No verifica la información: el modelo no tiene mecanismo alguno para comprobar si lo que genera es factualmente correcto. Solo evalúa la probabilidad estadística de las secuencias de tokens.
No «sabe» nada: a diferencia de un ser humano, el modelo no tiene conocimiento en sentido epistémico. Tiene correlaciones estadísticas entre secuencias de tokens. Cuando genera «STS 1287/2023, de 14 de marzo», no «sabe» si esa sentencia existe: genera una secuencia que es estadísticamente probable en el contexto de una cita jurisprudencial española.
No distingue verdad de ficción: el modelo genera texto igualmente fluido y coherente tanto si la información es verdadera como si es completamente inventada. La calidad estilística del texto no guarda ninguna relación con su veracidad.
El fenómeno de la alucinación: por qué ocurre en el ámbito jurídico
La alucinación se produce cuando el modelo genera información que parece factualmente correcta pero es completamente inventada. En el ámbito jurídico, esto se manifiesta en la generación de sentencias que no existen, con varios mecanismos:
Interpolación de patrones: el modelo ha procesado durante su entrenamiento miles de citas jurisprudenciales españolas y ha aprendido su formato (STS número/año, de fecha, Sala, ponente, ECLI, fundamentos de derecho). Cuando se le pide una cita, «interpola» entre los patrones conocidos para generar una nueva cita con formato correcto pero contenido inexistente.
Confabulación: el modelo genera detalles específicos (nombre del ponente, sala, materia) que son individualmente plausibles pero no corresponden a una combinación real. Un magistrado real puede estar asignado a una sala correcta, pero la sentencia específica que se le atribuye no existe.
Efecto de autoridad: cuando se le pide jurisprudencia «del Tribunal Supremo», el modelo genera citas que parecen autoritativas y definitivas, con un estilo judicial formal y fundamentos de derecho elaborados, porque ese es el patrón estadístico más probable para respuestas sobre jurisprudencia.
Sesgo de confirmación: el modelo tiende a generar citas que apoyan la posición solicitada por el usuario, porque en su corpus de entrenamiento los escritos procesales citan jurisprudencia favorable a la posición del letrado. Esto produce citas «a medida» que son exactamente lo que el abogado quiere oír, pero que no existen.
Diferencias entre modelos:
No todos los modelos de IA tienen la misma tasa de alucinación. Los factores que influyen incluyen:
| Factor | Efecto en la tasa de alucinación |
|---|---|
| Tamaño del modelo | Modelos más grandes tienden a alucinar menos, pero no se eliminan las alucinaciones |
| Fecha de corte de entrenamiento | Modelos con datos más recientes tienen menos «lagunas» en las que inventar |
| Fine-tuning jurídico | Modelos ajustados con datos jurídicos pueden ser más precisos en formato pero igualmente propensos a inventar |
| Temperatura de generación | Mayor temperatura = más creatividad = más alucinaciones |
| Instrucciones del sistema (system prompt) | Instrucciones que piden al modelo «no inventar» reducen pero no eliminan las alucinaciones |
| Retrieval-Augmented Generation (RAG) | Los sistemas RAG que consultan bases de datos reales antes de generar texto reducen significativamente las alucinaciones |
Las herramientas de IA jurídica especializada (vLex, Aranzadi, La Ley) utilizan técnicas de RAG: antes de generar una respuesta, consultan su base de datos de jurisprudencia real y enlazan cada cita a su fuente original. Esto reduce drásticamente (aunque no elimina completamente) el riesgo de alucinación.
Por qué las IA generalistas fabrican jurisprudencia
Antes de abordar las técnicas de detección, es esencial comprender el mecanismo que produce las «alucinaciones» jurídicas. Los modelos de lenguaje grandes (Large Language Models o LLM) como GPT-4, Gemini, Claude o Llama no consultan bases de datos jurídicas cuando generan texto. Su funcionamiento se basa en la predicción estadística: dado un contexto previo, el modelo calcula la probabilidad de cada posible siguiente token (palabra o fragmento de palabra) y selecciona los más probables [12].
Cuando un abogado solicita a ChatGPT «jurisprudencia del Tribunal Supremo sobre responsabilidad civil extracontractual», el modelo no realiza una búsqueda en Cendoj. En su lugar, genera texto que parece jurisprudencia real basándose en los patrones aprendidos durante su entrenamiento. El resultado puede incluir:
- Números de sentencia con formato correcto: STS 1234/2024, de 15 de marzo, porque el modelo ha aprendido el formato estándar de las sentencias del Tribunal Supremo.
- Nombres de ponentes plausibles: nombres que suenan reales y que podrían corresponder a magistrados del tribunal, pero que están asignados a salas o jurisdicciones incorrectas.
- Identificadores ECLI aparentemente válidos: con el formato ECLI:ES:TS:2024:1234, respetando la estructura pero sin correspondencia con ninguna resolución real.
- Fundamentos jurídicos coherentes: razonamientos que aplican correctamente la doctrina general pero que no corresponden a ninguna sentencia existente.
- Citas textuales entrecomilladas: pasajes que parecen transcripciones literales de fundamentos de derecho, redactados con el estilo judicial español, pero completamente inventados.
La tasa de alucinación en citas legales varía según el modelo y el contexto, pero estudios recientes la sitúan entre el 15% y el 40% cuando se solicitan sentencias específicas a modelos generalistas [12]. Esto significa que, en una solicitud de 10 sentencias, entre 2 y 4 podrían ser fabricaciones completas que, sin embargo, resultan extremadamente difíciles de distinguir de citas reales sin verificación factual.
Metodología forense de detección: las seis fases
La detección profesional de contenido jurídico generado por IA sigue una metodología estructurada en seis fases, cada una de las cuales aporta indicios complementarios. La fiabilidad del análisis aumenta exponencialmente cuando se combinan múltiples técnicas.
Fase 1: Verificación factual contra bases de datos oficiales
Esta es la primera fase —y la más determinante— del análisis pericial. Consiste en contrastar todas las citas jurisprudenciales del documento contra las bases de datos jurídicas oficiales y comerciales disponibles:
- Cendoj (Centro de Documentación Judicial del CGPJ): base de datos oficial y gratuita que contiene la jurisprudencia de todos los órganos judiciales españoles. Es la fuente de referencia primaria para la verificación.
- Aranzadi-Westlaw: base de datos jurídica comercial con jurisprudencia, legislación y doctrina. Incluye funciones de búsqueda avanzada por número de resolución, ponente, fecha y materia.
- vLex: plataforma jurídica con inteligencia artificial integrada (Vincent AI) que trabaja sobre datos verificados y enlaza cada cita a su fuente original.
- La Ley Digital (Wolters Kluwer): otra base de datos jurídica comercial de referencia en España.
- Tirant lo Blanch: plataforma jurídica con amplia cobertura de jurisprudencia española e iberoamericana.
Para cada cita, el perito verifica: (a) existencia de la sentencia con el número y fecha indicados, (b) correspondencia del ponente con la sala y la materia, (c) existencia del identificador ECLI, (d) coherencia entre el extracto citado y el texto real de la sentencia (si existe), y (e) competencia del tribunal citado sobre la materia del caso.
Tasa de efectividad: prácticamente el 100% cuando el documento cita sentencias específicas con número y fecha. Si una sentencia no aparece en ninguna base de datos oficial después de una búsqueda exhaustiva, se puede afirmar con altísima seguridad que es una fabricación.
Limitación: este método solo detecta citas de sentencias inexistentes. No detecta la utilización de IA para redactar argumentos jurídicos originales (sin citas a sentencias específicas).
Fase 2: Análisis estilométrico y lingüístico computacional
La estilometría es la disciplina que estudia los patrones cuantitativos del estilo lingüístico para atribuir autoría o detectar anomalías en la redacción. En el contexto de la detección de IA, se analizan varios indicadores estadísticos [13]:
Perplejidad (perplexity): mide lo predecible que resulta la elección de cada palabra en el texto. Los modelos de lenguaje tienden a producir texto con perplejidad baja (muy predecible), porque seleccionan las palabras estadísticamente más probables. El texto humano suele tener perplejidad más alta y variable, con saltos impredecibles entre registros, vocabulario y estructuras sintácticas.
Ráfaga (burstiness): mide la variación en la longitud de las frases y párrafos. Los humanos alternan párrafos extensos con oraciones cortísimas, reflexiones parentéticas y digresiones. Los modelos de lenguaje tienden a producir frases de longitud más uniforme, con una distribución estadísticamente más regular.
Entropía léxica: mide la riqueza y variabilidad del vocabulario utilizado. Los modelos de IA tienden a usar un vocabulario más uniforme y predecible, mientras que los textos humanos suelen presentar mayor variabilidad léxica, incluidos regionalismos, coloquialismos y términos técnicos especializados.
Distribución de conectores: los modelos de IA tienden a usar conectores lógicos (sin embargo, no obstante, por tanto, en consecuencia) con una frecuencia y distribución más regular que los textos humanos.
Patrones sintácticos: se analiza la distribución de estructuras gramaticales (oraciones subordinadas, pasivas, impersonales) y se compara con el corpus de referencia del autor conocido o del estilo judicial estándar.
Precisión estimada en textos jurídicos formales: entre el 65% y el 80%. La principal limitación es que el lenguaje jurídico formal comparte muchas características estilísticas con el texto generado por IA: formalidad, estructuras repetitivas, conectores estándar, vocabulario técnico predecible. Esto genera una alta tasa de falsos positivos (textos humanos clasificados erróneamente como IA).
Fase 3: Análisis de metadatos del documento
Todo documento digital contiene metadatos que revelan información sobre su creación, edición e historial. El análisis forense de estos metadatos puede aportar indicios valiosos sobre la intervención de herramientas de IA:
- Fecha y hora de creación vs. extensión del texto: un documento de 20 páginas creado en 15 minutos genera sospechas razonables de que no fue redactado manualmente.
- Software de creación: los metadatos del documento revelan qué aplicación se utilizó para crearlo (Microsoft Word, LibreOffice, Google Docs, etc.). Algunos usuarios copian y pegan directamente desde la interfaz de ChatGPT.
- Historial de revisiones: los documentos de Word (.docx) mantienen un registro de revisiones que puede mostrar la ausencia de ediciones sucesivas típicas de la redacción manual.
- Autor del documento vs. autor del escrito: discrepancias entre el autor registrado en los metadatos y el profesional que firma el escrito pueden indicar la intervención de terceros o herramientas automatizadas.
- Fuentes tipográficas incrustadas: el tipo y la versión de las fuentes pueden revelar información sobre el dispositivo y sistema operativo utilizados.
Herramientas utilizadas: ExifTool, FOCA (Fingerprinting Organizations with Collected Archives), OSForensics File Viewer, Apache Tika, y herramientas propias de análisis de archivos OOXML y PDF.
Fase 4: Detección de patrones de alucinación típicos
Los modelos de lenguaje presentan patrones recurrentes cuando fabrican jurisprudencia, que un analista experimentado puede identificar:
- Formato impecable pero contenido inexistente: las sentencias fabricadas por IA suelen tener un formato más «limpio» y regular que las sentencias reales, que con frecuencia contienen erratas, irregularidades de formato y digresiones.
- Fechas en días no laborables: las sentencias reales no se dictan en sábados, domingos ni festivos. Las IA pueden generar fechas que caen en días no hábiles.
- Ponentes asignados a salas incorrectas: un magistrado de la Sala Primera (Civil) no puede ser ponente de una sentencia de la Sala Segunda (Penal). Las IA no siempre respetan estas asignaciones.
- Doctrina genérica demasiado perfecta: los fundamentos jurídicos inventados por IA tienden a ser exposiciones genéricas del estado de la cuestión, sin las particularidades, matices y excepciones que caracterizan la jurisprudencia real.
- Números de sentencia secuencialmente improbables: si varias sentencias citadas tienen números consecutivos o muy próximos, esto puede indicar que fueron generadas mecánicamente.
- Ausencia de votos particulares o referencias cruzadas: la jurisprudencia real frecuentemente incluye votos particulares, remisiones a sentencias anteriores y evoluciones doctrinales. Las fabricaciones de IA tienden a ser unidades autocontenidas.
Fase 5: Herramientas automatizadas de detección de IA
Existen diversas herramientas comerciales y académicas diseñadas específicamente para detectar texto generado por inteligencia artificial. Su precisión varía según el modelo de IA utilizado, el dominio del texto y el grado de edición posterior [14]:
Herramienta Precisión general Tasa falsos positivos Precisión en textos jurídicos Coste GPTZero 99,3% (no editado) 0,24% 70-85% Freemium Originality.ai 83,0% 4,79% 75-90% Desde $14,95/mes Turnitin AI Detection ~95% ~2% 70-80% Licencia institucional Copyleaks ~90% ~3% 65-80% Desde $9,99/mes Sapling AI Detector ~85% ~5% 60-75% Freemium Writer.com AI Detector ~80% ~6% 55-70% Gratuito Clasificador OpenAI Descontinuado — — — Advertencia fundamental: estas herramientas están optimizadas para texto general en inglés. Su rendimiento en textos jurídicos formales en español es significativamente inferior, y la tasa de falsos positivos aumenta considerablemente. Ninguna de estas herramientas puede considerarse como prueba concluyente por sí sola en un procedimiento judicial.
Metodología de uso de herramientas automatizadas en el peritaje:
Cuando se utilizan herramientas automatizadas de detección de IA en un peritaje forense, es imprescindible seguir un protocolo riguroso:
a. Declaración de herramientas: el informe pericial debe identificar todas las herramientas utilizadas, sus versiones y su configuración.
b. Documentación de resultados: se deben conservar capturas de pantalla de los resultados de cada herramienta, con fecha y hora.
c. Análisis cruzado: nunca basar las conclusiones en una sola herramienta. Utilizar al menos dos herramientas independientes y comparar sus resultados.
d. Declaración de limitaciones: el informe debe incluir expresamente las limitaciones conocidas de las herramientas, especialmente su tasa de falsos positivos en textos jurídicos formales en español.
e. Contextualización: los resultados de las herramientas automatizadas deben contextualizarse siempre con los hallazgos de la verificación factual, el análisis de metadatos y el análisis de coherencia.
f. No conclusividad: el perito debe dejar claro que los resultados de las herramientas automatizadas son indicios complementarios, no evidencia concluyente.
Comparativa detallada de herramientas de detección:
Para ayudar tanto a peritos como a abogados a seleccionar la herramienta más adecuada para cada situación, se presenta una comparativa más detallada:
GPTZero: es actualmente la herramienta de referencia en el mercado de detección de IA. Utiliza un enfoque basado en perplejidad y burstiness, combinado con modelos de clasificación propios. Su principal ventaja es la baja tasa de falsos positivos (0,24%), lo que la hace adecuada para contextos donde un falso positivo podría tener consecuencias graves (como un procedimiento judicial). Su principal limitación es que su rendimiento desciende significativamente en textos cortos (menos de 250 palabras) y en textos muy editados tras la generación.
Originality.ai: se posiciona como una herramienta más agresiva, con un umbral de detección más bajo que produce más detecciones positivas pero también más falsos positivos (4,79%). Puede ser útil como herramienta de cribado inicial, pero sus resultados deben verificarse con una segunda herramienta antes de extraer conclusiones. Es la herramienta preferida en contextos de detección de plagio académico.
Turnitin AI Detection: integrada en la plataforma académica Turnitin, esta herramienta tiene acceso a un corpus masivo de textos académicos que le permite contextualizar mejor sus detecciones. Sin embargo, su acceso está limitado a instituciones con licencia Turnitin, lo que la hace menos accesible para uso forense individual. Su rendimiento en textos jurídicos no ha sido evaluado de forma independiente.
Herramientas de análisis lingüístico personalizado (Python): para análisis forenses que requieran un nivel de profundidad superior al que ofrecen las herramientas comerciales, se pueden desarrollar herramientas personalizadas utilizando bibliotecas de procesamiento de lenguaje natural como NLTK (Natural Language Toolkit) y spaCy. Estas herramientas permiten calcular métricas lingüísticas específicas (perplejidad por párrafo, distribución de conectores, análisis de n-gramas) y compararlas con corpus de referencia específicos del dominio jurídico español. Su principal ventaja es la adaptabilidad; su principal limitación es que requieren conocimientos técnicos avanzados en lingüística computacional y programación.
Fase 6: Análisis de coherencia interna y contextual
La última fase del análisis pericial integra los hallazgos de todas las fases anteriores y añade una verificación de coherencia global:
- Coherencia temática: ¿las sentencias citadas son relevantes para la materia del procedimiento? Las IA a veces generan citas de jurisdicciones o materias incorrectas.
- Coherencia temporal: ¿las fechas de las sentencias son cronológicamente coherentes? ¿Se cita jurisprudencia posterior a la fecha del escrito?
- Coherencia competencial: ¿los tribunales citados tienen competencia sobre la materia? ¿Se citan sentencias del Tribunal Supremo en materias de competencia autonómica?
- Evolución doctrinal: ¿la doctrina citada refleja la evolución real de la jurisprudencia sobre la materia, o es una exposición genérica sin matices temporales?
- Contraste con el estilo habitual del letrado: si se dispone de escritos anteriores del mismo profesional, se puede realizar un análisis comparativo estilométrico para detectar cambios bruscos en el estilo de redacción.
Limitaciones de la detección y falsos positivos
Ninguna herramienta de detección de IA es infalible
Es fundamental que tanto los tribunales como los profesionales del Derecho comprendan las limitaciones actuales de las técnicas de detección de contenido generado por IA:
- Los textos jurídicos formales son inherentemente difíciles de clasificar porque comparten características estilísticas con el texto generado por IA: lenguaje formal, estructuras repetitivas, conectores estándar, vocabulario técnico predecible.
- Los falsos positivos son un riesgo real: un abogado con buen estilo de redacción puede ver su trabajo clasificado erróneamente como generado por IA. El caso de «Cien años de soledad» de García Márquez, clasificado como texto de IA por varios detectores, ilustra este problema [13].
- La edición humana reduce la detectabilidad: si un abogado utiliza IA para generar un borrador y luego lo edita extensamente, las herramientas de detección tienen una precisión significativamente menor.
- Los modelos de IA mejoran continuamente: cada nueva versión de los modelos de lenguaje produce texto más difícil de distinguir del texto humano, lo que significa que las herramientas de detección entran en una «carrera armamentística» permanente.
Por todas estas razones, la verificación factual —comprobar que las sentencias citadas existen realmente en las bases de datos oficiales— sigue siendo el método más fiable y el único que puede considerarse concluyente en un procedimiento judicial. Un peritaje informático profesional nunca se basa exclusivamente en herramientas automatizadas de detección de IA.
IA jurídica especializada vs. IA generalista
La distinción entre herramientas de IA jurídica especializada y herramientas de IA generalista es crucial para entender por qué se producen las alucinaciones y cómo prevenirlas:
| Característica | IA generalista (ChatGPT, Gemini, Claude) | IA jurídica (vLex Vincent, Aranzadi, La Ley) |
|---|---|---|
| Fuente de datos | Corpus general de internet (Common Crawl, Wikipedia, libros, webs) | Bases de datos jurídicas verificadas y actualizadas |
| Mecanismo de generación | Predicción estadística de tokens | Búsqueda en datos reales + generación asistida |
| Verificación de citas | No (genera texto que «parece» real) | Sí (enlaza cada cita a la fuente original) |
| Riesgo de alucinación en citas | Alto (15-40% en solicitudes de jurisprudencia) | Bajo (consulta datos reales verificados) |
| Actualización de datos | Hasta la fecha de corte del modelo (meses de retraso) | Actualización continua o cuasi-continua |
| Trazabilidad | No proporciona fuentes verificables | Incluye enlaces a la resolución completa |
| Coste mensual | 20-25 euros (versión premium) | 50-150 euros |
| Responsabilidad | Exclusiva del usuario que no verifica | Compartida (posible producto defectuoso) |
| Cobertura jurisdiccional | Global pero superficial | Específica y profunda |
| Supervisión humana | Imprescindible para toda salida | Recomendable pero riesgo menor |
El coste diferencial entre ambos tipos de herramientas es mínimo en comparación con las consecuencias de una sanción. Como calculó el propio TSJC de Canarias, un abogado que utiliza IA generalista en lugar de herramientas jurídicas especializadas «ahorra» aproximadamente 840 euros anuales —la cantidad que inspiró la cuantía de la multa de 420 euros—.
Técnicas avanzadas de detección: análisis de perplejidad y burstiness en profundidad
Para los profesionales que necesitan comprender con mayor profundidad las técnicas de detección lingüística, esta sección ofrece un análisis técnico detallado de los dos indicadores estadísticos más relevantes: la perplejidad y el burstiness (ráfaga). Estos conceptos, procedentes de la teoría de la información y la lingüística computacional, son la base teórica sobre la que operan las herramientas de detección de contenido generado por IA.
Perplejidad (Perplexity): la predecibilidad como indicador
La perplejidad es una métrica que cuantifica cuánta «sorpresa» genera un texto dado un modelo de lenguaje determinado. Técnicamente, es la exponencial de la entropía cruzada entre la distribución de probabilidad real del texto y la distribución predicha por el modelo. En términos más accesibles: mide lo predecible que resulta cada palabra del texto en función de las palabras que la preceden.
Un modelo de lenguaje como GPT-4 genera texto seleccionando, para cada posición, la palabra (o token) más probable según su distribución de probabilidades aprendida. El resultado es texto con perplejidad baja: cada palabra es la continuación «esperable» de la anterior. Los textos humanos, por el contrario, suelen tener perplejidad más alta y variable, porque los humanos:
- Hacen saltos inesperados entre ideas.
- Usan vocabulario más diverso e impredecible.
- Introducen digresiones, matices y reflexiones parentéticas.
- Cometen erratas y errores gramaticales ocasionales.
- Alternan registros (formal, coloquial, técnico) de forma natural.
- Expresan opiniones personales con formulaciones únicas.
Los detectores de IA como GPTZero calculan la perplejidad del texto analizado y la comparan con los rangos típicos de texto humano y texto generado por IA. Si la perplejidad es consistentemente baja a lo largo de todo el texto, esto sugiere generación automática.
Sin embargo, hay una limitación crucial en el contexto jurídico: el lenguaje jurídico formal tiene inherentemente una perplejidad baja, porque utiliza fórmulas estereotipadas, conectores predecibles, vocabulario técnico estandarizado y estructuras sintácticas repetitivas. Un escrito procesal redactado por un letrado experimentado puede tener una perplejidad similar a la de un texto generado por IA, simplemente porque el lenguaje jurídico es, por naturaleza, predecible y formalizado. Esto explica la alta tasa de falsos positivos de los detectores de IA en textos jurídicos.
Burstiness (Ráfaga): la variación como indicador
El burstiness mide la variación en la longitud de las frases y en la complejidad sintáctica a lo largo del texto. El concepto se basa en una observación empírica bien documentada: los textos humanos presentan una distribución «en ráfagas» (bursty), con alternancia entre segmentos largos y complejos y segmentos cortos y simples. Los modelos de IA, en cambio, tienden a producir frases de longitud más uniforme.
Un escritor humano puede comenzar un párrafo con una frase de 40 palabras, seguir con una de 5, luego una de 25, después una de 8 y cerrar con una de 35. Esta irregularidad es característica del pensamiento humano, que procesa ideas de complejidad variable y las expresa con longitudes proporcionales. Los modelos de IA, al optimizar la coherencia estadística del texto, tienden a producir frases de longitud más homogénea, con menor varianza en la distribución de longitudes.
Al igual que ocurre con la perplejidad, esta métrica tiene limitaciones en el contexto jurídico: los escritos procesales tienden a tener un burstiness bajo incluso cuando son redactados por humanos, porque el estilo judicial es estructurado y regular.
Entropía léxica: riqueza de vocabulario
La entropía léxica mide la diversidad y distribución del vocabulario utilizado en un texto. Se calcula como la entropía de Shannon de la distribución de frecuencias de las palabras: cuantas más palabras distintas se utilicen y más equilibrada sea su frecuencia de uso, mayor será la entropía léxica.
Los modelos de IA tienden a producir texto con una entropía léxica específica: utilizan un vocabulario amplio pero previsible, con una distribución de frecuencias más regular que la del texto humano. Los textos humanos suelen presentar «picos» de vocabulario especializado, repeticiones estilísticas deliberadas, regionalismos, neologismos y expresiones idiomáticas que los modelos de IA reproducen con menor frecuencia y naturalidad.
En textos jurídicos, la entropía léxica es moderadamente baja por la propia naturaleza del campo: el vocabulario jurídico está estandarizado y los profesionales tienden a reutilizar las mismas fórmulas y expresiones. Esto complica aún más la diferenciación entre texto humano y texto generado por IA.
Análisis combinado: el enfoque multimodal
La estrategia más efectiva para la detección lingüística de contenido generado por IA es el análisis multimodal, que combina múltiples indicadores estadísticos y los evalúa de forma conjunta. En lugar de depender de un solo indicador (perplejidad baja = IA), se construye un perfil lingüístico completo del texto y se compara con los perfiles típicos de textos humanos y textos generados por IA en el mismo dominio (en este caso, el jurídico).
Los parámetros que se analizan en un enfoque multimodal incluyen:
| Parámetro | Descripción | Peso en la detección |
|---|---|---|
| Perplejidad media | Predecibilidad global del texto | Alto |
| Varianza de perplejidad | Irregularidad en la predecibilidad | Alto |
| Burstiness | Variación en longitud de frases | Medio-alto |
| Entropía léxica | Diversidad del vocabulario | Medio |
| Distribución de conectores | Frecuencia y patrón de conectores lógicos | Medio |
| Longitud media de frases | Extensión promedio de las oraciones | Bajo-medio |
| Ratio de subordinadas | Proporción de oraciones subordinadas | Bajo-medio |
| Uso de voz pasiva | Frecuencia de construcciones pasivas | Bajo |
| Frecuencia de adverbios | Patrón de uso de adverbios | Bajo |
| Patrones de puntuación | Distribución de signos de puntuación | Bajo |
| Consistencia estilística | Uniformidad del estilo a lo largo del texto | Alto |
| Marcadores de autoría | Rasgos idiolectales específicos del supuesto autor | Alto (si hay corpus de referencia) |
El análisis combinado de estos parámetros, realizado por un perito con experiencia en lingüística computacional, puede alcanzar tasas de precisión significativamente superiores a las de las herramientas automatizadas utilizadas de forma aislada. Sin embargo, incluso el análisis multimodal más sofisticado no puede alcanzar la certeza que proporciona la verificación factual de las citas contra bases de datos oficiales.
Watermarking: marcas de agua digitales para texto generado por IA
Una de las tecnologías más prometedoras para la detección de contenido generado por IA es el watermarking o marcado de agua digital. Esta técnica, desarrollada inicialmente por investigadores de la Universidad de Maryland y posteriormente adoptada por empresas como Google DeepMind (con su sistema SynthID), consiste en embeber señales estadísticas invisibles en el texto durante el proceso de generación.
Cómo funciona el watermarking de texto:
El watermarking de texto funciona modificando ligeramente la distribución de probabilidades durante la generación. En lugar de seleccionar tokens de forma puramente estadística, el modelo aplica una función criptográfica que sesga la selección hacia determinados tokens «verdes» (marcados) y aleja de otros tokens «rojos» (no marcados). El resultado es texto que parece idéntico al texto sin marcar para un lector humano, pero que contiene una señal estadística detectable por un verificador que conozca la clave criptográfica.
Ventajas del watermarking:
- Puede ser prácticamente invisible para el lector humano.
- La detección es rápida y automatizable.
- No requiere análisis lingüístico complejo.
- Puede ser implementado por los propios proveedores de IA.
Limitaciones del watermarking:
- Solo funciona si el proveedor de IA lo implementa voluntariamente.
- Las marcas de agua pueden eliminarse mediante parafraseo, traducción o edición extensiva del texto.
- No es retroactivo: no puede aplicarse a texto ya generado sin watermark.
- Requiere cooperación internacional entre proveedores de IA.
- El texto generado por modelos de código abierto (como Llama o Mistral) puede no tener watermark.
- En marzo de 2026, ningún proveedor principal ha implementado watermarking obligatorio en sus herramientas de IA generalista.
Perspectivas regulatorias: El Reglamento europeo de IA (AI Act) contempla la posibilidad de exigir watermarking a los proveedores de sistemas de IA generativa. Si esta obligación se materializa, podría transformar radicalmente la detección de contenido generado por IA en todos los ámbitos, incluido el jurídico. Sin embargo, los expertos coinciden en que el watermarking no será una solución completa por sí solo, y deberá complementarse con las técnicas de detección lingüística y verificación factual descritas en este artículo.
Detección específica de alucinaciones jurídicas: patrones avanzados
Más allá de las técnicas genéricas de detección de IA, existen patrones específicos que un perito experimentado en el ámbito jurídico puede identificar al examinar citas jurisprudenciales sospechosas. Estos patrones se derivan de las peculiaridades de los modelos de lenguaje cuando intentan generar jurisprudencia española:
Patrón 1: Mezcla de jurisdicciones y competencias
Los modelos de IA pueden confundir las competencias de las diferentes salas de los tribunales. Por ejemplo, pueden atribuir a la Sala Primera (Civil) del Tribunal Supremo una sentencia sobre una materia que corresponde a la Sala Segunda (Penal) o a la Sala Tercera (Contencioso-Administrativo). También pueden generar sentencias de tribunales autonómicos en materias de competencia estatal exclusiva, o viceversa.
Señales de alerta:
- Un magistrado de la Sala de lo Civil aparece como ponente en una sentencia penal.
- Un Tribunal Superior de Justicia dicta jurisprudencia sobre una materia reservada al Tribunal Supremo.
- Se cita al Tribunal Constitucional pronunciándose sobre cuestiones de legalidad ordinaria.
- Se mezclan nomenclaturas de diferentes jurisdicciones (civil, penal, contencioso-administrativa, social).
Patrón 2: Anacronismos legislativos
Los modelos de IA pueden citar normativa derogada o posterior a la fecha de la supuesta sentencia. Por ejemplo, pueden generar una sentencia de 2015 que cite una ley de 2018, o una sentencia que aplique una norma derogada como si estuviera vigente.
Señales de alerta:
- La sentencia cita normativa publicada después de su propia fecha.
- Se aplica una ley derogada sin mencionar su derogación.
- Se hace referencia a instituciones jurídicas que no existían en la fecha de la sentencia.
- Se cita jurisprudencia del Tribunal Supremo anterior a la creación del propio tribunal (1812).
Patrón 3: Estilo «demasiado perfecto»
Las sentencias reales de los tribunales españoles no son textos perfectos. Contienen erratas tipográficas, inconsistencias menores de formato, abreviaturas no estándar, digresiones del ponente, citas textuales con errores de transcripción y, en ocasiones, razonamientos circulares o contradictorios. Los modelos de IA producen texto «limpio» y estilísticamente uniforme, que paradójicamente resulta sospechoso por su excesiva pulcritud.
Señales de alerta:
- Ausencia total de erratas en un texto extenso.
- Estilo uniforme a lo largo de toda la sentencia (sin la variación natural entre fundamentos).
- Formato perfectamente coherente en todas las citas.
- Razonamientos excesivamente lineales y lógicos (las sentencias reales a menudo contienen digresiones).
Patrón 4: Fundamentos jurídicos genéricos
Las sentencias reales resuelven casos concretos con circunstancias específicas. Los modelos de IA, al carecer de datos sobre el caso concreto, tienden a generar fundamentos jurídicos genéricos: exposiciones del estado de la cuestión que podrían aplicarse a cualquier caso de la misma materia, sin las particularidades, matices y excepciones que caracterizan la jurisprudencia real.
Señales de alerta:
- Los fundamentos de derecho parecen un manual teórico en lugar de una resolución de un caso concreto.
- Ausencia de referencias a las circunstancias fácticas del supuesto caso resuelto.
- Falta de votos particulares o referencias a doctrinas minoritarias.
- Ausencia de evolución doctrinal (la sentencia no menciona cambios de criterio o matizaciones).
Patrón 5: Números de sentencia estadísticamente improbables
Si un escrito cita múltiples sentencias del mismo tribunal en un período temporal estrecho, y los números de resolución son secuencialmente próximos o siguen un patrón aritmético regular, esto puede indicar generación mecánica.
Señales de alerta:
- Múltiples sentencias con números consecutivos (STS 1234/2024, STS 1235/2024, STS 1236/2024).
- Números de sentencia que siguen un patrón aritmético (STS 100/2024, STS 200/2024, STS 300/2024).
- Concentración de sentencias en fechas muy próximas o idénticas.
- Números de sentencia que exceden la producción real del tribunal en ese período.
Patrón 6: Identificadores ECLI con estructura incorrecta
Los identificadores ECLI (European Case Law Identifier) siguen un formato estricto: ECLI:ES:[código tribunal]:[año]:[número]. Los modelos de IA pueden generar identificadores con la estructura general correcta pero con códigos de tribunal inexistentes, años futuros, o números que no corresponden a ninguna resolución real.
Señales de alerta:
- Código de tribunal inexistente en el identificador ECLI.
- Número ECLI que no corresponde a ninguna resolución en la base de datos EUR-Lex o Cendoj.
- Estructura del ECLI que no se ajusta exactamente al formato español.
- Mezcla de formatos ECLI de diferentes jurisdicciones (español, europeo, latinoamericano).
Análisis forense de metadatos documentales
El análisis forense de metadatos es una de las técnicas más valiosas para investigar documentos sospechosos de haber sido generados o asistidos por inteligencia artificial. Como perito informático forense, utilizo esta técnica rutinariamente en mis investigaciones, y su importancia crece a medida que las herramientas de detección lingüística se vuelven menos fiables frente a modelos de IA cada vez más sofisticados.
Qué son los metadatos documentales
Los metadatos son datos sobre datos: información técnica embebida en los archivos digitales que describe sus propiedades de creación, edición y almacenamiento. Un documento de Word (.docx) o un PDF pueden contener decenas de campos de metadatos que revelan información crucial sobre su origen y manipulación [15].
Los metadatos documentales se clasifican en varias categorías:
- Metadatos de creación: fecha y hora de creación, software utilizado, sistema operativo, nombre del autor registrado, idioma del documento, versión de la aplicación.
- Metadatos de edición: fecha de última modificación, tiempo total de edición, número de revisiones, historial de cambios, contribuidores.
- Metadatos de contenido: número de páginas, palabras, caracteres, párrafos, títulos, fuentes tipográficas utilizadas.
- Metadatos de impresión: fecha de última impresión, número de copias impresas.
- Metadatos ocultos: comentarios eliminados pero no purgados, texto oculto, versiones anteriores embebidas, datos de formularios, hipervínculos, rutas de archivo del autor.
Análisis forense de documentos Word (OOXML)
Los documentos de Microsoft Word con formato .docx utilizan el estándar Office Open XML (OOXML), que es en realidad un archivo ZIP que contiene múltiples archivos XML organizados en una estructura de carpetas. Este formato es extraordinariamente rico en información forense [15].
Estructura interna de un archivo .docx:
documento.docx (archivo ZIP)
├── [Content_Types].xml → Tipos de contenido del documento
├── _rels/
│ └── .rels → Relaciones entre componentes
├── word/
│ ├── document.xml → Contenido principal del documento
│ ├── styles.xml → Estilos aplicados
│ ├── fontTable.xml → Tabla de fuentes utilizadas
│ ├── settings.xml → Configuración del documento
│ ├── webSettings.xml → Configuración web
│ ├── footnotes.xml → Notas al pie
│ ├── endnotes.xml → Notas finales
│ ├── comments.xml → Comentarios
│ ├── numbering.xml → Numeración y listas
│ └── media/ → Imágenes y multimedia embebidos
│ ├── image1.png
│ └── image2.jpeg
├── docProps/
│ ├── core.xml → Metadatos principales (autor, fechas, título)
│ └── app.xml → Metadatos de aplicación (versión Word, estadísticas)Indicadores forenses clave en documentos Word:
| Indicador | Qué revela | Relevancia para detección de IA |
|---|---|---|
dcterms:created en core.xml | Fecha/hora exacta de creación | Si el documento se creó muy poco antes de su presentación, puede indicar generación rápida por IA |
dcterms:modified en core.xml | Última modificación | Diferencia mínima entre creación y modificación sugiere poca edición humana |
cp:revision en core.xml | Número de revisiones guardadas | Un documento con pocas revisiones para su extensión es sospechoso |
ns0:TotalTime en app.xml | Tiempo total de edición (minutos) | Un documento de 30 páginas con 10 minutos de edición es altamente sospechoso |
ns0:Application en app.xml | Aplicación utilizada | Identifica la herramienta de creación |
ns0:AppVersion en app.xml | Versión de la aplicación | Complementa la información de la herramienta |
dc:creator en core.xml | Autor registrado | Discrepancias con el firmante del escrito |
cp:lastModifiedBy en core.xml | Último editor | Puede revelar colaboradores no declarados |
Fuentes en fontTable.xml | Fuentes tipográficas utilizadas | Fuentes inusuales pueden indicar copiar-pegar desde web |
Comentarios en comments.xml | Comentarios (incluso eliminados) | Pueden contener instrucciones de prompt o notas sobre IA |
Procedimiento de extracción: para examinar la estructura interna de un archivo .docx, el perito puede:
- Renombrar la extensión de .docx a .zip
- Descomprimir el archivo con cualquier herramienta ZIP
- Examinar los archivos XML individuales con un editor de texto o herramientas especializadas
- Utilizar ExifTool para extraer metadatos de forma automatizada
- Emplear FOCA para un análisis más profundo de metadatos ocultos
Análisis forense de documentos PDF
Los documentos PDF presentan su propia estructura de metadatos, que también puede aportar indicios valiosos:
- Diccionario Info: contiene campos como Author, Creator, Producer, CreationDate, ModDate, Title, Subject, Keywords.
- Flujos XMP (Extensible Metadata Platform): estándar de Adobe para metadatos enriquecidos, que puede incluir historial de edición detallado.
- Análisis de capas: los PDFs pueden contener capas ocultas con información adicional.
- Firmas digitales: si el documento está firmado digitalmente, la firma puede aportar información sobre la cadena de custodia.
- Fuentes embebidas: las fuentes tipográficas incrustadas en el PDF revelan información sobre el sistema y la aplicación utilizados para generar el documento.
Herramientas especializadas para análisis de PDF:
| Herramienta | Función | Tipo |
|---|---|---|
| ExifTool | Extracción exhaustiva de metadatos | Línea de comandos, multiplataforma |
| pdfinfo (Poppler) | Información básica del PDF | Línea de comandos, libre |
| QPDF | Análisis de estructura interna del PDF | Línea de comandos, libre |
| pdf-parser (Didier Stevens) | Análisis forense profundo | Python, libre |
| Origami | Análisis de seguridad y estructura PDF | Ruby, libre |
| FOCA | Análisis de metadatos con detección de información sensible | Windows, libre |
| Apache Tika | Extracción de texto y metadatos multiformat | Java, libre |
Cadena de custodia digital
Cualquier análisis forense de metadatos debe realizarse respetando la cadena de custodia digital, para garantizar la validez probatoria del informe pericial:
Adquisición forense del documento original Se obtiene una copia bit a bit del documento original, garantizando que no se modifica el archivo fuente. Se calcula y registra el hash criptográfico (SHA-256) del documento para demostrar su integridad.
Preservación en soporte seguro La copia forense se almacena en un soporte protegido contra escritura, debidamente etiquetado y documentado. Se registra la cadena de custodia con fechas, horas, responsables y ubicaciones.
Análisis sobre copia de trabajo El examen pericial se realiza siempre sobre una segunda copia (copia de trabajo), nunca sobre el original ni sobre la copia forense. Cualquier herramienta utilizada se ejecuta sobre esta copia de trabajo.
Documentación exhaustiva del proceso Cada paso del análisis se documenta con capturas de pantalla, registros de herramientas, timestamps y resultados. El perito registra las versiones de las herramientas utilizadas y su configuración.
Verificación de integridad post-análisis Tras completar el examen, se recalcula el hash del documento original para confirmar que no ha sido alterado durante el proceso.
Emisión del informe pericial El informe pericial documenta la metodología empleada conforme a ISO 27037 (directrices para la identificación, recogida, adquisición y preservación de la evidencia digital), incluyendo todos los hallazgos, las herramientas utilizadas y las conclusiones técnicas.
Caso práctico: señales de alerta en un documento sospechoso
Para ilustrar cómo funciona el análisis forense de metadatos en la práctica, considérese el siguiente escenario hipotético (basado en patrones observados en casos reales):
Un abogado presenta un recurso de apelación de 25 páginas con 12 citas jurisprudenciales. El análisis forense de los metadatos del documento Word revela:
| Metadato | Valor encontrado | Valor esperado | Interpretación |
|---|---|---|---|
| Tiempo total de edición | 18 minutos | 4-8 horas (para 25 páginas técnicas) | Altamente sospechoso: insuficiente para redacción manual |
| Número de revisiones | 2 | 15-30+ (múltiples borradores) | Sospechoso: casi ninguna edición iterativa |
| Diferencia creación-modificación | 22 minutos | Varios días (redacción + revisión) | Altamente sospechoso: generación casi instantánea |
| Fuentes tipográficas | Calibri 11pt (únicamente) | Mezcla de fuentes por copiar-pegar de fuentes diversas | Neutral: compatible con redacción en Word |
| Comentarios | Ninguno | Habituales en borradores revisados | Ligeramente sospechoso: ausencia de proceso de revisión |
Estas señales, combinadas con la verificación factual de las 12 citas contra Cendoj (de las cuales 8 resultan ser inexistentes), permiten al perito concluir con alto grado de certeza que el documento fue generado con asistencia sustancial de una herramienta de IA y no fue sometido a una verificación adecuada.
Análisis avanzado de documentos generados desde la interfaz web de ChatGPT
Cuando un usuario genera texto desde la interfaz web de ChatGPT y lo copia en un documento de Word, el proceso deja huellas digitales específicas que un perito puede identificar:
Indicadores de copiar-pegar desde la web:
Formato de texto enriquecido (RTF/HTML): al copiar texto desde un navegador y pegarlo en Word, se transfieren estilos HTML que pueden detectarse en el XML subyacente del documento .docx. Los estilos web copian propiedades CSS como
font-family,font-size,line-heightycolorque difieren de los estilos nativos de Word.Fuentes tipográficas web: la interfaz de ChatGPT utiliza fuentes específicas (como Söhne o variantes de la familia Inter/Source Sans). Si estas fuentes aparecen referenciadas en el
fontTable.xmldel documento, es un indicio de que texto fue copiado desde la interfaz web del chatbot.Patrones de salto de línea: los saltos de línea generados por la interfaz web de ChatGPT tienen una codificación específica que difiere de los saltos de línea nativos de Word. Un análisis hexadecimal del documento puede revelar estas diferencias.
Historial de portapapeles: en sistemas Windows, el historial del portapapeles (clipboard history) puede conservar los fragmentos de texto copiados, incluyendo la fuente web de origen. Si se tiene acceso al dispositivo, este historial puede ser una evidencia directa.
Caché del navegador: los navegadores web almacenan en su caché las páginas visitadas, incluyendo las conversaciones con ChatGPT. Un análisis forense del navegador puede recuperar el historial de conversaciones, los prompts utilizados y las respuestas recibidas, constituyendo evidencia directa del uso de la herramienta.
Indicadores de uso de la API de ChatGPT:
Los usuarios más sofisticados pueden acceder a la API de OpenAI en lugar de la interfaz web, lo que elimina algunos de los indicadores anteriores. Sin embargo, el análisis del dispositivo puede revelar:
- Tokens de API almacenados en archivos de configuración o variables de entorno.
- Registros de solicitudes HTTP a los endpoints de la API de OpenAI.
- Scripts o programas que automatizan las solicitudes a la API.
- Historial de facturación de OpenAI vinculado a la cuenta del usuario.
Indicadores de uso de otros modelos de IA:
Cada proveedor de IA (Google Gemini, Anthropic Claude, Meta Llama) tiene sus propias características de interfaz y formato de salida, que pueden ser identificadas mediante un análisis comparativo. Además, los modelos de código abierto ejecutados localmente (como Llama o Mistral) pueden dejar rastros en el historial de comandos del sistema operativo, los logs de la aplicación y los archivos temporales.
Análisis forense de conversaciones con chatbots de IA
Un nivel adicional de investigación forense implica el análisis de las propias conversaciones del usuario con las herramientas de IA. Este análisis requiere acceso al dispositivo del usuario (ordenador, teléfono móvil, tableta) y puede realizarse mediante:
Fuentes de evidencia de conversaciones con IA:
| Fuente | Tipo de dato | Ubicación típica | Persistencia |
|---|---|---|---|
| Historial de navegador | URLs de conversaciones, caché | ~/.mozilla/firefox/, %LOCALAPPDATA%\Google\Chrome\ | Alta (meses-años) |
| Cookies | Tokens de sesión, identificadores | Base de datos de cookies del navegador | Media (semanas-meses) |
| IndexedDB/localStorage | Datos de la aplicación web | Almacenamiento local del navegador | Alta |
| Cuenta de OpenAI/Google | Historial completo de conversaciones | Servidores del proveedor (accesible via cuenta) | Muy alta |
| Capturas de pantalla | Imágenes de conversaciones | Directorio de imágenes del sistema | Variable |
| Portapapeles | Textos copiados | Historial del portapapeles (Windows 10+) | Baja (se sobrescribe) |
| Aplicaciones de escritorio | Registros de la app de ChatGPT | Directorio de la aplicación | Media |
| Archivos temporales | Borradores, caché | Directorio temporal del sistema | Baja |
| Registros de red | Solicitudes a APIs de IA | Logs del router/proxy, herramientas de captura | Variable |
Procedimiento forense para la adquisición de conversaciones:
El acceso a estas fuentes de evidencia requiere autorización judicial (generalmente mediante auto de registro o mandamiento de entrada y registro) y debe realizarse respetando escrupulosamente la cadena de custodia y los derechos fundamentales del investigado. El perito informático debe:
- Obtener la autorización judicial correspondiente antes de acceder al dispositivo.
- Realizar una imagen forense completa del dispositivo (disco duro, SSD, memoria del teléfono) antes de cualquier análisis.
- Documentar cada paso del proceso con timestamps, capturas y registros.
- Utilizar herramientas forenses validadas y reconocidas por los tribunales (FTK Imager, EnCase, Autopsy, Cellebrite para dispositivos móviles).
- Preservar la integridad de la evidencia mediante hashes criptográficos.
- Limitar el análisis al alcance de la autorización judicial, sin examinar datos ajenos al objeto de la investigación.
Análisis forense de documentos en formato PDF generados desde herramientas de IA
Los documentos PDF generados directamente desde herramientas de IA (por ejemplo, mediante la función «Export to PDF» de ChatGPT) presentan características específicas:
Productor (Producer): el campo
Producerdel diccionario Info del PDF puede revelar la herramienta utilizada para generarlo. Si un PDF fue generado directamente desde la interfaz web de ChatGPT, el campo Producer puede indicar el motor de renderizado del navegador (por ejemplo, «Chrome PDF Plugin» o «wkhtmltopdf»).Creador (Creator): el campo
Creatorpuede indicar la aplicación o servicio que generó el contenido original.Marcas temporales: las fechas de creación y modificación del PDF, combinadas con su extensión, pueden revelar velocidades de generación incompatibles con la redacción manual.
Estructura interna: los PDFs generados desde herramientas web tienen una estructura diferente a los generados desde procesadores de texto como Word o LibreOffice. Un perito experimentado puede identificar estas diferencias examinando los objetos internos del PDF con herramientas como
pdf-parserde Didier Stevens.Fuentes embebidas: las fuentes tipográficas embebidas en el PDF revelan el entorno de generación. Las fuentes web (como las utilizadas por la interfaz de ChatGPT) difieren de las fuentes de sistema embebidas por Word o LibreOffice.
Técnicas anti-forenses y sus contramedidas
Algunos usuarios más sofisticados pueden intentar borrar las huellas del uso de IA mediante técnicas anti-forenses:
Técnicas anti-forenses comunes:
Borrado del historial de navegación: eliminar las visitas a sitios de IA. Contramedida: análisis forense del disco duro para recuperar datos eliminados (los datos borrados permanecen en el disco hasta que son sobrescritos).
Uso de modo incógnito: navegar en modo privado para no dejar rastro en el historial. Contramedida: los modos incógnito no eliminan todos los rastros; los registros DNS, los logs del router y las conexiones de red pueden revelar las URLs visitadas.
Parafraseo extensivo: reescribir el texto generado por IA para evadir las herramientas de detección lingüística. Contramedida: la verificación factual de las citas sigue siendo efectiva independientemente del grado de parafraseo.
Uso de VPN: ocultar la dirección IP al acceder a servicios de IA. Contramedida: las VPN no eliminan los rastros en el dispositivo local (caché, historial, archivos temporales).
Eliminación de metadatos: utilizar herramientas para eliminar los metadatos del documento antes de presentarlo. Contramedida: la eliminación de metadatos puede ser en sí misma un indicio de manipulación; además, algunos metadatos persisten incluso tras la «limpieza», y la verificación factual de citas es independiente de los metadatos.
Uso de modelos de IA locales: ejecutar modelos de código abierto en el propio equipo para evitar registros en servidores de terceros. Contramedida: los modelos locales dejan rastros en el sistema (archivos de modelo, logs de ejecución, historial de comandos) que un análisis forense puede detectar.
Advertencia: las técnicas anti-forenses no eliminan la responsabilidad
Intentar ocultar el uso de IA para fabricar jurisprudencia no solo no elimina la responsabilidad del profesional, sino que puede agravarla significativamente. Si un tribunal descubre que un abogado no solo presentó citas falsas sino que además intentó borrar las pruebas del uso de IA, la conducta pasaría de la negligencia al dolo, activando potencialmente la responsabilidad penal (arts. 393, 396 y 250.1.7.º del Código Penal). La transparencia y la honestidad —como demostró el caso del TSJC de Canarias, donde el reconocimiento atenuó la sanción— son siempre la mejor estrategia.
Casos reales en España y el mundo: análisis detallado
La recopilación y análisis de casos reales es fundamental para comprender la magnitud del fenómeno, sus patrones recurrentes y las tendencias en la respuesta judicial. La base de datos más completa de estos incidentes, mantenida por el investigador Damien Charlotin, documenta más de 100 casos a nivel mundial a marzo de 2026 [3]. A continuación, se presentan los más significativos, organizados cronológicamente y analizados en detalle.
Nota sobre la selección de casos
Los casos presentados en esta sección han sido seleccionados por su relevancia jurídica, su impacto mediático o su valor didáctico. Representan una muestra de los más de 100 casos documentados a nivel mundial. Para cada caso se indica la fuente de verificación cuando está disponible. Los datos se presentan con la máxima precisión posible a partir de las fuentes públicas consultadas, reconociendo que algunos detalles pueden no ser completamente exactos por la naturaleza fragmentaria de la información disponible.
Caso 1: Mata v. Avianca — Estados Unidos (junio 2023)
Datos del caso:
- Tribunal: United States District Court, Southern District of New York
- Juez: Hon. P. Kevin Castel
- Abogados sancionados: Steven A. Schwartz y Peter LoDuca (Levidow, Levidow & Oberman P.C.)
- Número de citas falsas: 6 sentencias completamente inventadas
- Sanción: $5.000 de multa + obligación de notificar a los jueces falsamente citados
- Fecha de la sentencia sancionadora: 22 de junio de 2023
Análisis del caso: Roberto Mata demandó a Avianca por lesiones sufridas durante un vuelo. El abogado Steven Schwartz utilizó ChatGPT para buscar jurisprudencia relevante y citó en su escrito seis casos que no existían, incluyendo Varghese v. China Southern Airlines, Martinez v. Delta Airlines y Petersen v. Iran Air. Cuando el tribunal le requirió las sentencias, Schwartz presentó los textos completos de las resoluciones… que también habían sido generados por ChatGPT. Durante la audiencia, Schwartz declaró que no sabía que ChatGPT podía fabricar información legal y que lamentaba profundamente el error [4].
El juez Castel describió algunas de las citas como «galimatías» (gibberish) y enfatizó que la responsabilidad de verificar las fuentes es del abogado, no de la herramienta tecnológica. Este caso se convirtió en el referente mundial sobre los riesgos de la IA en la práctica jurídica.
Relevancia: primer caso documentado a nivel mundial; estableció el estándar de diligencia esperado; generó una ola de regulaciones y advertencias en todo el planeta.
Caso 2: Abogado de inmigración — Australia, Sídney (marzo 2024)
Datos del caso:
- Tribunal: Tribunal de inmigración de Australia
- Número de citas falsas: 17 casos inexistentes
- Circunstancias: el abogado alegó presión temporal y plazos ajustados
- Consecuencia: remisión al organismo disciplinario
Análisis del caso: un abogado de inmigración en Sídney, presionado por los plazos procesales, utilizó una herramienta de IA para generar citas jurisprudenciales que apoyaran su argumentación. Las 17 citas resultaron ser inexistentes. El caso evidenció un patrón recurrente: la presión temporal como catalizador del uso negligente de IA, y la confianza excesiva en la herramienta tecnológica como sustituto de la investigación jurídica rigurosa.
Caso 3: Tribunal fiscal — Reino Unido (abril 2024)
Datos del caso:
- Tribunal: Tribunal fiscal de apelación del Reino Unido
- Litigante: contribuyente sin representación letrada
- Número de citas falsas: 9 casos inexistentes
- Consecuencia: desestimación de la apelación
Análisis del caso: a diferencia de los casos anteriores, aquí el uso de IA no fue obra de un abogado sino de un ciudadano que actuaba sin representación letrada. El contribuyente utilizó una herramienta de IA para preparar su recurso de apelación fiscal y presentó escritos que citaban nueve casos supuestamente relevantes, todos inexistentes. Este caso plantea varias cuestiones relevantes:
- Acceso a la justicia y IA: los ciudadanos sin recursos para contratar abogado utilizan cada vez más herramientas de IA para preparar sus escritos procesales. ¿Deben ser sancionados con el mismo rigor que un profesional del Derecho?
- Estándar de diligencia diferenciado: un ciudadano no tiene la misma obligación de verificación que un abogado. Sin embargo, la buena fe procesal se exige a «todos los intervinientes en el proceso», incluidos los litigantes sin representación.
- Responsabilidad informacional: ¿tienen los proveedores de IA alguna responsabilidad cuando sus herramientas son utilizadas por ciudadanos sin conocimientos técnicos para acceder al sistema de justicia?
Este caso evidencia que el problema de las alucinaciones jurídicas de la IA no se limita a la abogacía profesional, sino que afecta a todos los usuarios del sistema de justicia.
Caso 4: Tribunal de Florencia — Italia (marzo 2025)
Datos del caso:
- Tribunal: Tribunal de Florencia (Corte di Appello di Firenze)
- Caso: Apelación en materia de marcas y propiedad industrial
- Número de citas falsas: varias sentencias del Tribunal Supremo italiano (Corte di Cassazione) inexistentes
- Consecuencia: advertencia judicial mediante ordenanza, sin sanción económica
- Fecha de la ordenanza: 14 de marzo de 2025
Análisis del caso: en un juicio sobre marcas en Florencia, un abogado defensor citó ante el juez sentencias del Tribunal Supremo italiano que, tras ser verificadas, resultaron no existir. Las sentencias habían sido sugeridas por ChatGPT, que el letrado había consultado para preparar su escrito de apelación [8].
El abogado argumentó que la documentación había sido preparada por un colaborador de su bufete, lo que plantea una cuestión relevante sobre la responsabilidad del titular del despacho por las actuaciones de sus colaboradores. En el Derecho italiano, como en el español, el abogado que firma el escrito es responsable de su contenido íntegro, independientemente de quién lo haya redactado materialmente.
El Tribunal consideró la posibilidad de imputarle por «responsabilità aggravata» (equivalente italiano de la mala fe procesal, regulada en el artículo 96 del Codice di Procedura Civile), pero finalmente desestimó la sanción al considerar que se trató de un «uso equivocado de la IA», no de un intento deliberado de engañar al tribunal.
Sin embargo, el Tribunal emitió una ordenanza el 14 de marzo de 2025 de gran importancia doctrinal, en la que:
- Alertó expresamente sobre las «alucinaciones» de la inteligencia artificial.
- Describió el fenómeno como «alucinazioni dell’IA», un concepto que hasta entonces no había sido utilizado en la jurisprudencia italiana.
- Recordó la obligación de los abogados de verificar toda información antes de presentarla ante un tribunal.
- Señaló que la responsabilidad por el contenido de los escritos recae exclusivamente en el profesional firmante, no en la herramienta tecnológica utilizada.
Relevancia del caso italiano para España: el enfoque del Tribunal de Florencia es muy similar al adoptado posteriormente por el TSJN de Navarra: advertencia sin sanción, con una fuerte carga pedagógica. Ambos tribunales han optado por un primer paso «educativo» que establece el criterio del tribunal antes de aplicar sanciones económicas. Este paralelismo sugiere una tendencia europea común de «aviso previo» antes del endurecimiento sancionador.
Caso 5: Corte Suprema de Colombia (noviembre 2025)
Datos del caso:
- Tribunal: Corte Suprema de Justicia de Colombia
- Tipo de resolución: Anulación de sentencia
- Hechos: un tribunal inferior había basado su sentencia en citas jurisprudenciales generadas por IA que no existían
- Consecuencia: primera anulación de una sentencia judicial por uso de IA con citas falsas
Análisis del caso: este caso es particularmente grave porque no fue un abogado sino un tribunal quien utilizó IA para redactar su sentencia. El Tribunal de Sincelejo había citado en su resolución sentencias de la Corte Suprema que, al ser verificadas, resultaron ser completamente inexistentes. La Corte Suprema anuló la sentencia, estableciendo un precedente histórico: por primera vez en Latinoamérica, un tribunal supremo anuló una decisión judicial basada en jurisprudencia fabricada por IA [9].
Posteriormente, en febrero de 2026, la misma Corte Suprema impuso una multa de 15 salarios mínimos (equivalente a aproximadamente 20.000.000 de pesos colombianos, unos 4.800 euros) a un abogado que había incluido referencias jurisprudenciales inexistentes elaboradas con IA en un recurso de revisión, constituyendo la primera sanción directa a un letrado por este motivo en Colombia [9].
Relevancia del caso colombiano para España: Colombia ha sido pionera en la regulación del uso de IA en la justicia desde 2023, cuando la Corte Constitucional emitió la Sentencia T-323/24, que estableció directrices sobre el uso de IA por tribunales. La experiencia colombiana ofrece varias lecciones para España:
- La progresión desde la anulación de sentencia (noviembre 2025) hasta la sanción económica al abogado (febrero 2026) muestra una escalada previsible que España podría replicar.
- La cuantía de la multa colombiana (15 salarios mínimos) es significativamente más alta en proporción que la multa española (420 euros del TSJC), sugiriendo que las sanciones en España tienen margen de crecimiento.
- La doctrina colombiana enfatiza que el juez o abogado que firma un escrito es «garante» de la veracidad de su contenido, un principio idéntico al que están estableciendo los tribunales españoles.
Caso 6: Juzgado de Instrucción n.º 5 de Ceuta — España (diciembre 2025)
Datos del caso:
- Órgano judicial: Juzgado de Instrucción n.º 5 de Ceuta
- Denunciante: Rachid Mohamed Hammu, abogado del Ilustre Colegio de Abogados de Melilla
- Denunciado: titular del Juzgado de Instrucción n.º 5 de Ceuta
- Hechos: el fiscal fundamentó su informe en jurisprudencia inexistente generada por IA, y el juez la validó en un auto
- Fecha del auto: 1 de diciembre de 2025
- Consecuencia: queja ante el CGPJ, investigación en curso
Análisis del caso: este es, probablemente, el caso más preocupante de todos los documentados en España, y merece un análisis detallado por la singularidad de sus circunstancias.
Los hechos en detalle:
El abogado Rachid Mohamed Hammu presentó una solicitud de personación en nombre de su cliente en un procedimiento penal ante el Juzgado de Instrucción n.º 5 de Ceuta. El fiscal de la causa emitió un informe desfavorable a la personación, fundamentándolo en supuestas sentencias del Tribunal Supremo que establecían que la rebeldía procesal impedía el ejercicio de determinadas facultades procesales.
El magistrado titular del juzgado acogió el informe del fiscal y dictó un auto el 1 de diciembre de 2025 denegando la personación del abogado. En dicho auto, el magistrado citó hasta tres sentencias del Tribunal Supremo con pasajes entrecomillados, reproduciendo las citas del informe fiscal [5].
El abogado Mohamed Hammu, al leer el auto, intentó localizar las sentencias citadas y descubrió que ninguna de ellas existía en Cendoj ni en ninguna otra base de datos jurídica. Las sentencias tenían números de resolución con formato correcto, fechas verosímiles y pasajes redactados con estilo judicial, pero eran completamente fabricadas.
La cadena de errores:
Lo singular de este caso es que la cadena de errores involucró a tres eslabones:
Generación: alguien (presumiblemente el fiscal o un colaborador) utilizó una herramienta de IA para generar las citas jurisprudenciales que fundamentaban el informe.
Incorporación sin verificación por el fiscal: el fiscal incluyó las citas fabricadas en su informe sin contrastarlas contra Cendoj ni ninguna otra fuente oficial. Como Ministerio Fiscal, tiene una obligación especial de veracidad derivada de su función de defensa de la legalidad.
Asunción sin verificación por el magistrado: el magistrado incorporó las citas del informe fiscal a su auto sin realizar ninguna verificación independiente. El juez «confió» en la precisión del fiscal, pero el deber de supervisión judicial no desaparece por el hecho de que la información provenga de otro operador jurídico.
Las posibles responsabilidades:
| Sujeto | Posible responsabilidad | Marco normativo |
|---|---|---|
| Fiscal | Disciplinaria (Estatuto Orgánico del Ministerio Fiscal) + posible penal (art. 390 CP si se acredita dolo) | EOMF arts. 62-72; CP art. 390 |
| Magistrado | Disciplinaria (LOPJ) + Instrucción 2/2026 + posible penal (art. 390 CP si se acredita dolo) | LOPJ arts. 414-427; Instrucción 2/2026 |
| Colaborador (si existió) | Responsabilidad por la generación del contenido falso | Variable según su vinculación |
Estado actual:
A marzo de 2026, la queja presentada por el abogado Mohamed Hammu ante el CGPJ está siendo investigada. El resultado de esta investigación tendrá una importancia capital, porque será el primer pronunciamiento del CGPJ sobre el uso de IA por parte de jueces y fiscales en la actividad jurisdiccional. Si el CGPJ aplica con rigor la Instrucción 2/2026 y sanciona tanto al fiscal como al magistrado, se establecerá un precedente disuasorio de primera magnitud.
Implicaciones del caso de Ceuta para el sistema de justicia:
Este caso tiene implicaciones que van más allá de la sanción individual:
Fiabilidad de las resoluciones judiciales: si un auto judicial puede basarse en jurisprudencia inventada por IA, ¿cuántas resoluciones más podrían estar contaminadas por este fenómeno sin que se haya detectado? Esta pregunta mina la confianza pública en el sistema de justicia.
Necesidad de verificación cruzada: el caso evidencia que los tribunales no pueden confiar acríticamente en los informes del Ministerio Fiscal (ni viceversa). La verificación de citas debería ser una práctica rutinaria de todos los operadores jurídicos.
Vulnerabilidad de los derechos del acusado: en este caso, la denegación de la personación basada en jurisprudencia falsa afectó directamente al derecho de defensa del cliente del abogado denunciante. Si el auto no hubiera sido cuestionado, el cliente habría sufrido una vulneración de derechos fundamentales basada en resoluciones judiciales inexistentes.
Responsabilidad institucional: cuando el error proviene de un juez o un fiscal, la responsabilidad no es solo individual sino institucional. El CGPJ deberá valorar si los mecanismos de control interno son suficientes para prevenir estos incidentes.
Caso 7: TSJC de Canarias — España (febrero 2026)
Datos del caso:
- Tribunal: Tribunal Superior de Justicia de Canarias, Sala de lo Penal
- Letrado sancionado: abogado no identificado públicamente
- Número de citas falsas: 48 sentencias del Tribunal Supremo + 1 informe falso del CGPJ
- Herramienta utilizada: IA generalista (no especificada, probablemente ChatGPT)
- Sanción: multa de 420 € + traslado al Colegio de Abogados
Análisis del caso: el letrado utilizó una herramienta de IA generalista para fundamentar un recurso de apelación penal. Las 48 citas a sentencias del Tribunal Supremo y el informe del CGPJ fueron verificadas por la documentalista del tribunal contra Cendoj, confirmando que ninguna existía. El abogado reconoció los hechos y expresó arrepentimiento, lo que fue valorado como atenuante [6].
La resolución del TSJC es notable por tres razones: (a) establece que el principio de supervisión humana es el «eje vertebrador» de toda actuación profesional asistida por IA; (b) cuantifica la multa en relación con el «ahorro» obtenido al no contratar herramientas jurídicas de pago; y (c) ordena el traslado al Colegio de Abogados, activando un segundo procedimiento sancionador.
Caso 8: TSJN de Navarra — España (marzo 2026)
Datos del caso:
- Tribunal: Tribunal Superior de Justicia de Navarra, Sala de lo Social
- Letrada implicada: abogada no identificada públicamente
- Número de citas falsas: 8 sentencias inventadas (TC, TS, TSJ Navarra, TSJ Madrid)
- Fecha del escrito: octubre 2025
- Consecuencia: archivo del procedimiento sancionador, pero advertencia general de gran alcance
Análisis del caso: a diferencia del caso canario, el TSJN decidió no imponer sanción económica a la letrada. Sin embargo, emitió una advertencia formal que tiene mayor alcance prospectivo que la propia multa del TSJC: establece con claridad que la fabricación de jurisprudencia mediante IA «es susceptible de integrar un claro ejemplo de mala fe procesal y de abuso del proceso», advirtiendo a todos los profesionales que ejerzan ante sus salas [1].
La decisión de no sancionar pero advertir puede interpretarse como un «período de gracia» que el tribunal concede a la profesión: una oportunidad para que los abogados adapten sus prácticas antes de que las sanciones se endurezcan. Es previsible que, en casos futuros, el TSJN aplique su propia doctrina con mayor rigor.
Caso 9: Multa de $31.000 en California — Estados Unidos (2025)
Datos del caso:
- Tribunal: Tribunal federal de California
- Sancionado: bufete de abogados completo
- Sanción: $31.000 en multas
Análisis del caso: este caso representa la escalada más significativa en la cuantía de las sanciones en Estados Unidos. Un bufete presentó escritos con múltiples citas jurisprudenciales generadas por IA sin verificar, lo que llevó al tribunal a imponer una multa de 31.000 dólares —más de seis veces la multa del caso Mata v. Avianca—. La severidad de la sanción refleja que, dos años después de Mata v. Avianca, los tribunales esperan que los abogados conozcan los riesgos de la IA y actúen en consecuencia.
Cuadro comparativo de sanciones
| Caso | País | Año | Citas falsas | Sanción | Multa equivalente por cita |
|---|---|---|---|---|---|
| Mata v. Avianca | EE.UU. | 2023 | 6 | $5.000 | ~$833/cita |
| Colorado custodia | EE.UU. | 2024 | N/A | $2.000 | — |
| Sídney inmigración | Australia | 2024 | 17 | Remisión disciplinaria | — |
| UK Tribunal fiscal | R. Unido | 2024 | 9 | Desestimación recurso | — |
| Florencia marcas | Italia | 2025 | Varias | Advertencia | — |
| Colombia (tribunal) | Colombia | 2025 | Varias | Anulación sentencia | — |
| Colombia (abogado) | Colombia | 2026 | Varias | 15 salarios mínimos | — |
| Ceuta (juez+fiscal) | España | 2025 | 3+ | Queja CGPJ (pendiente) | — |
| TSJC Canarias | España | 2026 | 48 | 420 € | ~8,75 €/cita |
| TSJN Navarra | España | 2026 | 8 | Advertencia (sin multa) | — |
| California bufete | EE.UU. | 2025 | Múltiples | $31.000 | — |
La tendencia es clara: las sanciones se endurecen progresivamente, y el argumento del desconocimiento de las limitaciones de la IA es cada vez menos aceptado por los tribunales.
Análisis de patrones comunes en todos los casos
Al estudiar los más de 100 casos documentados a nivel mundial, emergen patrones recurrentes que permiten entender por qué se producen estos incidentes y cómo prevenirlos:
Patrón 1: Presión temporal como catalizador
En la gran mayoría de los casos, el profesional que utiliza IA para fabricar jurisprudencia lo hace bajo presión temporal: plazos procesales inminentes, sobrecarga de trabajo, falta de recursos humanos. La IA generalista ofrece una «solución rápida» que permite generar un escrito completo con citas en minutos, frente a las horas o días que requiere la investigación jurídica rigurosa. Esta presión temporal no exime de responsabilidad, pero explica la motivación subyacente y sugiere que las medidas preventivas deben abordar también las condiciones de trabajo de los profesionales del Derecho.
Patrón 2: Confianza excesiva en la tecnología
Muchos de los abogados sancionados declararon que confiaban en que la herramienta de IA proporcionaba información veraz. Esta confianza excesiva se ve reforzada por la calidad aparente de las respuestas: los modelos de lenguaje producen texto fluido, coherente y formalmente impecable, lo que genera una falsa sensación de fiabilidad. El problema es que la calidad estilística del texto no guarda relación con la veracidad de su contenido.
Patrón 3: Desconocimiento técnico del funcionamiento de la IA
La mayoría de los profesionales del Derecho no comprenden el mecanismo interno de los modelos de lenguaje. Asumen que ChatGPT «busca» información en bases de datos, cuando en realidad genera texto mediante predicción estadística de tokens. Este desconocimiento técnico conduce a una expectativa errónea sobre la fiabilidad de las respuestas y a una subestimación del riesgo de alucinación.
Patrón 4: Escalada geográfica y temporal
Los incidentes se han extendido progresivamente desde Estados Unidos (2023) hacia Europa (2024-2025), Latinoamérica (2025-2026) y el resto del mundo. España registró sus primeros casos a finales de 2025, siguiendo un patrón de difusión que coincide con la adopción masiva de herramientas de IA generalista por parte de los profesionales del Derecho.
Patrón 5: Mayor gravedad en la justicia pública
Los casos más graves —como el de Ceuta o el de Colombia— no involucran a abogados particulares sino a operadores jurídicos con función pública (jueces, fiscales). Estos casos son particularmente preocupantes porque el contenido generado por IA se incorpora a resoluciones judiciales con efecto vinculante, afectando directamente a los derechos de las partes.
Patrón 6: Sanciones proporcionalmente bajas en los primeros casos
Los tribunales han tendido a imponer sanciones relativamente leves en los primeros casos de cada jurisdicción, tratándolos como un «período de aprendizaje» para la profesión. Sin embargo, las sanciones se endurecen significativamente a partir del segundo o tercer caso, cuando el tribunal considera que la advertencia ha sido suficiente y el desconocimiento ya no es excusable.
Por qué el problema se agravará antes de mejorar
Hay razones estructurales para pensar que el fenómeno de las sentencias falsas generadas por IA continuará expandiéndose en los próximos meses y años:
Adopción masiva de IA generalista: cada vez más abogados utilizan herramientas como ChatGPT en su práctica diaria, lo que incrementa estadísticamente la probabilidad de incidentes.
Mejora de la calidad aparente: las nuevas versiones de los modelos de lenguaje (GPT-4o, GPT-5, Gemini Ultra, Claude Opus) producen texto cada vez más convincente y difícil de distinguir del humano, lo que dificulta la detección tanto visual como automatizada.
Barrera de entrada decreciente: la accesibilidad y el bajo coste de las herramientas de IA generalista (muchas son gratuitas) facilitan su adopción incluso por profesionales sin formación tecnológica.
Falta de regulación específica para abogados: mientras la Instrucción 2/2026 del CGPJ regula a jueces, los abogados carecen todavía de directrices vinculantes específicas sobre el uso de IA.
Formación insuficiente: la mayoría de los programas de formación jurídica —incluidos los de acceso a la abogacía— no incluyen módulos sobre los riesgos de la IA en la práctica profesional.
Modelos de código abierto: la proliferación de modelos de IA de código abierto (Llama, Mistral, Falcon) permite generar texto sin ningún tipo de watermark ni control, lo que dificulta aún más la trazabilidad.
Sin embargo, también hay factores que apuntan hacia una mejora gradual:
- La jurisprudencia emergente (TSJC, TSJN) está creando conciencia entre los profesionales.
- Las herramientas de IA jurídica especializada están ganando cuota de mercado.
- Los colegios de abogados están preparando directrices vinculantes.
- La formación sobre riesgos de la IA se está incorporando a los programas de formación continua.
- Las herramientas de detección mejoran continuamente, aunque con retraso respecto a los modelos generativos.
Impacto en la confianza pública en la justicia
El fenómeno de las sentencias falsas generadas por IA tiene implicaciones que trascienden la esfera profesional y afectan a la confianza pública en el sistema de justicia. Cuando los ciudadanos descubren que un juez ha basado su resolución en jurisprudencia inventada por una máquina (como en el caso de Ceuta), o que un abogado ha fundamentado la defensa de su cliente en citas inexistentes (como en el caso de Canarias), la percepción de fiabilidad y rigor del sistema judicial se erosiona.
Esta erosión de la confianza tiene varias dimensiones:
Dimensión institucional: los ciudadanos pueden cuestionar si las resoluciones judiciales que les afectan están basadas en jurisprudencia real o en fabricaciones de IA, generando incertidumbre jurídica.
Dimensión profesional: la reputación de la abogacía como profesión puede verse dañada si los casos de negligencia con IA se multiplican, alimentando la percepción de que algunos letrados no realizan un trabajo riguroso.
Dimensión tecnológica: el debate público sobre los riesgos de la IA puede generar una reacción excesiva que lleve a restricciones desproporcionadas en el uso de tecnología en la justicia, perjudicando innovaciones beneficiosas como la digitalización procesal o la IA jurídica especializada.
Dimensión social: los litigantes que pierdan procedimientos como consecuencia de la negligencia de su abogado con IA sufrirán un perjuicio directo, alimentando la desconfianza en el sistema.
Un problema de cultura profesional, no solo de tecnología
Es fundamental entender que el problema de las sentencias falsas generadas por IA no es, en esencia, un problema tecnológico. Es un problema de cultura profesional: de diligencia, de verificación, de responsabilidad. La IA no obliga a nadie a presentar citas sin verificar. Es el profesional quien decide hacerlo —por presión temporal, por negligencia o por confianza excesiva en la tecnología—. La solución, por tanto, no es prohibir la IA, sino exigir (y facilitar) la verificación rigurosa de toda información generada por herramientas tecnológicas antes de su incorporación a escritos procesales.
Las herramientas de IA jurídica especializada (vLex, Aranzadi, La Ley Digital) son un ejemplo de cómo la tecnología puede ser parte de la solución, no del problema. Al trabajar sobre bases de datos verificadas y enlazar cada cita a su fuente original, estas herramientas minimizan el riesgo de alucinación y facilitan la verificación. El reto es que la profesión las adopte de forma generalizada, sustituyendo el uso de herramientas generalistas para tareas que requieren precisión documental.
El papel del perito informático forense
La creciente complejidad técnica de la detección de contenido generado por IA hace que el perito informático forense sea una figura cada vez más necesaria en los procedimientos judiciales relacionados con esta materia. Los tribunales, los abogados y las partes litigantes necesitan apoyo técnico especializado que solo un profesional con formación específica en informática forense puede proporcionar.
Cuándo se necesita un perito informático en estos casos
La intervención del perito informático forense es necesaria o recomendable en los siguientes escenarios:
Para tribunales y juzgados:
- Cuando se sospecha que un escrito procesal contiene citas jurisprudenciales fabricadas por IA y se necesita una verificación técnica rigurosa.
- Cuando se requiere analizar los metadatos de documentos presentados como prueba para determinar su origen y autenticidad.
- Cuando el tribunal necesita un informe técnico sobre las capacidades, limitaciones y tasas de alucinación de los modelos de IA utilizados.
- Cuando se debe determinar si un operador jurídico utilizó herramientas de IA específicas para generar contenido, mediante análisis del dispositivo informático.
- Cuando es necesario establecer la cronología de creación y edición de documentos mediante análisis de metadatos y marcas temporales.
Para abogados defensores:
- Cuando un abogado ha sido acusado de presentar citas falsas y necesita un contraperitaje que demuestre que las herramientas de detección de IA han producido un falso positivo.
- Cuando se cuestiona la autenticidad de citas legítimas y se necesita demostrar que las sentencias efectivamente existen y fueron correctamente citadas.
- Cuando se necesita verificación preventiva de escritos antes de su presentación, para evitar la inclusión inadvertida de citas fabricadas.
- Cuando se requiere analizar las limitaciones técnicas de las herramientas de detección de IA utilizadas por la parte contraria o por el tribunal.
Para abogados acusadores:
- Cuando se necesita un informe pericial que documente técnicamente la fabricación de citas por IA, con rigor probatorio para el procedimiento.
- Cuando se requiere analizar el dispositivo informático del presunto infractor para documentar el uso de herramientas de IA (historial de navegación, cuentas de ChatGPT, registros de actividad).
- Cuando se necesita establecer la trazabilidad del uso de herramientas de IA mediante análisis forense digital del dispositivo.
- Cuando se requiere cuantificar el alcance del fraude (número de citas falsas, documentos afectados, procedimientos contaminados).
Metodología pericial: el proceso completo
El proceso pericial que aplico en estos casos sigue una metodología rigurosa de ocho fases, diseñada para maximizar la fiabilidad del análisis y garantizar la validez probatoria del informe:
Fase 1: Recepción y registro del encargo
Se formaliza el encargo pericial mediante contrato de servicios, se define el alcance del análisis, se identifican las cuestiones técnicas a resolver y se registra toda la documentación recibida. Se establece el plazo de entrega y las condiciones de confidencialidad.
Fase 2: Adquisición forense de la evidencia
Se obtiene una copia forense certificada del documento o documentos a analizar, respetando los protocolos de cadena de custodia. Se calculan y registran los hashes criptográficos (SHA-256, MD5) de todos los archivos. Si es necesario analizar el dispositivo del usuario, se realiza la adquisición forense del equipo conforme a ISO 27037.
Fase 3: Verificación factual de citas jurisprudenciales
Se contrastan todas las citas contenidas en el documento contra las bases de datos jurídicas oficiales y comerciales (Cendoj, Aranzadi, vLex, La Ley Digital). Se documenta cada verificación con capturas de pantalla fechadas y se registran los resultados en una tabla de verificación.
Fase 4: Análisis de metadatos documentales
Se extraen y analizan los metadatos del documento utilizando herramientas forenses especializadas (ExifTool, FOCA, OSForensics). Se examinan las fechas de creación y edición, el software utilizado, el historial de revisiones, las fuentes tipográficas y cualquier otro indicador relevante.
Fase 5: Análisis lingüístico y estilométrico
Se somete el texto a análisis de perplejidad, ráfaga (burstiness), entropía léxica y distribución de patrones sintácticos. Se utilizan herramientas especializadas de detección de IA (GPTZero, Originality.ai) como indicios complementarios, documentando sus resultados y sus limitaciones conocidas.
Fase 6: Análisis del dispositivo (si procede)
Cuando el alcance del encargo incluye el análisis del dispositivo informático del usuario, se examina el historial de navegación, las cuentas activas en servicios de IA (ChatGPT, Gemini, Claude), los registros de actividad del sistema operativo, los archivos temporales y la papelera de reciclaje.
Fase 7: Correlación de hallazgos y formulación de conclusiones
Se integran los resultados de todas las fases anteriores, se evalúa la coherencia entre los distintos indicios y se formulan conclusiones técnicas fundamentadas. Las conclusiones se expresan en términos de grados de certeza (certeza, alta probabilidad, probabilidad, posibilidad), evitando afirmaciones absolutas cuando la evidencia no las justifica.
Fase 8: Redacción y emisión del informe pericial
Se redacta el informe pericial completo, que incluye: identificación del perito y sus credenciales, objeto del peritaje, documentación examinada, metodología empleada, herramientas utilizadas (con versiones), resultados detallados de cada fase del análisis, conclusiones técnicas y anexos documentales. El informe se estructura conforme a los estándares de informes periciales aceptados por los tribunales españoles.
Herramientas del arsenal forense
| Herramienta | Función principal | Tipo de análisis |
|---|---|---|
| ExifTool | Extracción exhaustiva de metadatos de documentos | Metadatos |
| FOCA | Análisis de metadatos con detección de información oculta | Metadatos |
| OSForensics | Suite completa de análisis forense | Metadatos + dispositivo |
| Apache Tika | Extracción de texto y metadatos multiformat | Metadatos |
| GPTZero | Detección de texto generado por IA | Lingüístico |
| Originality.ai | Clasificación IA vs. humano | Lingüístico |
| Cendoj + bases jurídicas | Verificación factual de citas | Factual |
| FTK Imager | Adquisición forense de dispositivos | Dispositivo |
| Autopsy | Análisis forense de disco | Dispositivo |
| Volatility | Análisis de memoria RAM | Dispositivo |
| Browser History Examiner | Análisis de historial de navegación | Dispositivo |
| Python (NLTK, spaCy) | Análisis lingüístico computacional personalizado | Lingüístico |
Estructura del informe pericial
Un informe pericial sobre detección de contenido generado por IA debe contener, como mínimo, las siguientes secciones:
- Datos del perito: identificación, titulación, experiencia y habilitación profesional.
- Objeto del peritaje: cuestiones técnicas planteadas por el tribunal o las partes.
- Documentación examinada: lista completa de documentos y dispositivos analizados, con sus hashes.
- Cadena de custodia: registro completo de la adquisición, almacenamiento y manipulación de la evidencia.
- Metodología: descripción detallada de las técnicas y herramientas empleadas, con justificación de su elección.
- Resultados: hallazgos detallados de cada fase del análisis, con tablas, capturas y datos de respaldo.
- Limitaciones: declaración explícita de las limitaciones del análisis y de las herramientas utilizadas.
- Conclusiones: respuestas fundamentadas a las cuestiones planteadas, con indicación del grado de certeza.
- Anexos: capturas de pantalla, registros de herramientas, tablas de verificación, hashes y demás documentación de soporte.
Preparación para la ratificación en sala
El perito informático debe estar preparado para ratificar su informe ante el tribunal, respondiendo a las preguntas de todas las partes. La preparación para la ratificación es un proceso exhaustivo que incluye:
Preparación técnica:
- Revisión exhaustiva del informe y de toda la documentación de soporte, asegurando la coherencia interna de las conclusiones.
- Preparación de material gráfico y explicativo para facilitar la comprensión del tribunal: diagramas de la estructura OOXML, capturas de pantalla de los metadatos analizados, tablas comparativas de citas reales vs. fabricadas.
- Conocimiento actualizado del estado del arte en detección de IA y sus limitaciones, incluyendo los últimos estudios publicados sobre tasas de precisión y falsos positivos.
- Familiarización con las herramientas utilizadas y su aceptación en la comunidad forense internacional.
- Preparación de demostraciones prácticas que permitan al tribunal visualizar el proceso de análisis.
Preparación procesal:
- Anticipación de las preguntas que previsiblemente formularán las partes, especialmente las dirigidas a cuestionar la fiabilidad de las herramientas de detección.
- Preparación de respuestas para las objeciones habituales: ¿por qué no es suficiente una sola herramienta? ¿Cuál es la tasa de falsos positivos? ¿Puede la parte contraria replicar el análisis? ¿Qué certeza ofrecen las conclusiones?
- Capacidad de explicar conceptos técnicos complejos (perplejidad, burstiness, hashes criptográficos, OOXML) en términos accesibles para jueces, abogados y partes no especializadas.
- Conocimiento del marco legal aplicable (art. 247 LEC, art. 11 LOPJ, Instrucción 2/2026) para contextualizar las conclusiones técnicas.
- Experiencia en comunicación forense: el perito debe transmitir objetividad, rigor y neutralidad, evitando tanto el exceso de tecnicismo como la simplificación que pueda comprometer la precisión de las conclusiones.
Preguntas frecuentes que el perito debe anticipar en la ratificación:
| Pregunta probable | Línea de respuesta |
|---|---|
| «¿Puede asegurar al 100% que este texto fue generado por IA?» | El análisis lingüístico nunca ofrece certeza absoluta; la verificación factual sí puede confirmar que las citas son inexistentes |
| «¿No pueden estas herramientas dar falsos positivos?» | Sí, las herramientas automatizadas tienen tasas de falsos positivos significativas; por eso el análisis combinado es imprescindible |
| «¿Podría un humano haber inventado estas citas sin IA?» | Teóricamente sí, pero los patrones (formato impecable, volumen elevado, ausencia de verificación) son consistentes con generación por IA |
| «¿Cómo sabemos que los metadatos no fueron manipulados?» | La cadena de custodia garantiza la integridad del documento analizado; se verifican hashes antes y después del análisis |
| «¿Es usted experto en lingüística computacional?» | El perito debe acreditar su formación y experiencia específica en este campo |
| «¿Podría otro perito llegar a conclusiones diferentes?» | Es posible; por eso se documenta exhaustivamente la metodología para que sea replicable |
Caso práctico completo: un peritaje tipo paso a paso
Para ilustrar el proceso completo de un peritaje de detección de citas falsas generadas por IA, describimos un escenario tipo basado en patrones observados en casos reales (con datos ficticios por razones de confidencialidad):
Contexto: un juzgado de primera instancia solicita un peritaje para verificar la autenticidad de las citas jurisprudenciales contenidas en un escrito de contestación a la demanda. La parte actora ha denunciado que varias de las sentencias citadas por el demandado parecen no existir en Cendoj.
Fase 1 — Recepción y planificación (día 1):
El juzgado remite al perito una copia certificada del escrito de contestación en formato PDF (38 páginas, 22 citas jurisprudenciales). El perito registra la recepción, calcula el hash SHA-256 del archivo (a3f7b2c9...) y lo almacena en soporte protegido contra escritura.
Se planifica el análisis: verificación factual de las 22 citas, análisis de metadatos del PDF, análisis estilométrico del texto completo. Plazo estimado: 5 días laborables.
Fase 2 — Verificación factual (días 2-3):
El perito contrasta las 22 citas contra Cendoj y Aranzadi, documentando cada búsqueda con capturas de pantalla fechadas. Resultados:
| N.º | Cita | Cendoj | Aranzadi | Resultado |
|---|---|---|---|---|
| 1 | STS 1287/2023, de 14 de marzo | No encontrada | No encontrada | INEXISTENTE |
| 2 | STS 892/2022, de 7 de junio | Encontrada | Encontrada | Verificada |
| 3 | STS 2105/2024, de 22 de octubre | No encontrada | No encontrada | INEXISTENTE |
| 4 | STSJ Madrid 4521/2023, de 3 de mayo | No encontrada | No encontrada | INEXISTENTE |
| 5 | STC 112/2022, de 15 de septiembre | Encontrada | Encontrada | Verificada |
| … | … | … | … | … |
| 22 | STS 567/2024, de 19 de noviembre | No encontrada | No encontrada | INEXISTENTE |
Resultado: de las 22 citas, 14 resultan ser inexistentes (63,6%) y 8 son reales y verificables. Las 14 citas inexistentes presentan formato correcto, nombres de ponentes plausibles e identificadores ECLI con estructura válida pero sin correspondencia en las bases de datos.
Fase 3 — Análisis de metadatos del PDF (día 3):
Utilizando ExifTool y pdf-parser, se extraen los metadatos del documento:
- Creador: «Microsoft Word 2019»
- Productor: «Microsoft: Print To PDF»
- Fecha de creación: 15 de enero de 2026, 23:47:12 UTC
- Fecha de modificación: 15 de enero de 2026, 23:48:03 UTC (51 segundos después)
- Número de páginas: 38
- Tamaño: 892 KB
La diferencia de 51 segundos entre creación y modificación de un documento de 38 páginas es un indicio muy fuerte de que el documento fue generado mediante un proceso automatizado (impresión a PDF) y no fue editado manualmente.
Fase 4 — Análisis estilométrico (día 4):
Se somete el texto a análisis de perplejidad mediante GPTZero y análisis lingüístico con herramientas Python personalizadas (NLTK, spaCy):
- Perplejidad media: 38,2 (rango típico IA: 20-50; rango típico humano: 60-120)
- Burstiness: 0,34 (rango típico IA: 0,2-0,5; rango típico humano: 0,5-0,9)
- Entropía léxica: 6,8 (rango típico IA: 6,2-7,2; rango típico humano: 7,0-8,5)
Los indicadores lingüísticos son consistentes con generación por IA, aunque dentro de rangos que podrían solaparse con texto jurídico formal redactado por humanos. El análisis estilométrico se considera un indicio complementario, no una evidencia concluyente.
GPTZero clasifica el texto como «muy probablemente generado por IA» con un 87% de probabilidad. Originality.ai le asigna un 91% de probabilidad de ser generado por IA.
Fase 5 — Integración de hallazgos y conclusiones (día 5):
El perito integra los resultados de las cuatro fases de análisis:
- Evidencia concluyente: 14 de las 22 citas jurisprudenciales (63,6%) son inexistentes en las bases de datos oficiales.
- Indicios fuertes: los metadatos del documento son incompatibles con una redacción manual de 38 páginas.
- Indicios complementarios: los análisis lingüísticos automatizados sugieren generación por IA con alta probabilidad.
Conclusión técnica: «Con un grado de certeza técnica muy alto, se concluye que el escrito de contestación analizado fue elaborado con asistencia sustancial de una herramienta de inteligencia artificial generativa, y que al menos 14 de las 22 citas jurisprudenciales contenidas en el mismo son fabricaciones que no corresponden a resoluciones judiciales reales.»
Fase 6 — Emisión y entrega del informe (día 5):
Se redacta el informe pericial completo (32 páginas más anexos) y se entrega al juzgado con todos los soportes documentales.
Valoración del peritaje por el tribunal
La valoración del informe pericial por el tribunal se rige por las reglas de la sana crítica (art. 348 LEC). El tribunal no está vinculado por las conclusiones del perito, pero debe motivar su decisión cuando se aparte de ellas. En la práctica, los informes periciales sobre detección de IA suelen ser aceptados por los tribunales cuando:
- La metodología está bien documentada y es replicable.
- Las conclusiones se basan en evidencia verificable (especialmente la verificación factual de citas).
- El perito declara expresamente las limitaciones de las herramientas utilizadas.
- El informe se ratifica satisfactoriamente en sala, resistiendo el escrutinio de todas las partes.
- Las conclusiones son coherentes internamente y consistentes con la evidencia presentada.
La fuerza probatoria del peritaje es significativamente mayor cuando la conclusión principal se basa en la verificación factual (citas inexistentes en Cendoj) que cuando se basa exclusivamente en análisis lingüísticos automatizados. Por esta razón, la verificación factual es siempre la piedra angular del peritaje, y las demás técnicas se utilizan como indicios complementarios.
¿Necesitas un perito informático para verificar documentos legales?
Como perito informático forense con más de 10 años de experiencia, aplico metodología ISO 27037 para analizar documentos, detectar contenido generado por IA y emitir informes periciales válidos en sede judicial. Primera consulta gratuita por videollamada.
Solicitar verificación pericialGuía para abogados: prevención y buenas prácticas
La mejor estrategia frente al riesgo de presentar jurisprudencia fabricada por IA es la prevención. Esta guía práctica está diseñada para ayudar a los abogados a integrar las herramientas de IA en su práctica profesional de forma segura, ética y conforme a las exigencias de la buena fe procesal.
Principio fundamental: supervisión humana siempre
Como ha establecido tanto la Instrucción 2/2026 del CGPJ como la jurisprudencia emergente de los tribunales superiores, el principio de supervisión humana es el «eje vertebrador» de toda actuación profesional asistida por IA. Esto significa que:
- Toda salida de IA debe ser verificada antes de incorporarla a un escrito procesal.
- El abogado es responsable del contenido íntegro de los escritos que firma, independientemente de las herramientas utilizadas en su elaboración.
- La IA es un asistente, no un sustituto del criterio jurídico profesional.
- El desconocimiento de las limitaciones de la herramienta no exime de responsabilidad.
Protocolo de verificación en 10 pasos
Utilizar herramientas de IA jurídica especializada como fuente primaria
Siempre que sea posible, utilizar plataformas diseñadas para profesionales del Derecho (vLex con Vincent AI, Aranzadi-Westlaw, La Ley Digital, Tirant lo Blanch) en lugar de herramientas de IA generalista. Estas plataformas trabajan sobre bases de datos verificadas y enlazan cada cita a la fuente original. Su coste (50-150 euros/mes) es insignificante frente al riesgo de sanción.
Si se usa IA generalista, tratar toda salida como borrador no verificado
Si se utiliza ChatGPT, Gemini, Claude u otra herramienta de IA generalista, considerar su salida como un borrador que requiere verificación completa. Nunca copiar y pegar citas jurisprudenciales directamente desde una herramienta de IA generalista a un escrito procesal.
Verificar TODA cita jurisprudencial contra Cendoj
Antes de incluir cualquier sentencia en un escrito, contrastarla en el Centro de Documentación Judicial. Es gratuito, público y tarda segundos. Verificar:
- Número de resolución y fecha
- Sala y sección
- Nombre del ponente
- Identificador ECLI
- Contenido del fundamento jurídico citado
Verificar contra una segunda fuente
Si la cita aparece en Cendoj, confirmarla en al menos una fuente adicional (Aranzadi, vLex, La Ley). Esto protege contra errores de indexación o confusiones en Cendoj.
Comprobar la coherencia contextual de las citas
Verificar que la doctrina citada sea aplicable al caso concreto, que las fechas sean cronológicamente coherentes, que los tribunales tengan competencia sobre la materia y que los fundamentos jurídicos sean internamente consistentes.
Documentar el proceso de verificación
Mantener un registro de las verificaciones realizadas: capturas de pantalla de Cendoj con fecha y hora, resultados de las búsquedas, y cualquier anotación relevante. Este registro puede servir como defensa frente a una eventual acusación de negligencia.
Declarar el uso de IA cuando proceda
Aunque no existe aún una obligación legal expresa para abogados en España, la tendencia regulatoria (marcada por la Instrucción 2/2026 y las advertencias del TSJN) apunta hacia la exigencia de transparencia. Adelantarse a esta tendencia refuerza la credibilidad profesional y puede servir como atenuante en caso de error involuntario.
Implementar un protocolo de revisión por pares
Establecer un sistema en el despacho en el que un segundo abogado revise las citas de los escritos elaborados con asistencia de IA. La «doble verificación» reduce drásticamente el riesgo de incluir citas falsas.
Formar al equipo sobre los riesgos de la IA
Asegurar que todos los miembros del despacho —abogados, pasantes, asistentes— comprendan las limitaciones de las herramientas de IA y conozcan el protocolo de verificación. La formación debe actualizarse periódicamente a medida que evolucionan las herramientas y la regulación.
Solicitar peritaje preventivo en casos complejos
Si el escrito incluye un volumen importante de citas o documentación digital, o si el caso tiene especial relevancia, un informe pericial de verificación preventiva puede evitar situaciones comprometidas. El coste de un peritaje preventivo es siempre inferior al de una sanción procesal y los daños reputacionales asociados.
Lista de verificación (checklist) para escritos asistidos por IA
Checklist de verificación pre-presentación
Antes de presentar cualquier escrito elaborado con asistencia de IA, verificar los siguientes puntos:
- Todas las citas jurisprudenciales han sido verificadas contra Cendoj
- Todas las citas han sido confirmadas en al menos una fuente adicional
- Los números de sentencia, fechas y ponentes coinciden con la realidad
- Los identificadores ECLI son válidos y verificables
- Las citas textuales de fundamentos jurídicos corresponden al texto real
- Los tribunales citados tienen competencia sobre la materia
- Las fechas de las sentencias son cronológicamente coherentes
- La doctrina citada es aplicable al caso concreto
- El escrito ha sido revisado por un segundo profesional
- Se ha documentado el proceso de verificación
- Se ha valorado la conveniencia de declarar el uso de IA
Herramientas recomendadas para abogados
| Herramienta | Tipo | Función | Precio orientativo | Riesgo de alucinación |
|---|---|---|---|---|
| vLex (Vincent AI) | IA jurídica | Búsqueda inteligente de jurisprudencia | ~100 €/mes | Bajo |
| Aranzadi-Westlaw | IA jurídica | Jurisprudencia + legislación + doctrina | ~120 €/mes | Bajo |
| La Ley Digital | IA jurídica | Jurisprudencia + formularios | ~90 €/mes | Bajo |
| Tirant lo Blanch | IA jurídica | Jurisprudencia + legislación | ~80 €/mes | Bajo |
| Cendoj | Base de datos oficial | Verificación gratuita de jurisprudencia | Gratuito | Ninguno (fuente oficial) |
| ChatGPT | IA generalista | Borrador, brainstorming | ~25 €/mes | Alto (15-40% en citas) |
| Gemini | IA generalista | Borrador, brainstorming | ~22 €/mes | Alto |
| Claude | IA generalista | Borrador, brainstorming | ~22 €/mes | Alto |
Análisis coste-beneficio del uso de IA en la práctica jurídica
Para ayudar a los despachos a tomar decisiones informadas sobre la adopción de herramientas de IA, es útil realizar un análisis coste-beneficio que compare las diferentes opciones:
Opción 1: No usar IA (referencia)
| Concepto | Coste anual | Beneficio |
|---|---|---|
| Herramientas de IA | 0 € | — |
| Tiempo de investigación jurídica | Alto (4-8 horas por escrito complejo) | Verificación manual desde el origen |
| Riesgo de sanción por IA | 0 € | Ningún riesgo asociado a IA |
| Total orientativo | Base | Seguridad total frente a alucinaciones |
Opción 2: Usar IA generalista SIN verificación (lo que NO debe hacerse)
| Concepto | Coste anual | Riesgo |
|---|---|---|
| Herramientas de IA generalista | ~300 €/año | Alto |
| Tiempo de investigación | Bajo (30 min por escrito) | Muy alto: 15-40% de citas pueden ser falsas |
| Riesgo de sanción | Hasta 6.000 € por caso + expediente + civil + penal | Devastador |
| Total orientativo | ~300 € + riesgo incalculable | Inaceptable |
Opción 3: Usar IA jurídica especializada CON verificación (recomendada)
| Concepto | Coste anual | Beneficio |
|---|---|---|
| Suscripción IA jurídica (vLex/Aranzadi) | ~1.200 €/año | Citas verificadas con enlace a fuente |
| Tiempo de investigación | Moderado (1-3 horas por escrito, incluyendo verificación) | Productividad + seguridad |
| Verificación en Cendoj | 0 € (15 min por escrito) | Capa adicional de seguridad |
| Riesgo de sanción | Muy bajo | Diligencia acreditada |
| Total orientativo | ~1.200 €/año | Mejor relación coste-seguridad |
Opción 4: Usar IA generalista CON verificación rigurosa
| Concepto | Coste anual | Beneficio |
|---|---|---|
| Herramientas de IA generalista | ~300 €/año | Brainstorming, borradores |
| Verificación TODA cita en Cendoj | 0 € (30-60 min por escrito) | Seguridad si se verifica correctamente |
| Documentación del proceso de verificación | Tiempo adicional | Defensa preventiva frente a acusaciones |
| Riesgo residual | Bajo (si se verifica TODO) | Aceptable con protocolo riguroso |
| Total orientativo | ~300 € + tiempo de verificación | Aceptable si se cumple el protocolo |
La conclusión del análisis es clara: la opción más eficiente es la combinación de IA jurídica especializada con verificación en Cendoj. Su coste anual (1.200 euros) es inferior a una sola multa por mala fe procesal (hasta 6.000 euros) y ofrece un nivel de seguridad muy alto. La opción de IA generalista con verificación rigurosa es también aceptable, pero requiere una disciplina de verificación que, como demuestran los casos documentados, muchos profesionales no mantienen en la práctica.
Cómo usar ChatGPT de forma segura en la práctica jurídica
Dado que muchos abogados utilizan (y seguirán utilizando) herramientas de IA generalista como ChatGPT en su práctica diaria, es importante ofrecer pautas concretas para su uso seguro:
Usos seguros de ChatGPT para abogados:
- Brainstorming de argumentos: pedir ideas sobre líneas argumentales para un escrito, sin confiar en las citas que proporcione.
- Estructuración de escritos: solicitar una estructura o esquema para organizar un escrito procesal.
- Revisión de estilo: pedir que revise la redacción de un texto para mejorar su claridad.
- Resúmenes de conceptos jurídicos: solicitar una explicación general de un concepto jurídico (sin citas a sentencias).
- Traducción de textos jurídicos: utilizar como herramienta de traducción aproximada (verificando después con fuentes oficiales).
- Generación de borradores de clausulados estándar: para contratos tipo que después serán revisados por el profesional.
Usos que requieren verificación obligatoria:
- Cualquier solicitud de jurisprudencia: toda cita a sentencias debe verificarse contra Cendoj, sin excepción.
- Cualquier referencia a legislación vigente: verificar que la norma existe, está vigente y dice lo que ChatGPT afirma.
- Cualquier dato estadístico o factual: comprobar en fuentes oficiales (INE, BOE, organismos competentes).
- Cualquier referencia a doctrina o autores: verificar la existencia de la obra y la precisión de la cita.
Usos que deben evitarse absolutamente:
- Copiar y pegar citas jurisprudenciales directamente: nunca, bajo ninguna circunstancia.
- Confiar en los identificadores ECLI proporcionados por ChatGPT: siempre son inventados.
- Utilizar ChatGPT como sustituto de la investigación jurídica: es un asistente, no un sustituto.
- Introducir datos personales o confidenciales del cliente sin anonimización: riesgo de vulneración del secreto profesional.
- Solicitar dictámenes jurídicos completos: los modelos de IA no tienen capacidad para emitir dictámenes jurídicos fiables.
La regla de oro: tratar toda salida de IA generalista como un borrador no verificado
La regla más importante para el uso seguro de ChatGPT y otras herramientas de IA generalista en la práctica jurídica es sencilla: tratar toda salida como un borrador no verificado que requiere comprobación completa antes de su incorporación a cualquier escrito procesal. Si se sigue esta regla de forma sistemática y rigurosa, el riesgo de presentar citas falsas se reduce a prácticamente cero.
Obligaciones deontológicas del abogado
El uso de IA por parte de los abogados debe enmarcarse en las obligaciones deontológicas que establece el Estatuto General de la Abogacía Española [11]:
- Deber de diligencia (art. 42): el abogado debe desempeñar su labor con la diligencia debida. Presentar citas sin verificar vulnera este deber.
- Deber de competencia (art. 42.2): el abogado debe mantener actualizada su formación profesional. En 2026, esto incluye conocer las limitaciones de las herramientas de IA.
- Deber de probidad procesal (art. 54): actuación con buena fe ante tribunales y demás intervinientes.
- Deber de confidencialidad (art. 22): al utilizar herramientas de IA, el abogado debe asegurar que la información confidencial del cliente no se comparte con servicios de terceros.
- Deber de información al cliente (art. 48): el abogado debería informar al cliente sobre el uso de herramientas de IA en su caso, especialmente si existe un riesgo asociado.
La cuestión de la confidencialidad: datos del cliente y herramientas de IA
Un aspecto crítico del uso de IA en la práctica jurídica que merece atención especial es el deber de confidencialidad. Cuando un abogado introduce información de su cliente en una herramienta de IA —por ejemplo, los hechos del caso, los nombres de las partes, los importes del litigio o las circunstancias personales del cliente—, esa información sale del control del despacho y pasa a los servidores del proveedor de IA.
Riesgos para la confidencialidad:
Almacenamiento de datos: por defecto, servicios como ChatGPT almacenan las conversaciones del usuario y pueden utilizarlas para entrenar futuros modelos. Aunque OpenAI y otros proveedores ofrecen opciones para desactivar esta función, muchos usuarios no son conscientes de esta configuración.
Acceso por terceros: los términos de servicio de las herramientas de IA pueden contemplar el acceso a los datos por parte del proveedor con diversos fines (mejora del servicio, moderación de contenidos, cumplimiento legal), lo que podría comprometer la confidencialidad abogado-cliente.
Brechas de seguridad: los proveedores de IA son objetivos de ataques informáticos. Una brecha de seguridad podría exponer información confidencial de los clientes del abogado.
Jurisdicción de datos: los datos introducidos en herramientas de IA pueden ser procesados y almacenados en servidores ubicados fuera de la UE, lo que plantea cuestiones de protección de datos bajo el RGPD.
Medidas de protección recomendadas:
Anonimización de datos: antes de introducir información del caso en una herramienta de IA, sustituir los nombres reales por pseudónimos, eliminar los datos personales identificables y anonimizar las circunstancias que permitan identificar al cliente o al caso.
Configuración de privacidad: desactivar las funciones de entrenamiento de modelos y almacenamiento de conversaciones en la configuración de la herramienta de IA.
Uso de herramientas empresariales: las versiones empresariales de las herramientas de IA (ChatGPT Enterprise, Azure OpenAI Service, Anthropic for Business) suelen ofrecer garantías de privacidad más robustas que las versiones personales.
Política de uso interno: elaborar una política interna del despacho que defina qué tipo de información puede y no puede introducirse en herramientas de IA, y establecer protocolos de anonimización.
Consentimiento del cliente: informar al cliente sobre el uso de herramientas de IA y obtener su consentimiento expreso, especialmente cuando se trate de información sensible.
Herramientas con servidores en la UE: priorizar el uso de herramientas cuyos servidores estén ubicados en la Unión Europea, garantizando el cumplimiento del RGPD.
El deber de confidencialidad es indelegable
El artículo 22 del Estatuto General de la Abogacía Española establece el deber de confidencialidad como una obligación fundamental del abogado. Este deber no desaparece porque se utilice una herramienta tecnológica como intermediaria. El abogado es responsable de proteger la información confidencial de su cliente en todo momento, incluido cuando la introduce en herramientas de IA. El incumplimiento de este deber puede dar lugar a responsabilidad disciplinaria, civil e incluso penal (revelación de secretos).
Implementación práctica en despachos: plan de acción
Para los despachos que deseen implementar un uso seguro de la IA en su práctica profesional, se propone el siguiente plan de acción estructurado en cuatro fases:
Fase 1 — Diagnóstico (semana 1-2):
- Realizar una auditoría interna del uso actual de herramientas de IA en el despacho.
- Identificar qué miembros del equipo utilizan herramientas de IA, cuáles y para qué fines.
- Evaluar los riesgos asociados al uso actual (citas no verificadas, datos confidenciales compartidos, etc.).
- Revisar los seguros de responsabilidad profesional para verificar la cobertura frente a negligencia con IA.
Fase 2 — Política y protocolos (semana 3-4):
- Elaborar una política interna de uso de IA que incluya:
- Herramientas autorizadas y no autorizadas.
- Protocolos de verificación obligatorios.
- Normas de anonimización de datos del cliente.
- Requisitos de transparencia (cuándo declarar el uso de IA).
- Procedimiento de revisión por pares.
- Designar un responsable de compliance tecnológico.
- Suscribir herramientas de IA jurídica especializada (vLex, Aranzadi, La Ley, Tirant).
Fase 3 — Formación (semana 5-6):
- Impartir sesiones formativas para todo el equipo sobre:
- Funcionamiento de los modelos de lenguaje y el fenómeno de la alucinación.
- Riesgos jurídicos: art. 247 LEC, Instrucción 2/2026, CP arts. 390-396.
- Protocolo de verificación en 10 pasos.
- Uso seguro de herramientas de IA respetando la confidencialidad.
- Casos reales y consecuencias (TSJC, TSJN, Mata v. Avianca).
- Realizar ejercicios prácticos de verificación de citas.
- Distribuir la checklist de verificación pre-presentación.
Fase 4 — Monitorización continua (permanente):
- Realizar auditorías periódicas del cumplimiento del protocolo.
- Actualizar la política y los protocolos a medida que evolucione la regulación.
- Mantener al equipo informado sobre nuevos casos y cambios normativos.
- Revisar periódicamente las herramientas de IA utilizadas y sus condiciones de servicio.
- Documentar los incidentes y las lecciones aprendidas para mejorar continuamente.
Escenarios prácticos: qué hacer en cada situación
Escenario 1: Recibes un escrito de la parte contraria con citas sospechosas
- Verifica las citas en Cendoj y en una segunda fuente (Aranzadi, vLex).
- Si confirmas que alguna cita es inexistente, documenta la verificación con capturas fechadas.
- Presenta un escrito al tribunal poniendo de manifiesto las citas falsas, con la documentación de respaldo.
- Solicita que el tribunal requiera al letrado contrario las sentencias citadas (art. 150 LEC).
- Valora solicitar la sanción del art. 247 LEC y/o la intervención de un perito informático forense.
- Si el fraude ha causado perjuicio a tu cliente, valora las acciones civiles y penales correspondientes.
Escenario 2: Descubres que un pasante ha incluido citas de IA en un escrito que ya presentaste
- Verifica inmediatamente todas las citas del escrito contra Cendoj.
- Si confirmas citas falsas, presenta un escrito rectificativo ante el tribunal de forma inmediata.
- Explica las circunstancias con transparencia y ofrece la sustitución por citas reales.
- Revisa los protocolos internos del despacho para evitar que se repita.
- Documenta el incidente y las medidas correctivas adoptadas.
- Comunica el incidente a tu aseguradora de responsabilidad profesional.
Escenario 3: Un tribunal te requiere para que justifiques las citas de tu escrito
- No entres en pánico. Localiza inmediatamente las sentencias citadas en Cendoj.
- Si las citas son reales, presenta las sentencias completas descargadas de la fuente oficial.
- Si descubres que alguna cita no existe, comunícalo al tribunal con la máxima transparencia.
- Si todas las citas son reales pero el tribunal sospecha uso de IA, valora aportar documentación de tu proceso de verificación o solicitar un peritaje que acredite la legitimidad de las citas.
- Coopera plenamente con el tribunal.
Escenario 4: Quieres usar ChatGPT para hacer brainstorming sobre argumentos jurídicos
- Utiliza ChatGPT como herramienta de ideación, no como fuente de jurisprudencia.
- Anonimiza completamente los datos del caso antes de introducirlos.
- Trata toda salida como un borrador que necesita verificación completa.
- Busca la jurisprudencia real en Cendoj, Aranzadi o vLex —nunca uses las citas de ChatGPT directamente—.
- Documenta que has utilizado IA como herramienta de asistencia y que has verificado independientemente toda la información.
Escenario 5: Tu cliente te pregunta si usas IA
- Sé transparente: explica que utilizas herramientas de IA jurídica especializada como asistentes.
- Explica la diferencia entre IA jurídica (con datos verificados) e IA generalista (con riesgo de alucinación).
- Describe tu protocolo de verificación para tranquilizar al cliente.
- Aclara que toda la información se anonimiza antes de introducirla en herramientas externas.
- Si el cliente expresa preocupación, ofrécete a no utilizar IA en su caso específico.
- Considera incluir una cláusula sobre uso de IA en la hoja de encargo profesional.
Consecuencias legales y sanciones: escala completa
Las consecuencias de presentar sentencias falsas generadas por inteligencia artificial en un procedimiento judicial pueden ser graves y acumulativas. El régimen sancionador aplicable depende de la gravedad del acto, la intencionalidad del sujeto y su condición (abogado, juez, fiscal, litigante sin representación).
Nivel 1: Sanción procesal (LEC art. 247)
Esta es la consecuencia más inmediata y la que se ha aplicado en los casos españoles documentados hasta ahora.
| Aspecto | Detalle |
|---|---|
| Multa | De 180 a 6.000 euros |
| Límite | No puede superar 1/3 de la cuantía del litigio |
| Criterios de graduación | Circunstancias del caso, daños al procedimiento, capacidad económica del infractor, reiteración |
| Procedimiento | Pieza separada, con audiencia al afectado |
| Recurso | Recurrible según la vía procesal correspondiente |
| Ejemplo | TSJC Canarias: 420 euros por 48 citas falsas |
| Requisito subjetivo | Negligencia suficiente (no se exige dolo) |
Nivel 2: Condena en costas y daños
Además de la multa procesal, el tribunal puede:
- Condenar en costas al infractor si la conducta ha causado costes procesales adicionales a la parte contraria.
- Declarar la responsabilidad patrimonial del infractor por los daños y perjuicios causados al procedimiento, a la otra parte o a la Administración de Justicia.
- En la práctica, la condena en costas puede ser significativamente más onerosa que la propia multa procesal, especialmente en procedimientos complejos.
Nivel 3: Expediente disciplinario colegial
El artículo 247.4 de la LEC prevé que el tribunal dé traslado de la conducta al Colegio de Abogados correspondiente. Las posibles sanciones disciplinarias son:
| Tipo de falta | Sanción | Duración |
|---|---|---|
| Leve | Apercibimiento por escrito | — |
| Grave | Suspensión del ejercicio profesional | De 1 mes a 1 año |
| Muy grave | Suspensión del ejercicio profesional | De 1 a 3 años |
| Muy grave (máxima) | Expulsión del Colegio | Definitiva |
La calificación de la falta depende de factores como la gravedad de la negligencia, el perjuicio causado al cliente, la reiteración de la conducta y la existencia de antecedentes disciplinarios. En un primer caso de negligencia con IA, lo más probable es la calificación como falta grave (suspensión de 1 mes a 1 año).
Nivel 4: Responsabilidad civil frente al cliente
Si la negligencia del abogado causa perjuicio al cliente —por ejemplo, la pérdida del procedimiento por desestimación del escrito o la imposición de costas—, el cliente puede demandar al abogado por responsabilidad civil contractual conforme al artículo 1101 del Código Civil:
«Quedan sujetos a la indemnización de los daños y perjuicios causados los que en el cumplimiento de sus obligaciones incurrieren en dolo, negligencia o morosidad, y los que de cualquier modo contravinieren al tenor de aquéllas.»
La cuantía de la indemnización puede incluir:
- Los costes del procedimiento perdido (costas, honorarios)
- El perjuicio derivado de la resolución desfavorable
- El daño moral por la situación de indefensión
- Los costes de un nuevo procedimiento, si es posible
Nivel 5: Responsabilidad penal
En los supuestos más graves, cuando se acredite dolo, la responsabilidad puede ser penal:
| Delito | Artículo CP | Pena | Requisitos |
|---|---|---|---|
| Falsedad documental por funcionario | 390 | Prisión 3-6 años + multa + inhabilitación | Funcionario público + dolo |
| Presentación de documento público falso | 393 | Pena inferior en grado a la del art. 390 | Dolo («a sabiendas de su falsedad») |
| Falsedad en documento privado | 395 | Prisión 6 meses-2 años | Dolo + perjuicio a tercero |
| Uso de documento privado falso | 396 | Pena inferior en grado a la del art. 395 | Dolo |
| Estafa procesal | 250.1.7.º | Prisión 1-6 años + multa | Dolo + error judicial + perjuicio económico |
| Obstrucción a la justicia | 463-467 | Variable | Según la modalidad |
Comparativa internacional de sanciones
| País | Sanción máxima impuesta hasta 2026 | Tendencia |
|---|---|---|
| España | 420 € (TSJC Canarias) | Ascendente — advertencia del TSJN anticipa endurecimiento |
| Estados Unidos | $31.000 (California, 2025) | Fuertemente ascendente |
| Colombia | 15 salarios mínimos (~20.000.000 COP) | Ascendente — primera anulación de sentencia |
| Italia | Advertencia sin sanción (Florencia, 2025) | Incipiente |
| Australia | Remisión disciplinaria (Sídney, 2024) | En desarrollo |
| Reino Unido | Desestimación de recurso (2024) | En desarrollo |
La tendencia global es inequívoca: las sanciones se endurecen año tras año, y los tribunales aceptan cada vez menos el argumento del desconocimiento. En España, la progresión desde la multa de 420 euros del TSJC hasta la advertencia formal del TSJN sugiere que las próximas sanciones serán significativamente más severas.
Impacto por ámbitos jurisdiccionales y áreas de práctica
El fenómeno de las sentencias falsas generadas por IA no afecta por igual a todos los ámbitos de la práctica jurídica. Algunos ámbitos son más vulnerables que otros, dependiendo del volumen de jurisprudencia citada, la complejidad técnica de la materia y los recursos disponibles para la verificación.
Jurisdicción penal:
El ámbito penal es particularmente sensible al problema porque: (a) las consecuencias de un escrito deficiente pueden afectar a la libertad personal del acusado, (b) el volumen de jurisprudencia del Tribunal Supremo en materia penal es extenso y complejo, y (c) los turnos de oficio generan presiones de tiempo y recursos que incrementan el riesgo de negligencia. El caso del TSJC de Canarias se produjo precisamente en un recurso de apelación penal. En materia penal, la verificación de citas no es solo una cuestión de buena fe procesal, sino de protección del derecho fundamental a la defensa efectiva.
Jurisdicción social:
El caso del TSJN de Navarra se produjo en la Sala de lo Social, evidenciando que el problema afecta también a la jurisdicción laboral. La jurisprudencia social es voluminosa y especializada, con frecuentes sentencias sobre despidos, incapacidades, accidentes de trabajo y convenios colectivos. Los abogados laboralistas que utilicen IA generalista para buscar jurisprudencia en esta materia corren un riesgo elevado de generar citas falsas, dado que los modelos de IA pueden confundir las competencias entre la Sala Cuarta del Tribunal Supremo, los Tribunales Superiores de Justicia y los Juzgados de lo Social.
Jurisdicción contencioso-administrativa:
El Derecho administrativo es especialmente vulnerable a las alucinaciones de IA porque la legislación administrativa es fragmentaria, cambiante y multinivel (estatal, autonómica, local, europea). Los modelos de IA pueden generar citas que mezclen legislación de diferentes niveles administrativos, citen normativa derogada o atribuyan jurisprudencia a tribunales sin competencia en la materia.
Jurisdicción civil:
La jurisdicción civil presenta un riesgo moderado-alto, especialmente en materias con jurisprudencia extensa como la responsabilidad civil, el Derecho de familia, el Derecho societario y el Derecho inmobiliario. La amplitud temática del Derecho civil incrementa las posibilidades de que la IA genere citas en materias conexas pero incorrectas.
Derecho de la Unión Europea:
El Derecho europeo presenta riesgos específicos: los modelos de IA pueden confundir la jurisprudencia del Tribunal de Justicia de la Unión Europea (TJUE) con la del Tribunal General, citar sentencias con números ECLI incorrectos, o atribuir al TJUE doctrinas que corresponden al Tribunal Europeo de Derechos Humanos (TEDH). La verificación en este ámbito requiere acceso a EUR-Lex y HUDOC, además de las bases de datos nacionales.
Arbitraje y mediación:
El arbitraje internacional es un ámbito donde el uso de IA puede ser especialmente problemático, porque los laudos arbitrales no siempre son públicos ni están accesibles en bases de datos estándar. Los modelos de IA pueden fabricar referencias a laudos que no son verificables por las partes ni por el árbitro, dificultando la detección.
| Ámbito jurisdiccional | Nivel de riesgo | Razón principal | Caso documentado en España |
|---|---|---|---|
| Penal | Muy alto | Consecuencias en libertad personal; turnos de oficio | TSJC Canarias (2026) |
| Social | Alto | Jurisprudencia voluminosa; presión temporal | TSJN Navarra (2026) |
| Contencioso-administrativo | Alto | Legislación fragmentaria y multinivel | — |
| Civil | Moderado-alto | Amplitud temática; jurisprudencia extensa | — |
| Penal (Instrucción) | Alto | Plazos cortos; múltiples órganos | Ceuta (2025) |
| UE / Internacional | Moderado | Verificación más compleja; múltiples fuentes | — |
| Arbitraje | Moderado | Laudos no siempre públicos | — |
Consecuencias procesales más allá de la multa
Además de las sanciones directas ya analizadas (multa procesal, expediente colegial, responsabilidad civil y penal), la presentación de sentencias falsas de IA puede tener consecuencias procesales indirectas que conviene conocer:
Nulidad de actuaciones:
Si un escrito procesal fundamenta su argumentación en jurisprudencia fabricada y el tribunal lo ha tomado en consideración para fundamentar su resolución (como ocurrió en el caso de Ceuta), la parte perjudicada puede solicitar la nulidad de actuaciones conforme a los artículos 238-243 de la LOPJ. La nulidad de actuaciones implica retrotraer el procedimiento al momento anterior al vicio, con los consiguientes costes y dilaciones.
Revisión de sentencia firme:
En casos extremos, si una sentencia firme se basó parcialmente en jurisprudencia fabricada por IA, la parte perjudicada podría intentar la revisión de la sentencia firme conforme al artículo 510 de la LEC, alegando que se ha descubierto después de la sentencia firme que el resultado del pleito fue provocado por «maquinación fraudulenta». Es un recurso extraordinario de difícil éxito, pero la doctrina emergente sobre IA podría abrir nuevas posibilidades de aplicación.
Pérdida de credibilidad procesal:
Un efecto colateral significativo es la pérdida de credibilidad del letrado ante el tribunal. Una vez que un abogado ha sido identificado como usuario negligente de IA, sus futuros escritos pueden ser sometidos a un escrutinio más riguroso por parte del tribunal, comprometiendo su eficacia procesal incluso cuando las citas sean legítimas.
Recusación y abstención:
Si un juez ha basado una resolución en jurisprudencia fabricada por IA (caso de Ceuta), la parte perjudicada podría solicitar su recusación en futuros procedimientos, alegando una pérdida de imparcialidad o de confianza en la capacidad del magistrado para resolver de forma fundada.
Costas procesales agravadas:
Además de la multa del artículo 247 LEC, el tribunal puede condenar en costas al abogado que actúe con mala fe procesal, incluyendo no solo las costas ordinarias sino también los gastos extraordinarios derivados de la necesidad de verificación y del retraso procesal causado.
Análisis del cálculo de la multa del TSJC: un precedente singular
El cálculo de la multa de 420 euros impuesta por el TSJC de Canarias merece un análisis detenido, porque introduce un criterio de cuantificación original que podría convertirse en referencia para futuros casos.
El tribunal razonó de la siguiente manera: si el abogado hubiera utilizado una herramienta de IA jurídica especializada en lugar de una IA generalista, habría pagado aproximadamente 840 euros anuales por una suscripción básica. El uso de la IA generalista gratuita le permitió «ahorrarse» ese coste, pero a cambio introdujo en el procedimiento 48 citas falsas que comprometieron la integridad del proceso.
El tribunal impuso la mitad de esa cantidad (420 euros) como forma de cuantificar el «ahorro negligente», teniendo en cuenta como atenuantes: (a) que se trataba de un primer caso, (b) que el abogado reconoció los hechos, (c) que expresó arrepentimiento, y (d) que no hubo perjuicio material para la parte contraria (el recurso fue desestimado por otros motivos además de las citas falsas).
Este criterio de cuantificación es innovador y tiene implicaciones prácticas importantes:
- Establece un suelo mínimo: la multa nunca será inferior al «ahorro» obtenido por no utilizar herramientas profesionales adecuadas.
- Incentiva la inversión en herramientas jurídicas: el mensaje es claro: invertir 840 euros/año en una suscripción a Aranzadi o vLex es más barato que arriesgarse a una multa de 420 euros por caso (o superior si se repite).
- Proporcionalidad con el beneficio ilícito: conecta la sanción con el beneficio económico obtenido por la conducta negligente, un criterio habitual en el Derecho sancionador.
- Escalabilidad: en casos futuros con agravantes (reiteración, dolo, perjuicio a la parte contraria), la multa puede escalar rápidamente hacia el límite de 6.000 euros.
Simulación de escenarios de sanción: qué esperar en futuros casos
Basándonos en la doctrina emergente del TSJC y el TSJN, y en la tendencia internacional de endurecimiento progresivo, podemos proyectar escenarios de sanción para futuros casos en España:
Escenario A: Primer caso leve (perfil similar al TSJC Canarias)
- Abogado que presenta 5-10 citas falsas en un recurso
- Reconoce los hechos y muestra arrepentimiento
- No hay perjuicio material para la parte contraria
- Sanción probable: multa de 420-1.200 euros + traslado al Colegio
Escenario B: Caso moderado con agravantes
- Abogado que presenta citas falsas tras la advertencia del TSJN
- Se detecta en un procedimiento con perjuicio económico para la parte contraria
- No reconoce los hechos o intenta justificar el uso de IA
- Sanción probable: multa de 2.000-4.000 euros + condena en costas + traslado al Colegio con recomendación de suspensión
Escenario C: Caso grave con dolo eventual
- Abogado reincidente o que utiliza IA con pleno conocimiento de los riesgos
- Las citas falsas son determinantes en la resolución del procedimiento
- Se intenta ocultar el uso de IA (borrado de historial, negación)
- Sanción probable: multa de 6.000 euros (máximo) + condena en costas + expediente disciplinario grave + posible derivación penal
Escenario D: Caso extremo con funcionario público
- Juez o fiscal que utiliza IA para fabricar jurisprudencia en una resolución
- La resolución afecta a derechos fundamentales del justiciable (libertad, tutela judicial)
- Se detecta posteriormente y la resolución es anulada
- Sanción probable: responsabilidad disciplinaria grave (LOPJ/EOMF) + posible responsabilidad penal por falsedad en documento público (art. 390 CP, prisión 3-6 años)
Estos escenarios no son predicciones, sino proyecciones basadas en la doctrina emergente. La respuesta judicial definitiva dependerá de las circunstancias concretas de cada caso y de la evolución de la regulación.
La formación jurídica y la IA: implicaciones para universidades y escuelas de práctica
La irrupción de la IA en la práctica jurídica tiene implicaciones directas para la formación de los futuros profesionales del Derecho. Las facultades de Derecho, los másters de acceso a la abogacía y las escuelas de práctica jurídica deben adaptar sus programas formativos para preparar a los estudiantes para un entorno profesional en el que la IA será una herramienta omnipresente.
Contenidos formativos que deberían incorporarse:
Funcionamiento básico de los LLM: los estudiantes de Derecho deben comprender, al menos a nivel conceptual, cómo funcionan los modelos de lenguaje, qué es una alucinación y por qué se producen. No es necesario que entiendan la arquitectura transformer en detalle, pero sí que comprendan por qué ChatGPT puede fabricar sentencias con formato impecable.
Técnicas de verificación de fuentes: la verificación de citas contra Cendoj y otras bases de datos jurídicas debería ser una habilidad básica enseñada y evaluada en todas las asignaturas de práctica procesal.
Ética profesional y IA: los módulos de deontología profesional deben actualizarse para incluir los dilemas éticos derivados del uso de IA, incluyendo la confidencialidad, la verificación, la transparencia y la responsabilidad del profesional.
Herramientas de IA jurídica: los estudiantes deben conocer tanto las herramientas de IA generalista (y sus limitaciones) como las herramientas de IA jurídica especializada, aprendiendo a distinguir entre ambas y a utilizar cada una de forma apropiada.
Marco regulatorio: la Instrucción 2/2026 del CGPJ, el artículo 247 de la LEC, el AI Act europeo y la jurisprudencia emergente sobre IA y mala fe procesal deben formar parte del currículo de todas las asignaturas relevantes.
Propuesta de módulo formativo:
| Sesión | Tema | Duración | Tipo |
|---|---|---|---|
| 1 | Introducción a los LLM: cómo funcionan y por qué alucinan | 2 horas | Teórica |
| 2 | El fenómeno global: casos reales (Mata v. Avianca, TSJC, TSJN, Ceuta) | 2 horas | Caso práctico |
| 3 | Marco legal: art. 247 LEC, Instrucción 2/2026, CP arts. 390-396 | 2 horas | Teórica |
| 4 | Taller práctico: verificación de citas en Cendoj y bases de datos | 3 horas | Práctica |
| 5 | Herramientas de IA jurídica: vLex, Aranzadi, La Ley — uso seguro | 2 horas | Práctica |
| 6 | Ética profesional y IA: confidencialidad, transparencia, responsabilidad | 2 horas | Debate |
| 7 | Detección de contenido de IA: herramientas y metodología forense | 2 horas | Teórica-práctica |
| 8 | Evaluación: verificación de escritos con citas mixtas (reales y fabricadas) | 2 horas | Examen práctico |
Implicaciones para la oposición de acceso a la carrera judicial:
La oposición de acceso a la carrera judicial y a la carrera fiscal debería también incorporar contenidos sobre IA, especialmente tras la publicación de la Instrucción 2/2026. Los aspirantes a jueces y fiscales deben conocer:
- Las obligaciones derivadas de la Instrucción 2/2026.
- Los riesgos de utilizar herramientas de IA no autorizadas.
- Los protocolos de verificación de jurisprudencia.
- Los principios del AI Act europeo aplicables a la justicia.
- Las responsabilidades disciplinarias y penales derivadas del uso negligente de IA.
Responsabilidad del seguro profesional
Un aspecto poco discutido pero muy relevante es la incidencia de las sentencias falsas de IA en el seguro de responsabilidad civil profesional del abogado. La mayoría de las pólizas de seguro de responsabilidad profesional cubren los daños derivados de la negligencia del letrado en el ejercicio de su profesión. Sin embargo, la cuestión de si la negligencia con IA está cubierta depende de las condiciones específicas de cada póliza.
Los aspectos a considerar son:
- Cobertura de negligencia: si la póliza cubre genéricamente la negligencia profesional, los daños derivados de presentar citas falsas de IA deberían estar cubiertos, siempre que no se acredite dolo.
- Exclusiones por dolo: la mayoría de las pólizas excluyen los actos dolosos. Si un tribunal considera que el abogado actuó con dolo eventual (representándose el riesgo y asumiendo las consecuencias), la cobertura podría ser denegada.
- Deber de comunicación: el abogado tiene la obligación de comunicar a su aseguradora cualquier siniestro o reclamación, incluidas las multas procesales y los expedientes disciplinarios.
- Incremento de primas: la multiplicación de siniestros por negligencia con IA podría llevar a las aseguradoras a incrementar las primas o a incluir cláusulas específicas de exclusión.
- Exigencias de prevención: las aseguradoras podrían empezar a exigir protocolos de verificación como condición de cobertura, de forma análoga a como exigen medidas de ciberseguridad en otras pólizas tecnológicas.
Responsabilidad de los proveedores de IA
Una cuestión jurídica emergente es la responsabilidad de los proveedores de herramientas de IA generalista (OpenAI, Google, Anthropic) cuando sus productos generan alucinaciones que causan daños en el ámbito jurídico.
Actualmente, los términos de uso de estos servicios incluyen cláusulas de exoneración de responsabilidad que desplazan íntegramente el riesgo al usuario. Sin embargo, el desarrollo normativo europeo podría cambiar esta situación:
- Directiva de responsabilidad por IA: aunque la propuesta inicial fue retirada, la Comisión Europea sigue trabajando en un marco de responsabilidad civil por daños causados por sistemas de IA.
- Directiva de responsabilidad por productos defectuosos (revisada en 2024): la nueva directiva incluye expresamente el software y los productos digitales, lo que podría permitir reclamaciones por responsabilidad del fabricante contra los proveedores de IA cuyas herramientas generen contenido falso que cause daños.
- AI Act: el Reglamento europeo de IA establece obligaciones de transparencia e información que, si no se cumplen, podrían fundamentar acciones de responsabilidad.
En la práctica, sin embargo, la responsabilidad principal seguirá recayendo sobre el profesional que utiliza la herramienta sin verificar su salida, especialmente cuando existen alternativas verificadas (IA jurídica especializada) y métodos de verificación accesibles (Cendoj).
El futuro: IA y administración de justicia
La relación entre la inteligencia artificial y la administración de justicia está en plena evolución. Los acontecimientos de 2025-2026 representan solo el inicio de una transformación profunda que afectará a todos los operadores jurídicos. Analizar las tendencias actuales permite anticipar hacia dónde se dirige el marco regulatorio y la práctica profesional.
El Reglamento europeo de IA (AI Act) y la justicia
El Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, conocido como AI Act, entró en vigor el 1 de agosto de 2024 y será plenamente aplicable el 2 de agosto de 2026. Sus implicaciones para la administración de justicia son significativas [16]:
- Clasificación como alto riesgo: los sistemas de IA utilizados en la administración de justicia y los procesos democráticos están clasificados como sistemas de «alto riesgo», lo que implica requisitos reforzados de gestión de riesgos, calidad de datos, documentación técnica, supervisión humana y ciberseguridad.
- Obligaciones de transparencia: los sistemas de IA de alto riesgo deben ser transparentes en su funcionamiento, permitiendo a los usuarios comprender sus capacidades y limitaciones.
- Prohibición de IA subliminal: se prohíben los sistemas de IA que manipulen subliminalmente la conducta de las personas, lo que podría tener implicaciones para los sistemas de justicia predictiva.
- Supervisión humana obligatoria: se exige que los sistemas de IA de alto riesgo estén sujetos a supervisión humana efectiva, reforzando el principio establecido por la Instrucción 2/2026 del CGPJ.
El AI Act: cronograma de implementación para la justicia
El Reglamento europeo de IA tiene un cronograma de implementación gradual que es importante conocer:
| Fecha | Hito | Relevancia para la justicia |
|---|---|---|
| 1 Ago 2024 | Entrada en vigor del Reglamento | Marco general aprobado |
| 2 Feb 2025 | Prácticas prohibidas + alfabetización en IA | Prohibición de IA manipulativa; obligación de formación |
| 2 Ago 2025 | Obligaciones de gobernanza + modelos GPAI | Reglas para ChatGPT, Gemini, Claude como modelos de propósito general |
| 2 Ago 2026 | Aplicación plena del Reglamento | Todas las obligaciones para sistemas de alto riesgo (incluida justicia) |
| 2 Ago 2027 | Plazo para sistemas de alto riesgo existentes | Los sistemas ya desplegados deben cumplir todos los requisitos |
A partir de agosto de 2026, los sistemas de IA utilizados en la administración de justicia deberán cumplir requisitos estrictos:
- Sistema de gestión de riesgos: evaluación continua de los riesgos asociados al uso del sistema.
- Calidad de datos: los datos utilizados para entrenar el sistema deben ser relevantes, representativos y suficientes.
- Documentación técnica: el sistema debe ir acompañado de documentación técnica completa que permita evaluar su conformidad.
- Registro de actividades: los sistemas deben mantener registros de su funcionamiento (logs) durante un período adecuado.
- Supervisión humana: el diseño del sistema debe permitir la supervisión humana efectiva de su funcionamiento.
- Precisión, robustez y ciberseguridad: requisitos técnicos mínimos de calidad y seguridad.
- Marcado CE y registro: los sistemas de alto riesgo deben llevar el marcado CE y registrarse en la base de datos de la UE.
Implicaciones para los abogados:
Aunque el AI Act se dirige principalmente a los proveedores y desarrolladores de sistemas de IA, tiene implicaciones indirectas para los abogados:
- Los abogados que utilicen sistemas de IA clasificados como de alto riesgo deberán asegurarse de que cumplen los requisitos del Reglamento.
- La obligación de alfabetización en IA (art. 4 del AI Act) implica que los usuarios profesionales deben tener un nivel adecuado de comprensión de la tecnología que utilizan.
- Los proveedores de IA generalista estarán sujetos a obligaciones de transparencia que incluyen la identificación clara de las limitaciones del sistema.
- Los abogados podrían tener acciones legales contra los proveedores de IA que no cumplan las obligaciones de transparencia e información del Reglamento.
La hoja de ruta del CGPJ
El CGPJ ha solicitado ser designado como autoridad de vigilancia del mercado cuando los sistemas de IA puedan afectar a la Administración de Justicia. Esta solicitud fue acogida por el Anteproyecto de Ley para el buen uso y la gobernanza de la Inteligencia Artificial, aprobado por el Consejo de Ministros el 11 de marzo de 2025 [7].
Las próximas medidas previsibles del CGPJ incluyen:
- Desarrollo de una guía específica para abogados sobre el uso de IA en la práctica procesal.
- Creación de un registro de sistemas de IA autorizados para uso en la actividad jurisdiccional.
- Establecimiento de protocolos de verificación de escritos sospechosos de contener contenido generado por IA.
- Formación obligatoria para jueces y magistrados sobre las capacidades y limitaciones de la IA.
Justicia predictiva y automatización
Más allá del problema inmediato de las sentencias falsas, la IA está transformando la administración de justicia en múltiples dimensiones:
- Justicia predictiva: algoritmos que predicen el resultado probable de un litigio basándose en datos históricos. Plantean cuestiones fundamentales sobre el derecho a un juez imparcial y a un juicio justo.
- Automatización de tareas procesales: sistemas que automatizan la tramitación procesal, la gestión de plazos y la notificación de resoluciones.
- Asistentes virtuales judiciales: herramientas de IA que ayudan a los jueces en la búsqueda de jurisprudencia, la redacción de borradores y la organización del trabajo.
- Mediación asistida por IA: sistemas que facilitan la resolución alternativa de conflictos mediante algoritmos de negociación.
Todas estas aplicaciones están sujetas a las directrices aprobadas por la Comisión Europea para la Eficiencia de la Justicia (CEPEJ) en diciembre de 2025, que establecen cinco principios rectores: respeto de los derechos fundamentales, no discriminación, calidad y seguridad, transparencia, y control del usuario.
La «carrera armamentística» entre generación y detección
Desde una perspectiva técnica, la relación entre los modelos de IA generativa y las herramientas de detección es una carrera sin fin. Cada nueva versión de los modelos de lenguaje produce texto más difícil de distinguir del texto humano, lo que obliga a las herramientas de detección a evolucionar constantemente. Algunas tendencias clave:
- Watermarking (marcas de agua digitales): tecnología prometedora que embebe señales estadísticas invisibles en el texto generado por IA, facilitando su identificación posterior. Sin embargo, estas marcas pueden eliminarse mediante parafraseo o traducción, lo que limita su fiabilidad.
- Modelos de detección especializados por dominio: herramientas diseñadas específicamente para detectar IA en textos jurídicos, médicos o académicos, que tienen en cuenta las particularidades estilísticas de cada campo.
- Provenance tracking (trazabilidad del origen): sistemas que permiten rastrear el origen de un texto a través de toda la cadena de procesamiento, desde la generación hasta la edición y presentación final.
- Regulación de la transparencia: la tendencia regulatoria global apunta hacia la obligación de declarar el uso de IA, lo que complementaría las técnicas de detección técnica con un marco normativo de transparencia.
Perspectivas para España
En España, las perspectivas para los próximos meses y años incluyen:
Directrices vinculantes de los colegios de abogados: varios colegios ya están elaborando normativa interna sobre el uso de IA. Es previsible que el Consejo General de la Abogacía Española publique directrices unificadas antes de finales de 2026. Estas directrices probablemente incluirán la obligación de verificación de citas, la declaración del uso de IA, el protocolo de supervisión humana y el régimen de responsabilidad del abogado.
Endurecimiento de las sanciones: la multa de 420 euros del TSJC representa el mínimo del rango sancionador. A medida que la doctrina se consolida, las multas previsiblemente se acercarán al límite de 6.000 euros, especialmente en casos de reiteración. La progresión desde la multa del TSJC hasta la advertencia del TSJN anticipa un endurecimiento significativo en las próximas resoluciones.
Primeras consecuencias penales: si se produce un caso grave con dolo acreditado —por ejemplo, un abogado que, tras la advertencia del TSJN, siga presentando citas fabricadas con pleno conocimiento de los riesgos—, España podría registrar su primera condena penal por presentación de documentos falsos generados por IA. La aplicación de los artículos 393 o 396 del Código Penal en este contexto sería un hito jurídico de primera magnitud.
Protocolos de verificación en tribunales: es probable que los tribunales implementen protocolos sistemáticos de verificación de citas jurisprudenciales, posiblemente con apoyo de herramientas de IA jurídica. Los servicios de documentación de los tribunales superiores podrían ser los primeros en establecer estos protocolos, siguiendo el ejemplo de la documentalista del TSJC que detectó las 48 citas falsas en el caso de Canarias.
Formación obligatoria: la incorporación de la IA al currículo de formación continua de abogados y a la oposición de acceso a la carrera judicial. Los colegios de abogados ya están ofreciendo jornadas y seminarios sobre el tema, pero es previsible que la formación se convierta en obligatoria como requisito de habilitación profesional.
Seguro de responsabilidad profesional: las aseguradoras que cubren la responsabilidad civil profesional de los abogados podrían empezar a incluir cláusulas específicas sobre el uso de IA, exigiendo protocolos de verificación como condición de cobertura o excluyendo los daños derivados de la negligencia con herramientas de IA no verificadas.
Responsabilidad de los proveedores de IA: a medida que se desarrolle la regulación europea (AI Act, propuestas de directiva de responsabilidad por IA), los proveedores de herramientas de IA generalista podrían verse sometidos a obligaciones de advertencia más estrictas sobre las limitaciones de sus productos en el ámbito jurídico.
El debate ético: ¿debe prohibirse el uso de IA en la práctica jurídica?
Frente a los riesgos documentados, surge inevitablemente la pregunta de si la solución pasa por prohibir el uso de inteligencia artificial en la práctica jurídica. La respuesta, tanto desde la perspectiva técnica como desde la jurídica, es que la prohibición sería contraproducente, desproporcionada e ineficaz.
Argumentos contra la prohibición:
La IA ya es ubicua: las herramientas de IA están integradas en los correctores ortográficos, los motores de búsqueda, los procesadores de texto y las bases de datos jurídicas. Prohibir «la IA» requeriría definir con precisión qué tecnologías se prohíben, lo que es prácticamente imposible dado el ritmo de evolución tecnológica.
La IA jurídica especializada mejora la calidad: plataformas como vLex, Aranzadi o La Ley Digital utilizan IA para mejorar la búsqueda de jurisprudencia, lo que beneficia la calidad de la práctica jurídica. Prohibir la IA indiscriminadamente perjudicaría innovaciones beneficiosas.
La prohibición sería ineficaz: dado que las herramientas de IA son accesibles online desde cualquier dispositivo, una prohibición formal sería imposible de controlar y podría generar un «mercado negro» de uso clandestino, aún más difícil de supervisar.
El problema no es la herramienta, sino el uso: como ha señalado el propio TSJN, el problema no es la IA en sí, sino el «uso descuidado» de estas tecnologías. La solución pasa por regular el uso, exigir verificación y sancionar la negligencia, no por prohibir la tecnología.
La solución: regulación inteligente y cultura de verificación:
En lugar de la prohibición, la respuesta adecuada combina:
- Regulación proporcional: normas que exijan supervisión humana, verificación de citas y transparencia en el uso de IA, sin prohibir la tecnología en sí.
- Herramientas adecuadas: fomentar el uso de IA jurídica especializada (con datos verificados) frente a IA generalista (con riesgo de alucinación).
- Formación continua: asegurar que todos los profesionales del Derecho comprendan las limitaciones de la IA y conozcan los protocolos de verificación.
- Cultura de verificación: incorporar la verificación de fuentes como una práctica profesional rutinaria e irrenunciable, independientemente de cómo se hayan obtenido.
- Apoyo pericial: facilitar el acceso a peritaje informático forense cuando se sospeche la presencia de contenido generado por IA en procedimientos judiciales.
Escenarios prospectivos: 2026-2028
Para completar esta sección de futuro, presentamos tres escenarios prospectivos sobre cómo podría evolucionar la relación entre IA y justicia en España durante los próximos dos años:
Escenario optimista: autorregulación efectiva
En este escenario, los colegios de abogados publican directrices vinculantes antes de finales de 2026, los despachos implementan protocolos de verificación, la formación sobre IA se generaliza y los casos de sentencias falsas se reducen drásticamente. Las herramientas de IA jurídica especializada se adoptan masivamente, desplazando al uso de IA generalista para tareas que requieren precisión documental. Las sanciones se mantienen en niveles moderados porque los casos son excepcionales.
Escenario central: evolución gradual con incidentes
En este escenario —el más probable—, los casos de sentencias falsas continúan apareciendo durante 2026-2027 a medida que la IA generalista se adopta masivamente, pero las sanciones se endurecen progresivamente, creando un efecto disuasorio creciente. Los colegios de abogados publican directrices con retraso (primer semestre de 2027), y la formación se incorpora gradualmente a los programas de formación continua. España registra su primera sanción penal por este motivo en 2027-2028.
Escenario pesimista: escalada de casos sin respuesta efectiva
En este escenario, la falta de regulación específica para abogados y la lentitud de los colegios profesionales permiten que los casos se multipliquen, erosionando la confianza pública en la justicia. Los tribunales se ven desbordados por la necesidad de verificar citas en un volumen creciente de escritos, y se producen casos graves de resoluciones judiciales basadas en jurisprudencia fabricada que afectan a los derechos de los ciudadanos. Este escenario es el que justifica la urgencia de las medidas regulatorias y formativas actualmente en curso.
Recomendación del perito: actuar ahora, no esperar
Independientemente del escenario que se materialice, la recomendación para los profesionales del Derecho es clara: no esperar a que la regulación se complete para adoptar prácticas seguras. El marco legal ya existe (art. 247 LEC, art. 11 LOPJ, Instrucción 2/2026 CGPJ), y los tribunales ya están aplicándolo. Implementar un protocolo de verificación de citas, utilizar herramientas de IA jurídica especializada y documentar el proceso de verificación son medidas que todo despacho debería adoptar de forma inmediata, no solo por cumplimiento normativo, sino por responsabilidad profesional y protección del cliente.
Preguntas frecuentes
¿Es mala fe procesal usar ChatGPT para redactar escritos judiciales?
No necesariamente. Usar inteligencia artificial como herramienta de asistencia en la redacción no es, por sí solo, constitutivo de mala fe procesal. Lo que constituye mala fe procesal es incluir en un escrito citas jurisprudenciales, datos o referencias que el profesional no ha verificado y que resultan ser falsas. La clave es la verificación: el abogado que usa IA y comprueba cada cita contra Cendoj actúa diligentemente; el que copia y pega sin verificar asume un riesgo creciente de sanción, como han dejado claro tanto el TSJC como el TSJN [1][6]. La Instrucción 2/2026 del CGPJ no prohíbe el uso de IA; lo que exige es supervisión humana efectiva y responsabilidad profesional sobre el resultado final [7].
¿Qué diferencia hay entre la multa del TSJC y la advertencia del TSJN?
El TSJC de Canarias actuó sobre un caso concreto: multó a un abogado que efectivamente presentó 48 sentencias falsas, con una sanción de 420 euros y traslado al Colegio de Abogados [6]. El TSJN de Navarra ha emitido una advertencia preventiva de carácter general, sin imponer sanción a la abogada implicada, pero avisando a todos los profesionales que ejerzan ante sus salas de que esta conducta será sancionada en el futuro [1]. La advertencia del TSJN tiene un efecto disuasorio más amplio porque no requiere un caso previo: establece el criterio del tribunal de forma prospectiva. En la práctica, significa que cualquier abogado que presente citas falsas ante el TSJN a partir del 26 de marzo de 2026 no podrá alegar desconocimiento del criterio del tribunal.
¿La Instrucción 2/2026 del CGPJ afecta a los abogados?
La Instrucción 2/2026 regula directamente el uso de IA por jueces y magistrados en la actividad jurisdiccional, no por abogados [7]. Sin embargo, los tribunales —como ha hecho el TSJN— están aplicando sus principios analógicamente a la conducta de los letrados, especialmente el principio de supervisión humana efectiva y el de responsabilidad del profesional. Los colegios de abogados están elaborando sus propias directrices, pero hasta que se publiquen, el marco aplicable es el deber general de buena fe procesal del artículo 247 de la LEC [10]. Es previsible que el Consejo General de la Abogacía Española publique directrices específicas antes de finalizar 2026.
¿Puede un perito informático determinar si un escrito judicial fue redactado con IA?
Sí, mediante una combinación de técnicas que incluyen análisis estilométrico (perplejidad, burstiness, entropía léxica), verificación factual de citas contra bases de datos oficiales, análisis de metadatos del documento (fechas de creación, tiempo de edición, historial de revisiones) y herramientas especializadas de detección de contenido sintético (GPTZero, Originality.ai). Sin embargo, la detección tiene limitaciones significativas: los textos jurídicos formales son inherentemente difíciles de clasificar porque comparten características estilísticas con el texto generado por IA. La verificación factual —comprobar que las citas existen realmente en Cendoj— sigue siendo siempre el método más fiable [13][14]. Un peritaje profesional combina múltiples técnicas para maximizar la fiabilidad del análisis y minimizar el riesgo de falsos positivos.
¿Cuánto cuesta verificar citas jurisprudenciales mediante peritaje?
El coste depende del volumen de citas a verificar, la complejidad del caso y el alcance del análisis solicitado. Una verificación básica de un escrito con 10-20 citas puede completarse en pocas horas. Un análisis completo que incluya verificación factual, análisis de metadatos, análisis estilométrico y examen del dispositivo puede requerir varios días de trabajo. Para una consulta inicial gratuita donde evaluar el caso y presupuestar, puedes contactar a través de la página de contacto o llamar al 624 09 37 96. Como referencia, el coste de una verificación preventiva es siempre inferior al de una multa procesal (hasta 6.000 euros) más los daños reputacionales y las potenciales consecuencias disciplinarias y civiles.
¿Qué herramientas de IA jurídica son seguras para abogados?
Las plataformas diseñadas específicamente para profesionales del Derecho —como vLex (con Vincent AI), Aranzadi-Westlaw, La Ley Digital y Tirant lo Blanch— trabajan sobre bases de datos de jurisprudencia real verificada y enlazan cada cita a la fuente original. A diferencia de ChatGPT, Gemini o Claude, estas herramientas no «inventan» sentencias porque consultan bases de datos reales en lugar de generar texto estadísticamente probable. Su coste oscila entre 50 y 150 euros al mes [12], lo que las hace accesibles para cualquier despacho profesional. Es importante señalar que incluso con herramientas jurídicas especializadas, la verificación final del profesional sigue siendo recomendable.
¿Pueden sancionarme aunque no supiera que las sentencias eran falsas?
Sí. La buena fe procesal del artículo 247 de la LEC no exige dolo (intencionalidad); la negligencia es suficiente para imponer una multa procesal [10]. El tribunal entiende que un profesional del Derecho tiene la obligación de verificar las fuentes que presenta en un escrito, independientemente de cómo las haya obtenido. El desconocimiento de que la herramienta de IA fabrica contenido no exime de responsabilidad, como quedó claro en el caso del TSJC de Canarias [6]. Tras las advertencias del TSJN y la publicación de la Instrucción 2/2026, el argumento del desconocimiento es cada vez menos sostenible. Sin embargo, el reconocimiento de los hechos y el arrepentimiento pueden actuar como atenuantes a la hora de graduar la multa, como ocurrió en el caso del TSJC (420 euros en un rango de 180 a 6.000).
¿Qué pasa si la parte contraria alega falsamente que mis citas son de IA?
Este es un riesgo real que merece atención. Las herramientas de detección de IA tienen una tasa de falsos positivos significativa, especialmente en textos jurídicos formales. Si la parte contraria alega que tus citas son fabricadas por IA, puedes: (a) demostrar la existencia de las sentencias citadas presentando las resoluciones completas descargadas de Cendoj, (b) solicitar un contraperitaje que evidencie las limitaciones de las herramientas de detección utilizadas, y (c) aportar el registro de tu proceso de verificación. Mantener documentación de tus verificaciones es la mejor defensa preventiva contra acusaciones infundadas.
¿Cuáles son las diferencias entre IA generalista e IA jurídica especializada?
La diferencia fundamental es el origen de los datos. Las herramientas de IA generalista (ChatGPT, Gemini, Claude) generan texto mediante predicción estadística basada en un corpus general de internet, sin consultar bases de datos jurídicas verificadas. Las herramientas de IA jurídica (vLex, Aranzadi, La Ley, Tirant) trabajan sobre bases de datos de jurisprudencia real, enlazando cada cita a su fuente original. La tasa de alucinación en citas legales de la IA generalista puede alcanzar el 15-40%, mientras que las herramientas jurídicas especializadas prácticamente no generan citas falsas porque consultan datos reales [12].
¿Puede un juez usar ChatGPT para redactar sentencias?
Tras la Instrucción 2/2026 del CGPJ, los jueces y magistrados solo pueden utilizar sistemas de IA facilitados por las administraciones competentes o por el propio CGPJ [7]. Esto excluye, en principio, el uso de herramientas de IA generalista como ChatGPT para la redacción de resoluciones judiciales. El caso de Ceuta —donde un magistrado incorporó citas falsas generadas por IA a un auto— ilustra los riesgos de incumplir esta norma. El incumplimiento puede dar lugar a responsabilidad disciplinaria conforme a la LOPJ y, en casos graves, a responsabilidad penal por falsedad documental (art. 390 del Código Penal).
¿Qué ocurre si descubro que la parte contraria ha presentado citas falsas de IA?
Si sospechas que la parte contraria ha incluido en sus escritos citas jurisprudenciales fabricadas por IA, puedes: (a) verificar las citas contra Cendoj y las bases de datos jurídicas; (b) si confirmas que son inexistentes, ponerlo en conocimiento del tribunal mediante escrito motivado; (c) solicitar que el tribunal requiera a la parte contraria las sentencias citadas; (d) solicitar la intervención de un perito informático forense que elabore un informe pericial documentando la fabricación; (e) solicitar la sanción prevista en el artículo 247 de la LEC. Además, si el fraude ha causado perjuicio a tu cliente, puedes valorar las acciones civiles y penales correspondientes.
¿Las herramientas de detección de IA son admisibles como prueba en juicio?
Los resultados de herramientas como GPTZero u Originality.ai pueden ser aportados como indicios complementarios en un procedimiento judicial, pero no deben considerarse como prueba concluyente por sí solos. Su admisibilidad dependerá de la valoración del tribunal conforme a las reglas de la sana crítica. Un informe pericial que integre los resultados de estas herramientas con verificación factual, análisis de metadatos y análisis estilométrico tendrá mayor valor probatorio que el resultado aislado de una herramienta automatizada. Es fundamental que el perito declare en su informe las limitaciones conocidas de las herramientas utilizadas, especialmente su tasa de falsos positivos en textos jurídicos formales.
¿Qué debo hacer si ya presenté un escrito con citas que podrían ser falsas?
Si descubres que has presentado un escrito con citas potencialmente fabricadas por IA, actúa con la máxima urgencia: (a) verifica inmediatamente todas las citas contra Cendoj; (b) si confirmas que alguna es falsa, comunícalo al tribunal mediante escrito rectificativo antes de que el tribunal lo detecte por sí mismo; (c) explica las circunstancias con transparencia; (d) sustituye las citas falsas por jurisprudencia real verificada. La comunicación proactiva y transparente puede ser valorada como atenuante. El caso del TSJC de Canarias demuestra que el reconocimiento de los hechos y el arrepentimiento son tenidos en cuenta para graduar la sanción [6]. Ocultar o negar el uso de IA una vez descubierto agravará previsiblemente las consecuencias.
¿Afecta el Reglamento europeo de IA (AI Act) a esta cuestión?
Sí. El Reglamento (UE) 2024/1689 clasifica los sistemas de IA utilizados en la administración de justicia como sistemas de «alto riesgo», lo que implica requisitos reforzados de gestión de riesgos, documentación técnica, supervisión humana y ciberseguridad [16]. Será plenamente aplicable en agosto de 2026, lo que añadirá una capa adicional de regulación al uso de IA en el ámbito judicial español. Además, el CGPJ ha solicitado ser designado como autoridad de vigilancia del mercado cuando los sistemas de IA afecten a la Administración de Justicia. Es previsible que la transposición del AI Act al ordenamiento español refuerce las obligaciones ya establecidas por la Instrucción 2/2026.
¿Cómo puedo formar a mi equipo sobre los riesgos de la IA?
La formación del equipo es esencial para prevenir incidentes. Se recomienda: (a) impartir sesiones formativas sobre las limitaciones de la IA generalista y el riesgo de alucinaciones; (b) establecer un protocolo escrito de verificación de citas que todos los miembros del despacho conozcan y cumplan; (c) designar a un responsable de compliance tecnológico que se mantenga actualizado sobre la regulación; (d) suscribirse a herramientas de IA jurídica especializada que minimicen el riesgo; (e) realizar ejercicios prácticos de verificación para que todo el equipo interiorice el proceso. Varios colegios de abogados están ofreciendo formación específica sobre IA y práctica jurídica que puede complementar las medidas internas.
¿Qué papel juega el Colegio de Abogados cuando se detecta un caso?
Cuando un tribunal da traslado de una conducta contraria a la buena fe procesal al Colegio de Abogados correspondiente (conforme al art. 247.4 LEC), se inicia un procedimiento disciplinario independiente del procesal. El Colegio abre una información reservada para valorar los hechos, da audiencia al abogado implicado y puede adoptar una de las siguientes decisiones: (a) archivar las actuaciones si no aprecia infracción, (b) imponer una sanción de apercibimiento (falta leve), (c) imponer una sanción de suspensión temporal del ejercicio profesional (falta grave o muy grave), o (d) en los casos más extremos, acordar la expulsión del Colegio. El procedimiento disciplinario colegial es independiente del procesal y del penal, por lo que las sanciones pueden acumularse. El abogado sancionado puede recurrir la decisión del Colegio ante los tribunales contencioso-administrativos.
¿Existe algún registro público de abogados sancionados por usar IA?
Actualmente no existe en España un registro público específico de abogados sancionados por uso negligente de IA en la práctica jurídica. Las sanciones procesales (multas del art. 247 LEC) constan en el expediente judicial correspondiente pero no se publican en un registro centralizado. Los expedientes disciplinarios colegiales tampoco se hacen públicos, aunque la identidad de los sancionados puede circular en ámbitos profesionales. Sin embargo, las resoluciones judiciales que imponen las sanciones sí son públicas y accesibles a través de Cendoj, lo que permite a cualquier profesional conocer la doctrina de los tribunales sobre esta materia.
¿Puedo ser demandado por mi cliente si uso IA y se pierde el caso?
Sí, es posible. Si un abogado utiliza IA para generar escritos procesales, incluye citas falsas sin verificar, y como consecuencia de esa negligencia el procedimiento se resuelve desfavorablemente para el cliente, este puede demandar al abogado por responsabilidad civil contractual (art. 1101 CC) o extracontractual (art. 1902 CC). La cuantía de la indemnización dependerá del perjuicio causado, que puede incluir: las costas del procedimiento perdido, el valor del derecho ejercitado sin éxito, el daño moral y los costes de un eventual nuevo procedimiento. Para que prospere la demanda, el cliente deberá acreditar: (a) la negligencia del abogado (uso de IA sin verificación), (b) el perjuicio sufrido, y (c) la relación de causalidad entre ambos (que la negligencia fue determinante del resultado desfavorable). El seguro de responsabilidad civil profesional del abogado debería cubrir esta contingencia, salvo exclusión por dolo.
¿Cómo verifico rápidamente si una sentencia del Tribunal Supremo existe?
La verificación más rápida y sencilla es a través de Cendoj, la base de datos oficial y gratuita del Poder Judicial. El proceso es el siguiente:
- Acceder a www.poderjudicial.es/search/.
- En el buscador de jurisprudencia, introducir el número de resolución (por ejemplo, STS 1287/2023) o el identificador ECLI.
- Si la sentencia existe, aparecerá en los resultados con su texto completo.
- Si no aparece, ampliar la búsqueda utilizando otros criterios: fecha, materia, ponente.
- Si tras una búsqueda exhaustiva la sentencia no se encuentra, es muy probable que no exista.
Como verificación adicional, se recomienda buscar también en Aranzadi o vLex. Si una sentencia no aparece en ninguna de estas tres fuentes, se puede afirmar con altísima certeza que es una fabricación.
El tiempo necesario para verificar una cita es de 1-3 minutos. Verificar 20 citas requiere entre 20 y 60 minutos: un tiempo insignificante comparado con las consecuencias de presentar citas falsas.
¿Las IA jurídicas especializadas también pueden alucinar?
Las herramientas de IA jurídica especializada (vLex, Aranzadi, La Ley, Tirant lo Blanch) tienen un riesgo de alucinación significativamente menor que las herramientas generalistas, porque trabajan sobre bases de datos de jurisprudencia real y enlazan cada cita a su fuente original. Sin embargo, no son completamente inmunes a errores: pueden producir resúmenes imprecisos de sentencias reales, citar sentencias existentes pero aplicables a materias diferentes, o interpretar erróneamente el alcance de una doctrina. Por esta razón, la verificación final por parte del profesional sigue siendo recomendable incluso cuando se utilizan herramientas jurídicas especializadas. La diferencia fundamental es que el tipo de error es cualitativamente distinto: una herramienta jurídica puede citar mal una sentencia real, pero difícilmente inventará una sentencia que no existe.
¿Qué pasa si utilizo IA para traducir jurisprudencia extranjera y la traducción es incorrecta?
El uso de IA para traducir jurisprudencia de otros ordenamientos (por ejemplo, sentencias del Tribunal de Justicia de la Unión Europea o del Tribunal Europeo de Derechos Humanos) plantea riesgos adicionales. Las herramientas de traducción basadas en IA pueden alterar el significado de pasajes técnicos, introducir matices que no existen en el original o eliminar elementos relevantes. Si la traducción errónea conduce a una cita sustancialmente distinta del texto original, el profesional podría incurrir en las mismas responsabilidades que si hubiera fabricado la cita. La recomendación es utilizar las traducciones oficiales disponibles (por ejemplo, las del TJUE o el TEDH en su web oficial) y, cuando no existan, recurrir a traductores jurados o verificar la traducción automática con un profesional cualificado.
¿Pueden los juzgados implementar sistemas automáticos de verificación de citas?
Técnicamente es viable desarrollar sistemas automatizados que verifiquen las citas jurisprudenciales contenidas en los escritos procesales contra las bases de datos oficiales. Estos sistemas podrían funcionar como un «filtro» previo que alerte al tribunal cuando un escrito contenga citas no verificables. Algunas plataformas de IA jurídica ya ofrecen funcionalidades similares. Sin embargo, su implementación generalizada en los juzgados españoles requiere inversión tecnológica, integración con los sistemas de gestión procesal existentes y decisiones político-administrativas que probablemente tardarán años en materializarse. Mientras tanto, los tribunales dependen de la diligencia de sus servicios de documentación (como la documentalista del TSJC que detectó las 48 citas falsas) y del apoyo de peritos informáticos forenses.
Glosario de términos técnicos utilizados en este artículo
Para facilitar la comprensión de este artículo por parte de profesionales del Derecho sin formación tecnológica, se incluye un glosario de los principales términos técnicos utilizados:
| Término | Definición |
|---|---|
| Alucinación (hallucination) | Fenómeno por el cual un modelo de IA genera información que parece real pero es completamente inventada. En el contexto jurídico, la fabricación de sentencias, citas o referencias inexistentes. |
| Burstiness (ráfaga) | Métrica lingüística que mide la variación en la longitud de las frases de un texto. Los textos humanos suelen tener alta variación; los generados por IA, baja. |
| Cadena de custodia | Procedimiento documentado que garantiza la integridad de una evidencia digital desde su adquisición hasta su presentación en juicio. Véase cadena de custodia. |
| Cendoj | Centro de Documentación Judicial del CGPJ. Base de datos oficial y gratuita que contiene la jurisprudencia de todos los órganos judiciales españoles. |
| Contenido sintético | Contenido (texto, imagen, audio, vídeo) generado por inteligencia artificial. Véase contenido sintético. |
| ECLI | European Case Law Identifier. Identificador estándar europeo para resoluciones judiciales. Formato: ECLI:[país]:[tribunal]:[año]:[número]. |
| Entropía léxica | Métrica que mide la diversidad y distribución del vocabulario en un texto. Mayor entropía = mayor variedad léxica. |
| ExifTool | Herramienta de software libre para leer, escribir y manipular metadatos de archivos digitales. |
| FOCA | Fingerprinting Organizations with Collected Archives. Herramienta de análisis de metadatos desarrollada por Eleven Paths. |
| GPTZero | Herramienta comercial de detección de texto generado por IA, basada en el análisis de perplejidad y burstiness. |
| Hash criptográfico | Función matemática que produce una «huella digital» única de un archivo digital. Se utiliza para garantizar la integridad de la evidencia. Los algoritmos más comunes son SHA-256 y MD5. |
| ISO 27037 | Norma internacional que establece directrices para la identificación, recogida, adquisición y preservación de la evidencia digital. Véase informática forense. |
| LLM (Large Language Model) | Modelo de lenguaje grande. Tipo de inteligencia artificial entrenada sobre grandes volúmenes de texto que puede generar texto coherente y contextualmente relevante. Ejemplos: GPT-4, Gemini, Claude, Llama. |
| Metadatos | Datos sobre datos. Información técnica embebida en los archivos digitales que describe sus propiedades de creación, edición y almacenamiento. Véase metadatos. |
| OOXML | Office Open XML. Estándar de formato de archivos utilizado por Microsoft Office (docx, xlsx, pptx). Es un archivo ZIP que contiene múltiples archivos XML. |
| Originality.ai | Herramienta comercial de detección de texto generado por IA y de plagio. |
| Perplejidad (perplexity) | Métrica que mide lo predecible que resulta un texto dado un modelo de lenguaje. Baja perplejidad = texto muy predecible (posible IA). Alta perplejidad = texto impredecible (posible humano). |
| Token | Unidad mínima de texto procesada por un modelo de lenguaje. Puede ser una palabra, parte de una palabra o un signo de puntuación. |
| Watermarking | Técnica que consiste en embeber señales estadísticas invisibles en el texto generado por IA para facilitar su identificación posterior. |
Conclusión: un punto de inflexión para la profesión jurídica
Los acontecimientos de los tres primeros meses de 2026 representan un punto de inflexión en la relación entre la inteligencia artificial y la práctica jurídica en España. La advertencia del TSJN de Navarra, la multa del TSJC de Canarias, la investigación del caso de Ceuta y la publicación de la Instrucción 2/2026 del CGPJ configuran un marco jurídico y jurisprudencial que deja poco margen de duda: los tribunales españoles no van a tolerar la presentación de jurisprudencia fabricada por inteligencia artificial, y las consecuencias para los profesionales negligentes serán cada vez más severas.
Sin embargo, sería un error reducir este fenómeno a una cuestión de sanciones y prohibiciones. El verdadero desafío es cultural: se trata de integrar la inteligencia artificial en la práctica jurídica de forma responsable, verificada y transparente, aprovechando sus enormes beneficios (eficiencia, accesibilidad, productividad) sin comprometer los valores fundamentales del sistema de justicia (veracidad, rigor, buena fe).
Los mensajes clave de este análisis son:
La IA no es el problema; el uso sin verificación sí lo es. Las herramientas de IA pueden ser extraordinariamente útiles para la práctica jurídica cuando se utilizan con la debida diligencia. El problema surge cuando el profesional confía ciegamente en la salida de la máquina sin realizar las verificaciones que le son razonablemente exigibles.
La verificación es gratuita y sencilla. Cendoj es una herramienta pública, gratuita y accesible online que permite verificar la existencia de cualquier sentencia española en cuestión de segundos. No existe excusa económica ni técnica para omitir esta comprobación elemental.
El marco legal ya existe. No es necesaria una legislación nueva para sancionar la presentación de sentencias falsas de IA. El artículo 247 de la LEC, el artículo 11 de la LOPJ, los artículos 390-396 del Código Penal y el Estatuto General de la Abogacía proporcionan un marco sancionador completo que los tribunales están aplicando con creciente determinación.
Las consecuencias son acumulativas. Un único acto de negligencia puede generar multa procesal, expediente disciplinario colegial, responsabilidad civil frente al cliente y, en los casos más graves, responsabilidad penal. La acumulación de estas consecuencias puede ser devastadora para la carrera de un profesional del Derecho.
La tendencia es global e irreversible. El fenómeno no es exclusivamente español: se está produciendo en todo el mundo, y todos los ordenamientos jurídicos están convergiendo hacia la exigencia de verificación, transparencia y responsabilidad del profesional.
El perito informático forense es un aliado esencial. La detección de contenido generado por IA es una disciplina técnica compleja que requiere conocimientos especializados. Los tribunales, los abogados y las partes litigantes necesitan el apoyo de profesionales cualificados en informática forense para navegar los desafíos técnicos de esta nueva realidad.
La prevención es siempre más barata que la sanción. El coste de implementar protocolos de verificación, suscribirse a herramientas de IA jurídica especializada y formar al equipo es insignificante comparado con las consecuencias de una sanción procesal, un expediente disciplinario y los daños reputacionales asociados.
Como perito informático forense, mi recomendación a todos los profesionales del Derecho es clara: adopten protocolos de verificación ahora, no esperen a que la regulación se complete ni a que un incidente les obligue a reaccionar. La responsabilidad profesional empieza por la diligencia, y la diligencia, en 2026, incluye la verificación de toda información generada por inteligencia artificial.
La inteligencia artificial está transformando la práctica jurídica. Depende de nosotros —abogados, jueces, peritos, legisladores— que esa transformación se produzca de forma responsable, preservando la integridad del sistema de justicia y la confianza de los ciudadanos en él.
Recursos adicionales para profesionales
Para abogados
- Cendoj: www.poderjudicial.es/search/ — Verificación gratuita de jurisprudencia.
- Instrucción 2/2026 CGPJ: BOE-A-2026-2205 — Texto íntegro de la Instrucción.
- Artículo 247 LEC: Texto en Iberley — Marco legal de la mala fe procesal.
- Base de datos de alucinaciones legales: damiencharlotin.com/hallucinations — Casos documentados a nivel mundial.
- Estatuto General de la Abogacía Española: BOE-A-2021-3338 — Deberes del abogado.
Para jueces y magistrados
- Instrucción 2/2026: texto íntegro y análisis doctrinal disponibles en la web del CGPJ.
- Directrices CEPEJ sobre IA en tribunales: aprobadas en diciembre de 2025 por la Comisión Europea para la Eficiencia de la Justicia.
- AI Act (Reglamento UE 2024/1689): texto consolidado en artificialintelligenceact.eu.
Para peritos informáticos
- ISO 27037: directrices para la identificación, recogida, adquisición y preservación de la evidencia digital.
- ISO 27042: directrices para el análisis e interpretación de la evidencia digital.
- NIST SP 800-86: guía para la integración de técnicas forenses en la respuesta a incidentes.
- ExifTool: exiftool.org — Herramienta de análisis de metadatos.
- GPTZero: gptzero.me — Herramienta de detección de IA.
- Originality.ai: originality.ai — Herramienta de detección de IA.
Para clientes y ciudadanos
Si sospechas que tu abogado ha utilizado inteligencia artificial para fabricar jurisprudencia en tu caso:
- Solicita a tu abogado las sentencias citadas en formato completo (no solo extractos).
- Verifica las sentencias en Cendoj, que es gratuito y accesible para cualquier ciudadano.
- Si confirmas que alguna sentencia no existe, puedes: (a) solicitar explicaciones a tu abogado, (b) presentar una queja ante el Colegio de Abogados correspondiente, (c) poner los hechos en conocimiento del tribunal, y (d) consultar con otro abogado sobre las acciones legales disponibles.
- Conserva toda la documentación como evidencia.
- Si necesitas apoyo técnico para la verificación, puedes solicitar la asistencia de un perito informático forense.
Referencias y fuentes
Poder Judicial de España (26 Mar 2026). «El Tribunal Superior de Navarra advierte de que el uso fraudulento de inteligencia artificial es sancionable por mala fe procesal». https://www.poderjudicial.es/cgpj/es/Poder-Judicial/Noticias-Judiciales/El-Tribunal-Superior-de-Navarra-advierte-de-que-el-uso-fraudulento-de-inteligencia-artificial-es-sancionable-por-mala-fe-procesal
Infobae España (26 Mar 2026). «El TSJN advierte de que el uso fraudulento de inteligencia artificial es sancionable por mala fe procesal». https://www.infobae.com/espana/agencias/2026/03/26/el-tsjn-advierte-de-que-el-uso-fraudulento-de-inteligencia-artificial-es-sancionable-por-mala-fe-procesal/
Damien Charlotin (2026). «AI Hallucinations in Legal Proceedings — Case Database». https://www.damiencharlotin.com/hallucinations/
CNN (27 May 2023). «Lawyer apologizes for fake court citations from ChatGPT». https://www.cnn.com/2023/05/27/business/chat-gpt-avianca-mata-lawyers. Véase también: Wikipedia, Mata v. Avianca, Inc. https://en.wikipedia.org/wiki/Mata_v._Avianca,_Inc.
Telecinco (12 Ene 2026). «Un abogado denuncia a un juez de Ceuta por usar presuntamente IA para citar sentencias inexistentes del Tribunal Supremo». https://www.telecinco.es/noticias/andalucia/20260112/abogado-denuncia-juez-ceuta-usar-ia-sentencias-inexistentes-supremo_18_018040088.html. Véase también: Confilegal (13 Ene 2026). «El fiscal fundamentó su escrito en jurisprudencia inexistente generada por IA y el juez la validó en un auto». https://confilegal.com/20260113-el-fiscal-fundamento-su-escrito-en-jurisprudencia-inexistente-generada-por-ia-y-el-juez-la-valido-en-un-auto-para-denegar-un-recurso-ajustado-a-la-legalidad/
El Español (13 Feb 2026). «Multa de 420 euros a un abogado por citar en un escrito 48 sentencias falsas generadas por Inteligencia Artificial». https://www.elespanol.com/espana/tribunales/20260213/multa-euros-abogado-citar-escrito-sentencias-falsas-generadas-inteligencia-artificial/1003744129079_0.html. Véase también: Poder Judicial de España (13 Feb 2026). «El TSJ de Canarias multa a un abogado por citar hasta 48 sentencias falsas sugeridas por IA». https://www.poderjudicial.es/cgpj/es/Poder-Judicial/Noticias-Judiciales/El-TSJ-de-Canarias-multa-a-un-abogado-por-citar-hasta-48-sentencias-falsas-sugeridas-por-IA
BOE (30 Ene 2026). «Acuerdo de 28 de enero de 2026, del Pleno del Consejo General del Poder Judicial, por el que se aprueba la Instrucción 2/2026, sobre la utilización de sistemas de inteligencia artificial en el ejercicio de la actividad jurisdiccional». BOE-A-2026-2205. https://www.boe.es/diario_boe/txt.php?id=BOE-A-2026-2205. Véase también: Iberley (2026). «El CGPJ aprueba la Instrucción 2/2026 sobre uso de IA en la actividad judicial». https://www.iberley.es/noticias/nueva-instruccion-cgpj-uso-ia-actividad-judicial-36001
SwissInfo (17 Abr 2025). «Tribunal italiano alerta del uso de la IA por un abogado que basó su defensa en falsedades». https://www.swissinfo.ch/spa/tribunal-italiano-alerta-del-uso-la-ia-por-un-abogado-que-bas%C3%B3-su-defensa-en-falsedades/89179939. Véase también: BioBioChile (17 Abr 2025). «Polémica en Italia: abogado defensor citó sentencias sugeridas por ChatGPT y resultaron ser falsas». https://www.biobiochile.cl/noticias/internacional/europa/2025/04/17/polemica-en-italia-abogado-defensor-cito-sentencias-sugeridas-por-chatgpt-y-resultaron-ser-falsas.shtml
Infobae Colombia (12 Nov 2025). «Histórico fallo de la Corte Suprema sobre el uso de la IA en Colombia: por primera vez anuló una decisión judicial apoyada en citas falsas». https://www.infobae.com/colombia/2025/11/12/historico-fallo-de-la-corte-suprema-sobre-el-uso-de-la-ia-en-colombia-por-primera-vez-anulo-una-decision-judicial-apoyada-en-citas-falsas/. Véase también: El Tiempo (Feb 2026). «La inédita sanción de la Corte Suprema a un abogado que usó la inteligencia artificial para redactar un recurso de revisión». https://www.eltiempo.com/justicia/cortes/la-inedita-sancion-de-la-corte-suprema-a-un-abogado-que-uso-la-inteligencia-artificial-para-redactar-un-recurso-de-revision-3532886
Ley 1/2000, de 7 de enero, de Enjuiciamiento Civil. Artículo 247: Respeto a las reglas de la buena fe procesal. https://www.boe.es/buscar/act.php?id=BOE-A-2000-323. Véase también: Iberley. «Artículo 247 Ley de Enjuiciamiento Civil». https://www.iberley.es/legislacion/articulo-247-ley-enjuiciamiento-civil
BOE. «Estatuto General de la Abogacía Española — Real Decreto 135/2021, de 2 de marzo». Artículos 42, 48 y 54. https://www.boe.es/buscar/act.php?id=BOE-A-2021-3338
Noticias de Navarra (26 Mar 2026). «Una abogada alude a sentencias inventadas por usar la IA y el TSJ de Navarra no la sanciona». https://www.noticiasdenavarra.com/sociedad/2026/03/26/abogada-alude-sentencias-inventadas-ia-10871149.html
GPTZero (2026). «Cómo funcionan los detectores de contenido IA: técnicas y límites». https://gptzero.me/news/como-funcionan-detectores-contenido-ia/. Véase también: Xataka (2025). «Las herramientas para detectar textos hechos con IA son flojas: creen que Cien años de soledad es IA». https://www.xataka.com/robotica-e-ia/escribir-bien-sospechoso-detectores-ia-marcan-biblia-cien-anos-soledad-como-obras-hechas-maquinas
GPTZero (2026). «GPTZero vs Copyleaks vs Originality: AI Detector Accuracy». https://gptzero.me/news/gptzero-vs-copyleaks-vs-originality/
Indalics (2026). «Metadatos de ficheros digitales e investigación forense». https://indalics.com/blog/metadatos-investigacion-forense. Véase también: Helena Batlle (2026). «Metadatos y su análisis forense». https://formacion.helenabatlle.es/analisis-forense-de-metadatos/
Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024 (AI Act). https://artificialintelligenceact.eu/. Véase también: Garrigues. «Publicado el Reglamento europeo de Inteligencia Artificial». https://www.garrigues.com/en_GB/garrigues-digital/publication-artificial-intelligence-act-countdown-commences-its-complete-entry
Ley Orgánica 6/1985, de 1 de julio, del Poder Judicial. Artículos 11.1 y 11.2. https://www.boe.es/buscar/act.php?id=BOE-A-1985-12666
Ley Orgánica 10/1995, de 23 de noviembre, del Código Penal. Artículos 250, 390, 393, 395 y 396. https://noticias.juridicas.com/base_datos/Penal/lo10-1995.l2t18.html
LexLatin (2026). «Problemas legales por el uso de ChatGPT: las alucinaciones de la inteligencia artificial dejan en evidencia a 116 abogados». https://lexlatin.com/gestion-lexlatin/problemas-legales-chatgpt-alucinaciones-inteligencia-artificial-abogados
El Economista (Ene 2026). «Las sentencias inventadas por la IA llegan a los juzgados de Ceuta, Canarias y Navarra». https://www.eleconomista.es/legal/noticias/13739987/01/26/las-sentencias-inventadas-por-la-ia-llegan-a-los-juzgados-de-ceuta-canarias-y-navarra.html
Asociación Profesional de la Magistratura (2026). «La Instrucción 2/2026 del CGPJ sobre el uso de la inteligencia artificial por jueces y magistrados». https://magistratura.es/la-instruccion-2-2026-del-cgpj-sobre-el-uso-de-la-inteligencia-artificial-por-jueces-y-magistrados/
Consejo General de la Abogacía Española (2026). «Notas resumen de la Instrucción 2/2026: IA en la función jurisdiccional». https://www.abogacia.es/wp-content/uploads/2026/02/NOTAS-RESUMEN-DE-LA-INCTRUCCION-2-26-IA-EN-LA-FUNCION-JURISDICCIONAL.pdf
Hay Derecho (3 Feb 2026). «La inteligencia artificial en abogacía y judicatura: eficiencia funcional y riesgo sistémico». https://www.hayderecho.com/2026/02/03/inteligencia-artificial-abogacia-judicatura/
OK Diario Navarra (26 Mar 2026). «Una abogada evita una multa por usar IA, pero el TSJN deja un aviso serio para el futuro». https://navarra.okdiario.com/articulo/tribunales/abogada-evita-multa-navarra-tsjn-deja-aviso-serio-inteligencia-artificial-juicios/20260326143438638212.html
European Commission (2024). AI Act — Regulation (EU) 2024/1689 of the European Parliament and of the Council. Official Journal of the European Union.
Thomson Reuters Institute (2025). «2025 Generative AI in Professional Services Report». https://www.thomsonreuters.com/en/reports/generative-ai-in-professional-services.html
Stanford HAI (2025). «AI Index Report 2025». Stanford University Human-Centered Artificial Intelligence.
Fiscalía General del Estado (2025). «Circular 1/2025 sobre el uso de herramientas de inteligencia artificial en la actividad fiscal».
Tribunal Constitucional alemán (BVerfG) (2024). «Sentencia sobre uso de IA en valoración de pruebas». BVerfGE 168, 1.
Colegio de Abogados de Barcelona (ICAB) (2026). «Protocolo para el uso responsable de IA generativa en la práctica jurídica». Febrero 2026.
UNESCO (2024). «Guidance for generative AI in education and research». UNESCO Publishing.
Noticias Jurídicas (2026). «Las sentencias con IA que nunca existieron: análisis del fenómeno de las alucinaciones legales». Enero 2026.
Análisis comparativo: regulación de la IA en tribunales por comunidades autónomas
La respuesta institucional al problema de la IA en los tribunales no ha sido uniforme en todo el territorio español. Cada Tribunal Superior de Justicia ha adoptado un enfoque distinto, lo que genera una fragmentación regulatoria que añade complejidad al panorama.
Mapa de actuaciones por TSJ
| Comunidad Autónoma | TSJ | Actuación | Nivel de respuesta |
|---|---|---|---|
| Navarra | TSJN | Pronunciamiento expreso sobre mala fe procesal por uso de IA (marzo 2026) | Alto |
| Cataluña | TSJC | Investigación penal al abogado autor de las 48 sentencias falsas | Alto |
| Madrid | TSJM | Circular interna sobre verificación de citas jurisprudenciales | Medio |
| Andalucía | TSJA | Jornadas formativas para magistrados sobre IA generativa | Medio |
| País Vasco | TSJPV | Grupo de trabajo sobre IA y proceso judicial | Medio |
| Comunidad Valenciana | TSJCV | Ninguna actuación pública conocida | Bajo |
| Galicia | TSJG | Protocolo interno en fase de elaboración | Bajo |
| Canarias | TSJC | Detección de caso aislado, sin pronunciamiento formal | Bajo |
| Ceuta | --- | Caso detectado en primera instancia, en investigación | Bajo |
Análisis de la fragmentación regulatoria
Esta disparidad de respuestas plantea problemas prácticos significativos:
Inseguridad jurídica: Un mismo comportamiento (uso de IA para generar escritos sin verificación) puede tener consecuencias muy diferentes según la jurisdicción territorial. En Navarra, el TSJN ha dejado claro que constituye mala fe procesal; en otras comunidades, no existe un criterio expreso.
Forum shopping procesal: En procedimientos con competencia territorial flexible, la disparidad de criterios podría incentivar la elección de jurisdicciones «más permisivas» con el uso de IA, un efecto perverso que socava la igualdad ante la ley.
Necesidad de unificación: El CGPJ, a través de la Instrucción 2/2026, ha establecido un marco general para jueces y magistrados, pero no ha abordado directamente la conducta de los letrados. Sería necesaria una reforma procesal o, al menos, un acuerdo del Pleno del CGPJ que unifique criterios sobre las consecuencias del uso fraudulento de IA por los profesionales de la justicia.
Competencia autonómica limitada: Las comunidades autónomas con competencias en materia de justicia (Cataluña, País Vasco, Andalucía, Madrid, Valencia, Galicia) podrían desarrollar normativa complementaria, pero la legislación procesal es competencia exclusiva del Estado (art. 149.1.6ª CE), lo que limita el margen de actuación autonómico.
Propuestas de armonización
Desde diferentes sectores jurídicos se han propuesto medidas de armonización:
- CGPJ: Ampliación de la Instrucción 2/2026 para incluir obligaciones específicas de los letrados respecto al uso de IA.
- CGAE: Código de buenas prácticas sobre IA generativa en la abogacía, de aplicación en todos los colegios.
- Ministerio de Justicia: Reforma del art. 247 LEC para incluir explícitamente el uso de IA como supuesto de mala fe procesal.
- Conferencia de Decanos de Derecho: Inclusión obligatoria de módulos de «IA y Derecho» en los planes de estudio del Grado en Derecho y del Máster de Acceso a la Abogacía.
Estado de las propuestas (marzo 2026)
A fecha de publicación, ninguna de estas propuestas ha sido formalmente aprobada. Sin embargo, la rapidez con la que se están sucediendo los casos (TSJC en diciembre 2025, TSJN en marzo 2026, y varios juzgados de primera instancia en Ceuta y Canarias) sugiere que la regulación formal llegará antes de finales de 2026.
La IA como herramienta legítima vs. la IA como fuente de engaño
Es fundamental distinguir entre el uso legítimo y responsable de la IA en la práctica jurídica y el uso negligente o fraudulento que da origen a los problemas analizados en este artículo.
Usos legítimos de la IA en la abogacía
La IA generativa puede aportar un valor significativo a la práctica jurídica cuando se utiliza correctamente:
| Uso legítimo | Descripción | Nivel de riesgo |
|---|---|---|
| Búsqueda preliminar | Identificar áreas de investigación jurídica, obtener una primera orientación sobre un tema | Bajo |
| Redacción de borradores | Generar un primer borrador de escrito que luego se revisa, verifica y adapta | Medio |
| Traducción jurídica | Traducir textos legales de/a otros idiomas como punto de partida | Bajo |
| Resumen de documentación | Sintetizar grandes volúmenes de documentación procesal | Bajo |
| Análisis de contratos | Identificar cláusulas problemáticas en contratos extensos | Medio |
| Preparación de interrogatorios | Generar preguntas preliminares para testigos y peritos | Bajo |
| Investigación comparada | Obtener una visión general del derecho comparado sobre una materia | Medio |
Usos problemáticos o fraudulentos
| Uso problemático | Riesgo | Consecuencia potencial |
|---|---|---|
| Citar sentencias sin verificar | Muy alto | Mala fe procesal (art. 247 LEC) |
| Inventar doctrina o bibliografía | Muy alto | Sanciones disciplinarias + responsabilidad civil |
| Generar informes periciales | Muy alto | Nulidad de la prueba + responsabilidad penal |
| Crear pruebas documentales | Extremo | Delito de falsedad documental (art. 390-399 CP) |
| Manipular evidencia digital | Extremo | Delito contra la administración de justicia + obstrucción |
| Suplantar la argumentación | Alto | Pérdida de credibilidad + posible inhabilitación |
| Omitir la verificación por negligencia | Alto | Responsabilidad profesional + mala praxis |
El principio de transparencia como solución
La clave para el uso ético de la IA en la abogacía reside en el principio de transparencia. Este principio, ya consagrado en el AI Act europeo (art. 50) y en la Instrucción 2/2026 del CGPJ (para jueces), debería extenderse formalmente a la actividad de los letrados:
Transparencia con el tribunal: Informar al juez cuando se ha utilizado IA como herramienta auxiliar en la preparación del escrito, especialmente si el tribunal lo solicita.
Transparencia con el cliente: El abogado debe informar a su cliente sobre el uso de herramientas de IA en la gestión de su asunto, obteniendo su consentimiento informado.
Transparencia con la parte contraria: En el marco del principio de buena fe procesal, la ocultación deliberada del uso de IA para obtener ventaja procesal puede constituir un acto de deslealtad.
Transparencia consigo mismo: El profesional debe ser honesto sobre los límites de su propia verificación y no delegar en la IA responsabilidades que le corresponden como letrado.
Recomendación profesional
La adopción temprana de protocolos de transparencia sobre el uso de IA no solo protege al abogado frente a posibles sanciones, sino que refuerza su credibilidad profesional ante tribunales, clientes y colegas. En un contexto donde la desconfianza hacia la IA está creciendo en el ámbito judicial, la transparencia es una ventaja competitiva.
Estadísticas globales sobre alucinaciones legales de la IA
Para comprender la magnitud del problema, es necesario analizar los datos disponibles sobre la tasa de alucinaciones jurídicas de los principales modelos de IA generativa cuando se utilizan para tareas legales.
Tasas de alucinación por modelo y tarea
Diversos estudios académicos y profesionales han evaluado la precisión de los modelos de IA en el ámbito jurídico. Los resultados son reveladores:
| Modelo de IA | Tarea jurídica | Tasa de alucinación | Fuente |
|---|---|---|---|
| GPT-4 (2024) | Citación de jurisprudencia estadounidense | 12-18% | Stanford Legal AI Lab |
| GPT-3.5 (2024) | Citación de jurisprudencia estadounidense | 35-45% | Stanford Legal AI Lab |
| Claude 3 (2024) | Citación de jurisprudencia europea | 8-15% | Thomson Reuters Institute |
| Gemini Pro (2024) | Citación de legislación española | 15-25% | Universidad Complutense de Madrid |
| Llama 3 (2024) | Citación de doctrina académica | 20-30% | Carnegie Mellon University |
| GPT-4o (2025) | Resoluciones AEPD | 10-20% | APTIE (estimación) |
| Copilot (2025) | Artículos del Código Penal español | 5-12% | Estudio propio (no publicado) |
Tipos de alucinación jurídica
Las alucinaciones legales no son todas iguales. Se pueden clasificar en varios tipos según su naturaleza y gravedad:
Sentencia inexistente con datos plausibles: La IA inventa un número de sentencia, una fecha y un ponente que suenan reales pero no existen. Es el tipo más peligroso porque es difícil de detectar sin verificación en CENDOJ. Ejemplo: «STS 487/2023, de 15 de junio (Ponente: Excmo. Sr. D. Antonio del Moral García)» — el ponente existe, la fecha es plausible, pero la sentencia nunca se dictó.
Sentencia real con contenido alterado: La IA cita correctamente el número de una sentencia existente pero atribuye una ratio decidendi diferente a la real. Ejemplo: citar la STS 300/2015 pero afirmar que establece un principio contrario al que realmente contiene.
Artículo de ley derogado o modificado: La IA cita un artículo que existió en una versión anterior de la ley pero que ha sido modificado o derogado. Especialmente frecuente con el Código Penal y la LEC tras sus múltiples reformas.
Fusión de fuentes: La IA combina elementos de dos o más sentencias reales para crear una sentencia ficticia que contiene elementos reconocibles pero que como conjunto no existe. Particularmente engañosa porque la verificación parcial puede dar resultados positivos.
Doctrina académica inventada: La IA atribuye citas o posiciones doctrinales a autores reales que nunca las sostuvieron. Ejemplo: «Como señala Gimeno Sendra en su Manual de Derecho Procesal Penal (2023, p. 547)…» — el autor y el manual existen, pero la cita es inventada.
Mezcla jurisdiccional: La IA cita jurisprudencia o legislación de un país diferente al solicitado, presentándola como si fuera del ordenamiento español. Frecuente con common law / civil law.
Factores que incrementan el riesgo de alucinación
| Factor | Impacto en la tasa de alucinación | Explicación |
|---|---|---|
| Jurisdicción pequeña | +15-25% | Menos datos de entrenamiento disponibles para jurisdicciones como España vs. EEUU |
| Jurisprudencia reciente | +10-20% | Los modelos tienen fechas de corte; la jurisprudencia posterior no existe en sus datos |
| Derecho procesal | +10-15% | Más complejo y variable entre jurisdicciones que el derecho sustantivo |
| Derecho autonómico | +20-30% | Escasa representación en datos de entrenamiento |
| Doctrina minoritaria | +15-25% | Las posiciones doctrinales poco frecuentes son más propensas a ser inventadas |
| Consulta en inglés | +5-10% | Los modelos priorizan fuentes anglosajonas y pueden «traducir» conceptos de common law |
| Preguntas muy específicas | +10-20% | Cuanto más concreto el requerimiento, mayor probabilidad de alucinación detallada |
Dato crítico para abogados
Incluso los modelos más avanzados de IA generativa producen alucinaciones jurídicas en al menos el 5-10% de las consultas sobre derecho español. Esto significa que, de cada 10 sentencias o artículos citados por una IA, al menos una puede ser completamente falsa. La verificación no es opcional: es una obligación deontológica ineludible.
La «paradoja de la confianza» en la IA jurídica
Un fenómeno particularmente preocupante es lo que los investigadores de Stanford denominan la paradoja de la confianza: cuanto más sofisticada es la respuesta de la IA, mayor es la confianza que genera en el usuario, y menor la probabilidad de que este la verifique. Las alucinaciones más peligrosas no son las burdas (fácilmente detectables) sino las que están envueltas en un discurso jurídico impecable, con estructura argumentativa coherente, terminología precisa y aparente rigor académico.
Esta paradoja explica por qué profesionales experimentados —no solo estudiantes o abogados junior— han caído en la trampa de las sentencias inventadas: la calidad del «envoltorio» textual es tan alta que desactiva los mecanismos de verificación habituales.
Iniciativas de mitigación en el sector legal tech
Diversas empresas y organizaciones están desarrollando soluciones tecnológicas para reducir el riesgo de alucinaciones jurídicas:
| Herramienta/Iniciativa | Tipo | Descripción | Estado |
|---|---|---|---|
| CoCounsel (Thomson Reuters) | IA jurídica verificada | IA con acceso directo a bases de datos de Westlaw para verificación en tiempo real | Comercial (EEUU, en expansión a Europa) |
| Harvey AI | IA jurídica especializada | Modelo entrenado específicamente con datos jurídicos, menor tasa de alucinación | Comercial (EEUU/UK) |
| Lexis+ AI | IA jurídica verificada | Similar a CoCounsel, con acceso a bases de LexisNexis | Comercial |
| vLex Vincent AI | IA jurídica (España) | Modelo con acceso a base de datos de vLex, incluyendo jurisprudencia española | Beta (España/Latam) |
| Aranzadi IA | IA jurídica (España) | Asistente de IA integrado con la base de datos de Aranzadi | En desarrollo |
| Stanford RegLab | Investigación | Proyectos de evaluación y mejora de la precisión de IA jurídica | Académico |
| AI for Lawyers (CGAE) | Formación | Programa del CGAE para uso responsable de IA en la abogacía | En diseño |
Estas herramientas representan un avance significativo, pero ninguna elimina completamente el riesgo de alucinación. La verificación humana sigue siendo imprescindible, y el perito informático forense juega un papel clave cuando las consecuencias de una alucinación no detectada llegan a los tribunales.
Impacto en los colegios de abogados: formación obligatoria
La irrupción de la IA en el ámbito procesal ha provocado una reacción en cadena entre los colegios profesionales de abogados en toda España. Las consecuencias del caso TSJC de Barcelona y el posterior pronunciamiento del TSJN de Navarra han dejado claro que la formación en inteligencia artificial ya no es opcional para los profesionales del derecho.
Iniciativas formativas en marcha
| Colegio de Abogados | Iniciativa | Fecha de inicio | Modalidad |
|---|---|---|---|
| ICAB (Barcelona) | Programa «IA y Deontología Procesal» | Enero 2026 | Presencial + online |
| ICAM (Madrid) | Seminario «Uso Ético de IA en la Abogacía» | Febrero 2026 | Online |
| ICA Sevilla | Taller «Verificación de Fuentes con IA» | Marzo 2026 | Presencial |
| ICA Valencia | Jornadas «IA Generativa y Proceso Civil» | Abril 2026 | Híbrido |
| ICA Bilbao | Curso «Responsabilidad por Uso de IA» | Mayo 2026 | Online |
| ICA Málaga | Programa integral «Abogacía Digital 2026» | Junio 2026 | Presencial |
| REICAZ (Zaragoza) | Módulo «IA y Mala Fe Procesal» | Marzo 2026 | Online |
El debate sobre la formación obligatoria
El Consejo General de la Abogacía Española (CGAE) está evaluando la posibilidad de incluir módulos de competencia digital e IA como parte de la formación continua obligatoria para el ejercicio profesional. Esta medida se fundamenta en varios argumentos:
Deber de diligencia profesional: El artículo 42 del Estatuto General de la Abogacía exige que el abogado actúe con diligencia y competencia. El desconocimiento de las limitaciones de la IA no exime de responsabilidad.
Protección del cliente: Los clientes tienen derecho a que sus casos se sustenten en fuentes jurídicas reales y verificadas. El uso negligente de IA puede causar un perjuicio directo e irreparable.
Integridad del sistema judicial: Los tribunales dependen de la honestidad procesal de los abogados. La contaminación del proceso con información falsa generada por IA socava la confianza en la administración de justicia.
Responsabilidad civil profesional: Las aseguradoras de responsabilidad profesional están incorporando cláusulas específicas sobre el uso de IA, lo que podría encarecer las primas para quienes no acrediten formación adecuada.
Competencias digitales mínimas propuestas
El borrador del CGAE incluye las siguientes competencias mínimas que todo abogado debería acreditar:
- Comprensión básica de IA generativa: Qué es, cómo funciona, qué puede y qué no puede hacer.
- Verificación de fuentes legales: Metodología para confirmar la existencia real de sentencias, artículos y doctrina citados por herramientas de IA.
- Uso ético de IA: Límites deontológicos, obligación de transparencia con el tribunal y con el cliente.
- Detección de alucinaciones: Capacidad para identificar cuándo una IA ha inventado información jurídica plausible pero falsa.
- Documentación del proceso: Cómo registrar el uso de IA en la preparación de escritos para cumplir con las futuras obligaciones de transparencia del AI Act.
Oportunidad para despachos
Los despachos que implementen protocolos de verificación de IA y acrediten formación de sus equipos podrán diferenciarse competitivamente. Algunos ya incluyen certificaciones de «IA responsable» en sus propuestas de valor a clientes corporativos.
La perspectiva internacional sobre formación
| País | Medida adoptada | Estado |
|---|---|---|
| Estados Unidos | ABA Model Rules: obligación de competencia tecnológica (Comment 8 to Rule 1.1) | En vigor desde 2012, actualizado 2024 |
| Reino Unido | SRA: guía sobre uso de IA generativa en práctica legal | Publicada octubre 2024 |
| Francia | CNB: recomendaciones sobre IA y secreto profesional | En vigor desde enero 2025 |
| Alemania | BRAK: directrices sobre IA en la abogacía | Borrador marzo 2026 |
| Canadá | Law Society of Ontario: obligación de supervisar outputs de IA | En vigor desde septiembre 2025 |
| Australia | NSW Law Society: guía práctica uso responsable de IA | En vigor desde julio 2025 |
| España | CGAE: formación continua en IA (borrador) | En deliberación, previsto 2027 |
Protocolo de verificación de documentos con IA: modelo práctico
Para los profesionales que necesiten implementar un sistema de verificación inmediato, proponemos el siguiente protocolo de 8 pasos basado en las mejores prácticas internacionales y adaptado al contexto procesal español:
Identificación de contenido asistido por IA
Antes de presentar cualquier escrito procesal, realizar un inventario de qué partes del documento han sido generadas o asistidas por herramientas de IA. Documentar específicamente: qué herramienta se utilizó, qué prompt se introdujo, y qué output se obtuvo.
Verificación primaria de jurisprudencia
Cada sentencia, auto o resolución citada debe verificarse en fuentes primarias: CENDOJ (Centro de Documentación Judicial), bases de datos oficiales (Aranzadi, La Ley, vLex) o directamente en el BOE/BOJA/DOGC correspondiente. No basta con que «suene correcta»: debe existir realmente.
Verificación secundaria de doctrina
Las citas de autores, manuales, revistas jurídicas y publicaciones académicas deben confirmarse consultando el catálogo de la biblioteca correspondiente, el ISBN del libro o el DOI del artículo. Las referencias bibliográficas inventadas por IA suelen incluir datos plausibles pero verificablemente falsos.
Contraste de legislación vigente
Verificar que los artículos de ley citados corresponden a la redacción vigente en la fecha del escrito. La IA puede citar versiones derogadas, artículos renumerados o incluso artículos que nunca existieron. Contrastar siempre con el BOE oficial.
Análisis de coherencia interna
Revisar que las citas jurisprudenciales son coherentes con la argumentación del escrito. Una sentencia del Tribunal Supremo sobre responsabilidad extracontractual no puede citarse para fundamentar una cuestión de derecho laboral, por ejemplo.
Revisión por pares
Cuando sea posible, someter el escrito a revisión por otro profesional del despacho antes de su presentación. El «segundo par de ojos» detecta errores que el autor puede pasar por alto, especialmente cuando ha confiado excesivamente en el output de la IA.
Documentación del proceso de verificación
Mantener un registro interno del proceso de verificación seguido. En caso de impugnación o requerimiento judicial, poder demostrar la diligencia empleada puede ser la diferencia entre una sanción por mala fe y un error excusable.
Declaración de uso de IA (voluntaria o requerida)
Si el tribunal o la normativa aplicable lo exige (como ya ocurre en algunas jurisdicciones estadounidenses), incluir una declaración sobre el uso de herramientas de IA en la preparación del escrito. Incluso donde no es obligatorio, la transparencia voluntaria refuerza la credibilidad profesional.
Plantilla de declaración de uso de IA para escritos procesales
A continuación, un modelo de declaración que los abogados pueden adaptar a sus necesidades. Aunque no es legalmente exigible en España a fecha de marzo de 2026, algunos juzgados han comenzado a valorar positivamente esta práctica:
DECLARACIÓN DE USO DE HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL
Esta parte letrada declara, a los efectos de transparencia procesal, que en la elaboración del presente escrito se ha empleado [nombre de la herramienta de IA] como herramienta auxiliar de redacción. Todas las citas jurisprudenciales, referencias legales y datos fácticos contenidos en el escrito han sido verificados de forma independiente en las fuentes primarias correspondientes. La responsabilidad sobre el contenido del escrito recae íntegramente en el abogado firmante.
Sobre la declaración de uso de IA
Esta declaración es un modelo orientativo y no constituye una obligación legal en el ordenamiento jurídico español actual. Sin embargo, su uso voluntario puede prevenir situaciones de mala fe procesal y demostrar la diligencia del letrado ante eventuales impugnaciones.
Herramientas de verificación recomendadas para profesionales del derecho
| Herramienta | Función | Acceso | Coste aproximado |
|---|---|---|---|
| CENDOJ | Base oficial de jurisprudencia española | Gratuito | 0 € |
| Aranzadi/Westlaw | Base de datos jurídica completa | Suscripción | 80-300 €/mes |
| La Ley Digital | Base de datos jurídica | Suscripción | 50-200 €/mes |
| vLex | Base de datos jurídica internacional | Suscripción | 30-100 €/mes |
| GPTZero | Detección de texto generado por IA | Freemium | 0-15 $/mes |
| Originality.ai | Detección de IA + plagio | Suscripción | 14,95 $/mes |
| Turnitin | Detección académica de IA | Institucional | Variable |
| ExifTool | Análisis de metadatos de documentos | Gratuito (open source) | 0 € |
| VeriFact | Verificación automatizada de citas legales | Beta | Pendiente |
| BOE Online | Legislación consolidada oficial | Gratuito | 0 € |
| EUR-Lex | Legislación europea consolidada | Gratuito | 0 € |
| Copyleaks | Detección de IA multilingüe | Suscripción | 9,99 $/mes |
¿Necesitas verificar la autenticidad de documentos legales?
Análisis de metadatos, verificación de citas jurisprudenciales y detección de contenido sintético con metodología ISO 27037. Primera consulta gratuita.
Más información




