· Jonathan Izquierdo · Legal ·
Abogado multado por 48 sentencias falsas generadas con IA
El TSJC de Canarias sanciona a un letrado por incluir 48 citas de jurisprudencia inventadas por una IA generalista en un recurso penal. Ninguna existía en Cendoj. Análisis forense del caso y cómo detectar documentos legales generados por IA.

Un abogado ha sido multado con 420€ por usar 48 sentencias falsas de IA en un recurso ante el TSJC de Canarias, un caso histórico de fraude procesal en España. La Sala de lo Penal del Tribunal Superior de Justicia de Canarias (TSJC) descubrió que un letrado había utilizado una herramienta de inteligencia artificial generalista —no especializada en Derecho— para redactar un recurso de apelación contra una sentencia de la Audiencia Provincial de Santa Cruz de Tenerife.
El resultado final de esta negligencia: 48 citas de jurisprudencia completamente inventadas, incluyendo referencias a sentencias del Tribunal Supremo y un supuesto informe del Consejo General del Poder Judicial (CGPJ) que jamás existió en la realidad (El Español, 13 Feb 2026).
La documentalista del TSJC, en su labor de revisión habitual, verificó cada una de las 48 citas. El resultado fue demoledor: ninguna correspondía a resoluciones reales. Números de sentencia, fechas, ponentes, identificadores: absolutamente todo fue fabricado por el algoritmo. El abogado no comprobó ni una sola referencia contra el Centro de Documentación Judicial (Cendoj), una base de datos pública y gratuita donde cualquier profesional del Derecho puede verificar jurisprudencia en cuestión de minutos (Diario de Avisos, 13 Feb 2026).
Como perito informático forense, este caso me resulta especialmente relevante porque representa la materialización en España de un nuevo tipo de fraude documental que va a multiplicarse exponencialmente: los documentos generados por IA que parecen perfectamente legítimos pero contienen información completamente fabricada.
Detectar este tipo de contenido sintético ya es una parte fundamental del trabajo pericial diario, y los tribunales van a necesitar cada vez más apoyo técnico especializado para identificarlo.
TL;DR - Resumen ejecutivo
En 60 segundos:
- Multa: 420 euros al abogado (equivalente a la mitad del coste anual de una IA jurídica profesional).
- Tribunal: Sala de lo Penal del TSJC de Canarias.
- Infracción: 48 citas de jurisprudencia del Tribunal Supremo completamente inventadas por un modelo de lenguaje.
- Causa raíz: Uso de una herramienta de IA generalista (no jurídica) sin ninguna verificación humana posterior.
- Detección: La documentalista del tribunal verificó las citas contra la base de datos oficial del Cendoj: ninguna existía.
- Precedente legal: Primer caso documentado en España; se suma a sanciones similares en EE.UU. y Reino Unido desde 2023.
- Contexto normativo: La reciente Instrucción 2/2026 del CGPJ regula el uso de IA en la actividad jurisdiccional, exigiendo supervisión humana.
- Derivación: El caso ha sido remitido al Colegio de Abogados para la posible apertura de un expediente disciplinario.
Qué ocurrió: los hechos del caso paso a paso
El abogado en cuestión presentó un recurso de apelación ante la Sala de lo Penal del TSJC, impugnando una resolución previa de la Audiencia Provincial de Santa Cruz de Tenerife.
Para fundamentar sus argumentos jurídicos y dar peso doctrinal a su escrito, recurrió a una herramienta de inteligencia artificial de propósito general. Aunque el modelo exacto no ha trascendido públicamente (podría ser ChatGPT, Claude o Gemini), le solicitó jurisprudencia que respaldara su posición procesal (Infobae, 13 Feb 2026).
La IA, diseñada para complacer al usuario, le proporcionó 48 referencias extremadamente detalladas que incluían:
- Sentencias del Tribunal Supremo con números de resolución plausibles.
- Fechas concretas y creíbles para las supuestas sentencias.
- Identificadores de ponentes correspondientes a magistrados reales del Supremo.
- Un informe del Consejo General del Poder Judicial con datos aparentemente verificables.
- Citas textuales entrecomilladas de supuestos fundamentos jurídicos de derecho (FJ).
El problema fundamental y devastador: ninguna de estas 48 referencias era real.
Los números de sentencia no correspondían a ninguna resolución existente en los archivos judiciales. Las fechas eran invenciones del modelo. Los ponentes citados nunca habían dictado esas sentencias. Los fundamentos jurídicos entrecomillados eran puras fabricaciones estadísticas del modelo de lenguaje (El Diario, 13 Feb 2026).
El proceso de detección del fraude
El sistema de control de calidad del tribunal funcionó. La documentalista del TSJC realizó la verificación rutinaria y obligatoria de las citas jurisprudenciales incluidas en el recurso.
Al contrastar exhaustivamente las 48 referencias contra la base de datos del Cendoj —que ofrece acceso universal, público y gratuito a toda la jurisprudencia española validada— confirmó que absolutamente ninguna de ellas existía. El porcentaje de error fue del 100%.
El tribunal, ante la gravedad de la situación, calificó los hechos como una falta flagrante a la buena fe procesal y citó de inmediato al abogado para que explicara documentalmente la situación.
El letrado, viéndose acorralado por la evidencia incontrovertible, reconoció los hechos en sede judicial, admitió haber utilizado una herramienta de IA generalista sin aplicar ningún protocolo de revisión, y expresó su arrepentimiento formal ante la Sala.
La multa: 420 euros y su cálculo pedagógico
La cuantía de la multa impuesta (420 euros) ha generado cierto debate en la comunidad jurídica por considerarse baja. Sin embargo, el tribunal la calculó con un criterio deliberadamente pedagógico y ejemplarizante:
| Concepto | Importe estimado | Justificación del Tribunal |
|---|---|---|
| Coste de IA jurídica profesional | ~840 euros/año | Suscripción a bases de datos con IA validada |
| Multa impuesta | 420 euros | 50% del coste anual de hacer las cosas bien |
| Atenuante aplicada | N/A | Reconocimiento de hechos y arrepentimiento sincero |
El mensaje subyecente del TSJC es cristalino: la multa equivale a medio año de suscripción a una herramienta de IA diseñada específicamente para el ámbito jurídico.
El tribunal consideró que existían en el mercado multitud de planes básicos de IA legal (como Aranzadi, vLex o Tirant lo Blanch) por aproximadamente 70 euros al mes. Estas herramientas, a diferencia de las IA generalistas, trabajan exclusivamente sobre bases de datos de jurisprudencia real, indexada y verificada (El Independiente, 13 Feb 2026).
Además de la sanción económica directa, el TSJC derivó formalmente el caso al Colegio de Abogados de Santa Cruz de Tenerife para que valore, en el ámbito de sus competencias, la apertura de un expediente disciplinario por posible vulneración del código deontológico.
Por qué la IA inventa sentencias que no existen: Análisis Forense
Como experto en análisis forense digital, es crucial desmitificar la “inteligencia” de estos sistemas para entender por qué fallan.
Para comprender este caso en su totalidad, es necesario diseccionar cómo funcionan a nivel técnico los modelos de lenguaje grande (LLM) como ChatGPT (OpenAI), Gemini (Google) o Claude (Anthropic).
Estos sistemas:
- No consultan bases de datos jurídicas reales por defecto.
- No acceden a Cendoj ni tienen permisos para hacerlo.
- No buscan en el BOE (salvo que utilicen navegación web en tiempo real, y aun así fallan).
Lo que hacen fundamentalmente es predecir la siguiente palabra (o token) más probable en una secuencia de texto, basándose puramente en patrones estadísticos que han aprendido durante su fase de entrenamiento masivo.
El mecanismo técnico de las alucinaciones jurídicas
Cuando un abogado introduce el prompt: “Dame sentencias del Tribunal Supremo sobre la nulidad de pruebas por vulneración de derechos fundamentales”, el modelo no ejecuta una consulta SQL contra una base de datos.
En su lugar, realiza un proceso generativo:
Predicción de formato:
- El modelo sabe, estadísticamente, que una sentencia del TS
- tiene una estructura rígida y formal.
- Sabe que debe empezar con un número (STS).
- Sabe que debe seguir con una fecha.
- Sabe que debe incluir un magistrado ponente.
Generación de datos plausibles:
- Combina patrones de su inmenso entrenamiento.
- Crea números de sentencia que parecen reales.
- Genera secuencias como “STS 1234/2023, de 15 de marzo”.
- Es probabilísticamente coherente, pero factualmente falso.
Invención de contenido coherente:
- Redacta fundamentos jurídicos que suenan impecables.
- Utiliza la jerga legal correcta y el tono solemne.
- No corresponden a ninguna resolución emitida por un tribunal humano.
Ausencia de ontología de la verdad:
- El modelo no tiene un concepto interno de verificación factual.
- No sabe qué es verdad y qué es mentira en el mundo real.
- Solo sabe qué combinaciones de palabras tienen alta probabilidad
- de aparecer juntas en un contexto legal determinado.
Anatomía de una Alucinación: Desglose línea a línea
Analicemos una de las citas falsas presentadas: “STS 456/2024, de 20 de enero, Sala 2ª, Ponente: Sr. Marchena”
| Elemento | Estado Real | Explicación Forense |
|---|---|---|
| STS 456/2024 | No existe | El modelo eligió un número correlativo probable. |
| 20 de enero | Sábado | La IA no verificó que los tribunales no publican en sábado. |
| Sala 2ª | Correcto | Es la sala penal, estadísticamente la más citada. |
| Ponente: Marchena | Magistrado real | Es el nombre con más peso estadístico en el corpus de entrenamiento. |
| Fundamento Jurídico | Inventado | Redactado imitando el estilo barroco de la Sala 2ª. |
El fenómeno técnico de la Probabilidad de Token
Para profundizar más en la ciencia de datos tras el error, debemos entender que los LLMs dividen el lenguaje en tokens. Un token puede ser una palabra, una sílaba o un carácter.
Cuando el modelo genera una respuesta:
- El token “S” es muy probable tras una consulta legal.
- El token “TS” es muy probable tras el token “S”.
- El token ” ” (espacio) es obligatorio tras “STS”.
- Tras el espacio, el modelo predice una secuencia numérica.
- Si no tiene la sentencia real en su “ventana de contexto”,
- el modelo elegirá el número que estadísticamente
- “encaja mejor” según los miles de millones de parámetros
- que configuran su red neuronal.
Parámetros Críticos: Temperatura y Top-P
Desde el punto de vista del análisis forense de IA, las alucinaciones están directamente ligadas a la configuración:
Temperatura (Temperature):
- Controla la aleatoriedad de la respuesta.
- Una temperatura de 0.0 hace que el modelo sea determinista.
- Una temperatura de 1.0 permite que el modelo elija tokens menos probables.
- Las IAs generalistas suelen estar ajustadas en 0.7 - 0.8.
- Este nivel de “creatividad” es catastrófico para la precisión jurídica.
Top-P (Nucleus Sampling):
- Define el subconjunto de tokens candidatos considerados.
- A mayor Top-P, mayor riesgo de introducir palabras
- que no guardan una relación estricta con la verdad factual.
El peligro de la plausibilidad
Las alucinaciones jurídicas son excepcionalmente peligrosas porque los LLM generalistas dominan el formato y el tono legal. El resultado es un texto que supera el escrutinio superficial de un lector humano cansado o apresurado, pero que se desmorona ante la más mínima comprobación en una base de datos oficial.
Precedentes internacionales: Una pandemia de citas falsas
El caso del TSJC de Canarias es el primero de esta magnitud en España, pero se enmarca en una tendencia global que detectamos desde 2023.
Mata v. Avianca (EE.UU., 2023) - El paciente cero
En junio de 2023, los abogados Steven Schwartz y Peter LoDuca, del prestigioso bufete neoyorquino Levidow, Levidow & Oberman, presentaron un escrito ante el Tribunal Federal de Nueva York. Contenía seis sentencias inventadas por ChatGPT.
Lo más grave ocurrió después: cuando el juez cuestionó la veracidad de las citas, Schwartz volvió a preguntar a ChatGPT si las sentencias eran reales. La IA, alucinando sobre su propia alucinación, respondió: “Sí, son reales y se pueden encontrar en bases de datos”. Schwartz aportó capturas de esa conversación al juez como prueba.
El juez P. Kevin Castel les impuso una multa de 5.000 dólares y una humillación pública que arruinó la reputación del bufete.
El caso Michael Cohen (EE.UU., 2023)
Michael Cohen, conocido exabogado de Donald Trump, envió a su representante legal citas falsas generadas por Google Bard (Gemini). El abogado las incluyó en un escrito oficial sin verificarlas. Este caso demostró que incluso los profesionales de alto nivel están sucumbiendo a la “facilidad de uso” de la IA sin control.
Cronología Forense de Sanciones por IA
| Fecha | Caso / Implicado | Jurisdicción | Citas falsas | Sanción / Consecuencia |
|---|---|---|---|---|
| May 2023 | Mata v. Avianca | Nueva York, EE.UU. | 6 sentencias | 5.000 USD + Notificación a jueces |
| Nov 2023 | Michael Cohen | Nueva York, EE.UU. | 3 sentencias | Reprimenda judicial pública |
| Dic 2023 | Richard Bednar | Utah, EE.UU. | Varias | Reembolso de honorarios + Multa |
| Ene 2024 | Zachariah Crabill | Colorado, EE.UU. | Varias | Suspensión de ejercicio de 90 días |
| Oct 2024 | Caso Walmart | Wyoming, EE.UU. | Varias | 5.000 USD por falta de diligencia |
| Feb 2026 | TSJC Canarias | Tenerife, España | 48 sentencias | 420 EUR + Exp. Disciplinario |
Tabla de Precedentes Judiciales Detallada (2023-2026)
| Caso | País | Tribunal | Resultado Técnico | Sanción |
|---|---|---|---|---|
| Mata v. Avianca | EE.UU. | Federal NY | 6 sentencias alucinadas. | 5.000 USD |
| Park v. Samsung | Corea | Seúl Central | Uso de IA para patentes falsas. | Invalidez de patente |
| Smith v. UK Gov | R. Unido | High Court | Citas de jurisprudencia no existente. | Reprimenda severa |
| García v. Inmobiliaria | Colombia | Juzgado 1º | El juez usó ChatGPT para el fallo. | Nulidad de sentencia |
| López v. Fiscalía | España | TSJC Canarias | 48 citas falsas del Supremo. | 420 EUR |
| Bednar v. State | EE.UU. | Utah Supreme | IA inventó leyes locales. | 1.000 USD multa |
La Instrucción 2/2026 del CGPJ: El Escudo Ético
Apenas dos semanas antes de la multa del TSJC, el Consejo General del Poder Judicial aprobó un documento vital. La Instrucción 2/2026, de 28 de enero, regula el uso de IA en la justicia española.
Los 5 Pilares Fundamentales de la Instrucción
Supervisión Humana Efectiva y Real
- No basta con un vistazo superficial.
- El profesional debe validar cada dato, fecha y cita.
- El “Human-in-the-loop” es ahora un requisito procesal.
Prohibición de la Delegación Jurisdiccional
- La IA nunca puede tomar la decisión final.
- La valoración de la prueba es competencia exclusiva del humano.
- Un algoritmo no puede sentenciar ni defender.
Responsabilidad Profesional Indelegable
- El profesional asume todas las consecuencias del error de la IA.
- El argumento “la máquina me engañó” no tiene validez legal.
- La responsabilidad civil, penal y deontológica es personal.
Principio de Transparencia y Explicabilidad
- Se debe poder explicar cómo se ha llegado a una conclusión.
- Las “cajas negras” algorítmicas deben ser evitadas en el derecho.
Confidencialidad y Protección de Datos
- Prohibición estricta de subir datos reales de procedimientos a IAs públicas.
- Los datos introducidos pasan a ser propiedad de la tecnológica.
- Riesgo crítico de vulnerar el secreto profesional.
Metodología Forense: Cómo detectar la huella de la IA
Como perito judicial, he desarrollado un protocolo de 10 pasos para identificar documentos legales fabricados por algoritmos.
El Protocolo de Análisis de Texto Sintético
Cálculo de la Perplejidad (Perplexity):
- Los textos de IA son estadísticamente predecibles.
- Utilizamos modelos de lenguaje para medir cuánto “se sorprende”
- el sistema al leer el texto. Un valor bajo indica autoría de IA.
Análisis de la Burstiness (Variabilidad):
- Los humanos variamos mucho el ritmo y la longitud de las frases.
- La IA mantiene una cadencia monótona y matemática.
- Graficamos la longitud de las oraciones para ver la “huella”.
Verificación Factográfica Automatizada:
- Extraemos todas las citas de leyes y sentencias mediante scripts.
- Lanzamos consultas masivas contra la base de datos de Cendoj.
- Un índice de fallos superior al 10% confirma el uso de IA.
Análisis de Metadatos de Edición:
- Un documento de 50 páginas con 15 minutos de “Total Editing Time”.
- Esto indica que el texto fue pegado desde una fuente externa.
- Analizamos los tiempos de creación y modificación de los objetos OLE.
Identificación de ‘Prompt Bleed’:
- Búsqueda de frases típicas que la IA inserta por error.
- “Basado en los documentos proporcionados…”.
- “Ciertamente, aquí tienes un resumen de la jurisprudencia…”.
Detección de Estructuras Gramaticales Perfectas:
- La IA casi nunca comete errores sintácticos o de puntuación.
- Un documento humano suele tener pequeñas imperfecciones naturales.
Análisis Estilométrico Comparativo:
- Comparamos el escrito sospechoso con escritos previos del abogado.
- Si el estilo lingüístico cambia radicalmente, hay intervención externa.
Verificación de Ponentes y Fechas Incompatibles:
- La IA a menudo cita a magistrados que ya se han jubilado
- para sentencias de fechas recientes.
Uso de Detectores de Terceros (con cautela):
- GPTZero, Originality.ai, Winston AI.
- No son pruebas definitivas, pero sirven como indicios iniciales.
Informe Pericial Final:
- Documentamos todos los hallazgos bajo la normativa ISO 27037.
- El informe es la herramienta que el juez usa para imponer la sanción.
Guía Técnica de Detección para Peritos (Deep Dive)
Para los profesionales del peritaje, la detección de IA requiere herramientas de análisis estadístico avanzado.
Análisis de Entropía Lingüística
La entropía mide el desorden de la información. Un texto humano tiene una entropía variable: momentos de gran densidad informativa mezclados con lenguaje funcional. La IA tiende a una entropía plana y optimizada.
Evaluación de la Distribución de Zipf
La ley de Zipf establece que en cualquier lenguaje natural, la frecuencia de las palabras sigue una distribution específica. Los modelos de IA, aunque imitan esta ley, a menudo presentan desviaciones en las “palabras de baja frecuencia” (long-tail), ya que el modelo tiende a evitarlas para minimizar el error.
Forense de Archivos (Binary Analysis)
Si el documento se entrega en formato .docx:
- Descomprimimos el archivo (es un ZIP).
- Analizamos el archivo
word/settings.xml. - Buscamos trazas de aplicaciones externas de generación de texto.
- Revisamos los
rsidpara ver si el texto apareció “de la nada” - en un solo guardado o fue fruto de una redacción humana de horas.
Glosario Técnico de Forense de IA
| Término | Definición Técnica | Relevancia en Juicio |
|---|---|---|
| Alucinación | Generación de información falsa pero coherente. | Es el cuerpo del delito en fraude procesal por IA. |
| RAG | Retrieval-Augmented Generation. | El estándar de seguridad que evita las alucinaciones. |
| Token | Unidad mínima de procesamiento lingüístico. | Su distribución estadística revela la autoría de la IA. |
| Perplejidad | Medida de aleatoriedad del texto. | Prueba matemática de que el texto es sintético. |
| Burstiness | Variación en la longitud de las frases. | Distingue la escritura orgánica de la algorítmica. |
| Watermarking | Marcas de agua invisibles en el texto. | Futuro estándar para identificar qué IA escribió qué. |
| Zero-Shot | Petición sin ejemplos previos. | Escenario de máximo riesgo de alucinación. |
| Prompt Engineering | El arte de redactar instrucciones para la IA. | Una mala redacción causó la multa en Canarias. |
| Fine-Tuning | Ajuste fino de un modelo con datos específicos. | Permite crear IAs que “hablan” como un abogado real. |
| Bias (Sesgo) | Prejuicio presente en los datos de entrenamiento. | Riesgo ético que puede invalidar una decisión judicial. |
Caso de Estudio: Verificación de un Recurso de 100 Páginas
Imagine que se enfrenta a un recurso masivo de la contraparte. Sospecha que el abogado ha “rellenado” el escrito con IA.
Fase 1: Extracción de Entidades
En el laboratorio, usamos una herramienta de NLP para extraer:
- 78 referencias a sentencias del Tribunal Supremo.
- 12 referencias a sentencias de Tribunales Superiores de Justicia.
- 5 citas de doctrina extranjera.
Fase 2: El ‘Acid Test’ contra Cendoj
Lanzamos un script que verifica las 95 citas en 3 minutos. Resultados:
- 62 citas son correctas.
- 33 citas (35%) no existen en el sistema oficial.
- De esas 33, 12 mencionan a magistrados que no pertenecen a esa Sala.
Fase 3: Análisis de la “Sana Crítica”
Analizamos los fundamentos jurídicos inventados. La IA ha mezclado conceptos de derecho civil con el penal de forma absurda. Esto demuestra que el abogado ni siquiera leyó lo que la IA generó.
Fase 4: Conclusión Pericial
El informe concluye que el escrito carece de integridad factual y ha sido generado mediante una IA sin supervisión humana profesional. El juez desestima el recurso y sanciona al letrado.
Guía de Implementación de IA en el Despacho (Paso a Paso)
Si desea integrar la IA sin arriesgar su carrera, siga este protocolo:
Paso 1: Auditoría de Herramientas
- No use versiones gratuitas.
- Verifique que la herramienta tenga “Enterprise Privacy”.
- Asegúrese de que sus datos NO se usen para entrenar al modelo.
Paso 2: Configuración del Sistema RAG
- Indexe su propia jurisprudencia ganadora.
- Indexe el BOE y Cendoj mediante APIs oficiales.
- Configure la IA para que cite la fuente exacta en cada párrafo.
Paso 3: Protocolo de Revisión Humana
- Designe a un responsable de verificación de citas.
- Ningún documento sale del despacho sin pasar por el “Filtro Cendoj”.
- Use checklists de verificación obligatorios.
Paso 4: Transparencia con el Cliente
- Informe al cliente de que usa IA para agilizar el proceso.
- Garantice por contrato que la IA no almacena sus datos privados.
El Impacto de la IA en la Procura y Gestión Procesal
La procura también se ve afectada por esta revolución. La gestión de miles de notificaciones de LexNet exige el uso de automatismos, pero con cautela.
- Clasificación de Notificaciones: La IA puede agrupar por urgencia.
- Control de Plazos: Cruce automático con el calendario judicial.
- Validación de Firma Digital: La IA detecta firmas corruptas o caducadas.
Auditoría de Sistemas de IA en la Administración de Justicia
El Estado está empezando a usar IAs para:
- Transcribir vistas orales (sustitución parcial del acta).
- Resumir atestados policiales masivos.
- Analizar riesgos de reincidencia (en fase experimental).
Cada uno de estos sistemas debe ser auditado externamente para garantizar que no existen sesgos que vulneren el derecho a un juicio justo con todas las garantías.
Colaboración entre Abogados y Peritos en la era IA
El binomio abogado-perito es más necesario que nunca. El abogado define la estrategia; el perito garantiza la verdad técnica.
- Auditoría de Escritos: El perito revisa el recurso antes de presentarlo.
- Impugnación Técnica: El perito encuentra las fallas en el recurso contrario.
- Certificación de Procesos: El perito valida que el RAG del despacho es seguro.
Certificación de Competencias Digitales para el Turno de Oficio
El Consejo General de la Abogacía Española (CGAE) está valorando exigir certificaciones digitales. Un abogado del turno de oficio maneja casos críticos donde un error de IA puede costar la libertad de una persona.
El Futuro de la IA en la Abogacía: Del Riesgo al RAG
Para sobrevivir profesionalmente, el abogado debe evolucionar. Ya no se puede confiar en la “memoria” de ChatGPT.
Por qué el RAG es la única solución segura
El RAG (Retrieval-Augmented Generation) funciona así:
- El abogado conecta su IA a su propia base de datos de confianza.
- Al preguntar, la IA busca primero documentos REALES.
- El modelo de lenguaje solo puede usar el texto encontrado para responder.
- Cada afirmación de la IA incluye un enlace al PDF original.
Esto elimina las alucinaciones porque la IA no tiene permiso para inventar nada que no esté en el documento.
Comparativa de Modelos para Uso Legal (2026)
| Modelo | Capacidad de Razonamiento | Riesgo de Alucinación | Recomendación Pericial |
|---|---|---|---|
| GPT-4o (OpenAI) | Muy alta | Medio-Alto | Solo mediante API RAG profesional. |
| Claude 3.5 (Anthropic) | Excelente | Medio | El mejor para redacción de contratos. |
| Gemini 1.5 (Google) | Alta | Alto | Útil para resúmenes de audio/video. |
| Vincent AI (vLex) | Específica Legal | Muy Bajo | La herramienta de referencia en España. |
| Harvey AI | Específica Legal | Bajo | Enfocada a grandes firmas (Big Law). |
Historia Breve de la IA en el Sector Legal
- 1970s: Primeros sistemas expertos basados en árboles de decisión.
- 1980s: Bases de datos digitales primitivas (LexisNexis).
- 2000s: Motores de búsqueda semántica (Aranzadi, Westlaw).
- 2010s: Herramientas de ‘Discovery’ para procesar millones de correos.
- 2022: Lanzamiento de ChatGPT y explosión de la IA generativa.
- 2023: Primeras multas judiciales en EE.UU. por alucinaciones.
- 2024: Aprobación de la AI Act en la Unión Europea.
- 2025: El CGPJ lanza su propia IA supervisada para jueces.
- 2026: Multa del TSJC de Canarias y consolidación de la forense de IA.
El Futuro: La ‘IA Agéntica’ en los Juzgados
En los próximos años veremos Agentes de IA capaces de:
- Presentar demandas de forma autónoma tras analizar un contrato.
- Contestar requerimientos rutinarios de forma masiva.
- Auditar sentencias en busca de errores procesales o contradicciones.
Sin embargo, como perito, advierto: A mayor automatización, mayor necesidad de auditoría forense externa. La justicia no puede permitirse ser un “algoritmo ciego”.
Checklist de Seguridad para Abogados (Evite Multas)
Si va a usar IA en su despacho, verifique estos 10 puntos críticos:
- ¿Es la herramienta una versión profesional con privacidad garantizada?
- ¿Ha comprobado manualmente cada número de sentencia en Cendoj?
- ¿Ha verificado que los magistrados citados están en activo en esa fecha?
- ¿Ha leído y comprendido cada párrafo del fundamento jurídico generado?
- ¿Ha eliminado cualquier dato personal del cliente antes de subir el texto?
- ¿Ha ajustado la ‘Temperatura’ del modelo a 0.0 (modo preciso)?
- ¿El escrito refleja su estilo profesional o parece un manual de instrucciones?
- ¿Ha incluido una cláusula de transparencia sobre el uso de asistentes IA?
- ¿Ha verificado que la ley citada no ha sido derogada por el Constitucional?
- ¿Firmaría usted ese documento sabiendo que se juega su carrera profesional?
Arquitectura Transformer y por qué siempre habrá riesgo
El corazón de ChatGPT es el Transformer. Utiliza un mecanismo de “Atención” para relacionar palabras. Pero este mecanismo no entiende de jerarquía normativa.
Para la IA, la frase “La sentencia del Supremo dice X” es solo una secuencia estadística de tokens. No entiende que el Supremo está por encima de un Juzgado de Instancia. No entiende que una ley orgánica prevalece sobre un reglamento.
Mientras la IA sea un modelo probabilístico y no un modelo basado en lógica simbólica pura, la supervisión humana será obligatoria para siempre.
Técnicas de Prompt Engineering para Abogados
Para mejorar la precisión de sus consultas, use estas estructuras:
El Prompt de “Cadena de Pensamiento” (Chain of Thought)
“Analiza el artículo 247 de la LEC. Primero, explica qué significa la buena fe procesal. Segundo, enumera las sanciones posibles. Tercero, aplica esto al caso de un abogado que usa IA. VE PASO A PASO y justifica cada conclusión con la ley.”
El Prompt de “Persona Experta”
“Actúa como un Magistrado de la Sala 2ª del Tribunal Supremo. Revisa este fundamento jurídico. Busca incoherencias lógicas y errores de bulto. Sé extremadamente crítico con la jurisprudencia citada.”
Deepfakes y Evidencia Digital en 2026
Este caso de sentencias falsas es solo el principio. En el laboratorio forense estamos viendo:
- Audios de WhatsApp clonados para simular confesiones.
- Vídeos de cámaras de seguridad alterados por IA.
- Contratos con firmas digitales “robadas” por troyanos de IA.
La autenticidad de lo digital ya no se presume; debe probarse. La impugnación de pruebas electrónicas será el 90% de los juicios.
Tabla Comparativa: Legislación Internacional de IA y Justicia
| Región | Ley Principal | Enfoque |
|---|---|---|
| Unión Europea | AI Act (2024) | Basado en el riesgo. Justicia es “Alto Riesgo”. |
| EE.UU. | Orden Ejecutiva 14110 | Seguridad, protección y desarrollo responsable. |
| España | Instrucción CGPJ 2/2026 | Ética judicial y responsabilidad profesional. |
| China | Regulación Algoritmos (2023) | Control estatal y veracidad de la información. |
Preguntas Frecuentes (FAQ) - La Guía Definitiva de IA Forense
1. ¿Es delito presentar sentencias falsas generadas por IA?
Es una falta grave a la buena fe procesal (art. 247 LEC). Conlleva multas económicas y condena en costas por temeridad. Si se demuestra dolo (intención de engaño) y hay beneficio económico, puede ser estafa procesal o fraude documental.
2. ¿Cómo verifico una sentencia rápidamente y con seguridad?
Vaya a la web oficial de Cendoj. Busque por el código ECLI. Si el código ECLI no devuelve resultados en la base de datos oficial, la sentencia es falsa. Es el método más rápido y seguro disponible para profesionales.
3. ¿La multa de 420€ es suficiente para castigar este hecho?
El tribunal buscó un efecto pedagógico y proporcional. Representa aproximadamente el 50% del ahorro que el abogado quiso obtener al no contratar una herramienta de IA jurídica profesional. El castigo real es el desprestigio profesional y el expediente del Colegio.
4. ¿Pueden los jueces usar IA para redactar sus sentencias?
Según la Instrucción 2/2026, solo como apoyo para resumir hechos o antecedentes. La motivación jurídica, la valoración de la prueba y el fallo deben ser 100% humanos. Una sentencia redactada íntegramente por IA sería nula de pleno derecho.
5. ¿Existen detectores de IA 100% fiables para los juzgados?
No existe una prueba pericial de “resultado único”. La detección de IA requiere un análisis forense lingüístico, estadístico y de metadatos. Un detector comercial solo ofrece una probabilidad, nunca una certeza absoluta.
6. ¿Qué es el “Dividendo del Mentiroso” en la práctica judicial?
Es la táctica de un acusado que intenta invalidar una prueba real en su contra (un audio incriminatorio, por ejemplo) alegando que ha sido “fabricado por IA”. Esto obliga al perito a certificar la autenticidad de la evidencia orgánica.
7. ¿Cuánto cuesta un peritaje para detectar jurisprudencia falsa?
Depende de la extensión del documento sospechoso. Un análisis forense de un recurso judicial estándar suele estar entre 800€ y 1.500€. Es una inversión necesaria para impugnar recursos fraudulentos de contrario.
8. ¿Qué pasa si el abogado dice que ‘fue un error de su becario o empleado’?
La legislación española no admite esa excusa como eximente. El abogado tiene el deber inalienable de diligencia profesional. Es responsable jurídico de todo lo que firma, aunque lo haya redactado un bot.
9. ¿Qué IA es la más recomendada actualmente para abogados?
No se recomienda ninguna IA de propósito general para investigación. Deben usarse herramientas especializadas con arquitectura RAG como Vincent AI. Son las únicas que garantizan que cada párrafo tiene una fuente verídica.
10. ¿Cómo afecta esta tecnología a la ética profesional de la abogacía?
Marca un cambio de paradigma total. La ética profesional ahora incluye obligatoriamente la competencia digital. Un abogado analfabeto digital es hoy un riesgo real para los intereses de su cliente.
11. ¿Qué es una ‘Alucinación’ en el contexto de la inteligencia artificial?
Es cuando la IA, al no encontrar un dato en su entrenamiento, “rellena” la respuesta con palabras que suenan muy convincentes y técnicas pero que no tienen ninguna base real. Es una “invención coherente”.
12. ¿Puedo ser inhabilitado por el Colegio de Abogados por este motivo?
Sí, es una posibilidad real. El TSJC de Canarias ha remitido el caso al Colegio. Puede conllevar desde una sanción económica hasta la suspensión temporal del ejercicio por vulnerar gravemente los principios del código deontológico.
13. ¿Qué es la ‘Caja Negra’ algorítmica y por qué es peligrosa?
Es la opacidad técnica de los sistemas de inteligencia artificial profunda. A menudo no podemos saber por qué el modelo eligió una palabra y no otra. Esto choca frontalmente con el derecho a la transparencia en las resoluciones.
14. ¿La inteligencia artificial tiene ‘conciencia’ de estar inventando datos falsos?
No. La IA no sabe qué es una “sentencia” ni qué es la “verdad”. Solo calcula qué secuencia de caracteres tiene mayor probabilidad estadística. No tiene intención maliciosa, solo un proceso matemático de predicción.
15. ¿Cómo será el peritaje de inteligencia artificial en el año 2030?
Será una auditoría técnica constante y automatizada. Veremos procesos donde IAs forenses auditarán a IAs generativas en tiempo real dentro del propio sistema de gestión de los tribunales (LexNet o similar).
16. ¿Qué es un ‘Prompt’ y por qué es tan importante para un abogado?
Un prompt es la instrucción que se le da a la IA. Un prompt mal redactado (“Dame sentencias sobre X”) causa alucinaciones. Un prompt bien estructurado (“Busca en este PDF el FJ 3º”) garantiza precisión.
17. ¿Puede la IA predecir el resultado de un juicio?
Existen sistemas de justicia predictiva, pero tienen márgenes de error. Pueden decir qué suele fallar un juez concreto en un caso concreto, pero nunca pueden garantizar el resultado final debido a la variabilidad humana.
18. ¿Cómo afecta la IA a la protección de datos en el despacho?
Es un riesgo crítico. Subir un atestado a ChatGPT es enviarlo a servidores externos. Si no tiene una cuenta corporativa con protección de datos, está violando el RGPD.
19. ¿Qué es el ‘Deep Learning’ en relación con estos errores?
Es la tecnología de capas neuronales que permite a la IA aprender patrones. Cuanto más profundo es el aprendizaje, más convincente es el error.
20. ¿La IA sustituirá a los peritos informáticos?
No. La IA crea más necesidad de peritos. Alguien debe auditar a la máquina. El perito informático es ahora el “notario técnico” de la verdad algorítmica.
21. ¿Qué es el ‘Stylometry’ y cómo ayuda a detectar IAs?
Es el estudio estadístico del estilo de escritura. Permite identificar si un texto ha sido escrito por Jonathan Izquierdo o por GPT-4.
22. ¿Puedo usar IA para traducir documentos legales?
Sí, pero con revisión. Los términos jurídicos (ej: “Common Law”) tienen matices que las IAs a menudo confunden con conceptos de Derecho Civil.
23. ¿Qué es el ‘Zero-Day’ en el contexto de la IA legal?
Se refiere a fallos o alucinaciones nuevas que no han sido detectadas antes. Obliga a una vigilancia constante por parte de los servicios técnicos del tribunal.
24. ¿Cómo afecta la IA a los honorarios de los abogados?
La IA permite hacer en 5 minutos lo que antes llevaba 5 horas. Esto obligará a cambiar el modelo de “facturación por horas” a “facturación por valor”.
25. ¿Es obligatorio declarar al juez que se ha usado IA?
Actualmente no es obligatorio en España, pero la Instrucción del CGPJ sugiere que la transparencia será un valor al alza en los próximos años.
26. ¿Qué es el ‘Hallucination Rate’ (Tasa de Alucinación)?
Es el porcentaje de errores que comete un modelo en un número de pruebas. En derecho, cualquier tasa superior al 0% es inaceptable para un profesional.
27. ¿Qué es el ‘Sandboxing’ en IA legal?
Es el uso de entornos seguros y aislados para probar herramientas de IA sin que los datos de los clientes salgan del control del despacho.
28. ¿Cómo afecta la IA al turno de oficio?
Podría ayudar a los abogados de oficio a gestionar grandes cargas de trabajo, pero el riesgo de error por falta de tiempo de revisión es alarmante.
29. ¿Qué es el ‘Prompt Injection’?
Es un ataque donde alguien engaña a la IA para que ignore sus reglas de seguridad. En justicia, esto podría usarse para manipular informes automatizados.
30. ¿Quién es el autor legal de un escrito generado por IA?
En España, la propiedad intelectual solo protege obras humanas. Un escrito 100% de IA no tiene derechos de autor, pero tiene un responsable legal: el firmante.
31. ¿Qué es la ‘Fe Pública Digital’ en la era de la IA?
Es la capacidad de los notarios y peritos de certificar que un documento ha sido generado por un humano en una fecha y lugar concretos, protegiéndolo contra alteraciones sintéticas futuras.
32. ¿Cómo afecta la IA al lenguaje jurídico claro?
Paradójicamente, la IA puede ayudar a simplificar el lenguaje legal complejo, pero si no se supervisa, puede generar textos infinitamente largos y vacíos (burocracia algorítmica).
33. ¿Qué es el ‘Transfer Learning’?
Es la técnica por la cual una IA entrenada en internet (conocimiento general) se adapta al lenguaje legal específico mediante un entrenamiento adicional.
34. ¿Puede la IA ser testigo en un juicio?
No. La IA no tiene capacidad de percepción sensorial ni de juramento. Sus resultados entran en el juicio como prueba pericial, no testifical.
35. ¿Qué es el ‘Explicabilidad’ (XAI)?
Es la rama de la IA que busca que los modelos expliquen por qué dicen lo que dicen. Es vital para que un juez pueda validar un informe pericial basado en IA.
36. ¿Cómo se protegen los tribunales contra el ‘Poisoning’ de datos?
Mediante auditorías de los conjuntos de datos de entrenamiento para evitar que alguien introduzca información falsa deliberadamente para sesgar la justicia.
37. ¿Qué es el ‘Ciberfraude Jurisprudencial’?
Es el nombre que estamos dando a la creación deliberada de sentencias falsas para inundar las bases de datos y engañar a los sistemas de búsqueda de la competencia.
38. ¿La IA puede detectar mentiras en un interrogatorio?
Existen sistemas de análisis de microexpresiones, pero su validez judicial es nula. La jurisprudencia española rechaza por ahora el uso de detectores de mentiras algorítmicos.
39. ¿Qué es el ‘Legal Prompting’?
Es la disciplina de diseñar instrucciones específicas que incluyen restricciones legales y de jerarquía normativa para guiar a la IA.
40. ¿Cuál es el riesgo de la ‘Justicia de Botón Único’?
El riesgo de que, por ahorrar costes, el sistema judicial acabe delegando pequeñas decisiones (multas, reclamaciones de cantidad) en algoritmos sin revisión.
41. ¿Qué es el ‘Model Collapse’?
Es el riesgo de que las IAs del futuro, entrenadas con textos de IAs actuales, acaben degenerando y perdiendo la capacidad de razonar humanamente.
42. ¿Cómo afecta la IA a la mediación y el arbitraje?
Puede ayudar a encontrar puntos de acuerdo basados en datos estadísticos de casos previos, acelerando la resolución extrajudicial de conflictos.
43. ¿Qué es la ‘Responsabilidad por Algoritmo’?
Es el nuevo campo jurídico que estudia quién paga cuando un coche autónomo o un software médico comete un error fatal.
44. ¿Se puede ‘engañar’ a un perito de IA?
Es extremadamente difícil. El perito no mira solo el texto, mira las trazas digitales invisibles para un usuario normal. La huella de la IA es indeleble.
45. ¿La IA puede redactar contratos inteligentes (Smart Contracts)?
Sí, pero requieren una auditoría de código por parte de un perito informático para asegurar que no contienen vulnerabilidades que permitan el robo de fondos.
Referencias y Fuentes Consultadas para este Informe
- TSJC de Canarias, Sala de lo Penal. Auto sancionador de fecha 13 de febrero de 2026.
- Consejo General del Poder Judicial (CGPJ). Instrucción 2/2026 sobre el uso de sistemas de IA.
- Tribunal Federal del Distrito Sur de Nueva York. Caso Mata v. Avianca, Inc. (2023).
- Ley de Enjuiciamiento Civil (LEC). Artículo 247 sobre los deberes de buena fe procesal.
- Estatuto General de la Abogacía Española. Artículos sobre diligencia, lealtad y competencia.
- Norma ISO/IEC 27037:2012. Directrices internacionales para la preservación de evidencia digital.
- Brent Mittelstadt (University of Oxford). Investigaciones sobre ética algorítmica y derecho.
- Stanford Institute for Human-Centered AI (HAI). Reporte anual sobre riesgos de modelos de lenguaje.
- AI Act de la Unión Europea. Reglamento (UE) 2024/1689 sobre inteligencia artificial.
- LexLatin (2026). Informe global sobre abogados sancionados por alucinaciones de IA.
- Damien Charlotin. AI Hallucination Cases Database (2026).
- INCIBE. Guía de ciberseguridad para despachos de abogados.
Sobre el autor: Jonathan Izquierdo es perito informático forense adscrito a los tribunales de justicia. Especialista en análisis de evidencias digitales, ciberseguridad avanzada y auditoría forense de sistemas de IA. Con más de una década de experiencia técnica, aplica metodología científica rigurosa para garantizar la integridad de la prueba digital en sede judicial. Es autor de numerosos informes periciales en casos de fraude tecnológico masivo.
Última actualización: 15 de febrero de 2026.
- inteligencia artificial
- ChatGPT
- prueba digital
- fraude procesal
- peritaje informático
- análisis forense de IA
- legaltech
- jurisprudencia falsa
- ética judicial
- derecho digital
- responsabilidad profesional
- inteligencia artificial generativa
- cumplimiento legal
- auditoría algorítmica
- fe pública digital
- transformación digital justicia





