· Jonathan Izquierdo · Legal ·
Abogado multado con 420 euros por citar 48 sentencias falsas generadas por inteligencia artificial
El TSJC de Canarias sanciona a un letrado por incluir 48 citas de jurisprudencia inventadas por una IA generalista en un recurso penal. Ninguna existía en Cendoj. Análisis forense del caso y cómo detectar documentos legales generados por IA.

Un abogado español ha sido multado con 420 euros por citar 48 sentencias del Tribunal Supremo que no existen. La Sala de lo Penal del Tribunal Superior de Justicia de Canarias (TSJC) descubrió que un letrado había utilizado una herramienta de inteligencia artificial generalista —no especializada en Derecho— para redactar un recurso de apelación contra una sentencia de la Audiencia Provincial de Santa Cruz de Tenerife. El resultado: 48 citas de jurisprudencia completamente inventadas, incluyendo referencias a sentencias del Supremo y un supuesto informe del Consejo General del Poder Judicial que jamás existió (El Español, 13 Feb 2026).
La documentalista del TSJC verificó cada una de las 48 citas. Ninguna correspondía a resoluciones reales. Números de sentencia, fechas, ponentes, identificadores: todo fabricado por el algoritmo. El abogado no comprobó ni una sola referencia contra el Centro de Documentación Judicial (Cendoj), una base de datos pública y gratuita donde cualquier profesional puede verificar jurisprudencia en minutos (Diario de Avisos, 13 Feb 2026).
Como perito informático forense, este caso me resulta especialmente relevante porque representa un nuevo tipo de fraude documental que va a multiplicarse: documentos generados por IA que parecen legítimos pero contienen información completamente fabricada. Detectar este tipo de contenido sintético ya es parte del trabajo pericial, y los tribunales van a necesitar cada vez más apoyo técnico para identificarlo.
TL;DR - Resumen ejecutivo
En 60 segundos:
- Multa: 420 euros al abogado (mitad del coste anual de una IA jurídica profesional)
- Tribunal: Sala de lo Penal del TSJC de Canarias
- Infracción: 48 citas de jurisprudencia del Tribunal Supremo completamente inventadas por IA
- Causa: Uso de herramienta de IA generalista (no jurídica) sin verificación humana posterior
- Detección: La documentalista del tribunal verificó las citas contra Cendoj: ninguna existía
- Precedente: Primer caso en España; se suma a sanciones similares en EE.UU. desde 2023
- Contexto: Instrucción 2/2026 del CGPJ regula uso de IA en la actividad jurisdiccional
- Derivación: Caso remitido al Colegio de Abogados para posible expediente disciplinario
Qué ocurrió: los hechos del caso paso a paso
El abogado presentó un recurso de apelación ante la Sala de lo Penal del TSJC contra una resolución de la Audiencia Provincial de Santa Cruz de Tenerife. Para fundamentar sus argumentos jurídicos, recurrió a una herramienta de inteligencia artificial de propósito general —del tipo ChatGPT, Gemini o similar— y le solicitó jurisprudencia que respaldara su posición (Infobae, 13 Feb 2026).
La IA le proporcionó 48 referencias que incluían:
- Sentencias del Tribunal Supremo con números de resolución, fechas concretas e identificadores de ponente
- Un informe del Consejo General del Poder Judicial con datos aparentemente verificables
- Citas textuales entrecomilladas de supuestos fundamentos jurídicos
El problema: ninguna de estas referencias era real. Los números de sentencia no correspondían a resoluciones existentes. Las fechas eran inventadas. Los ponentes citados no habían dictado esas sentencias. Los fundamentos jurídicos entrecomillados eran fabricaciones del modelo de lenguaje (El Diario, 13 Feb 2026).
Cómo se descubrió el fraude
La documentalista del TSJC realizó la verificación rutinaria de las citas jurisprudenciales del recurso. Al contrastar las 48 referencias contra la base de datos del Cendoj —que ofrece acceso universal y gratuito a toda la jurisprudencia española— confirmó que ninguna existía.
El tribunal calificó los hechos como una falta a la buena fe procesal y citó al abogado para que explicara la situación. El letrado reconoció los hechos, admitió haber utilizado una herramienta de IA generalista y expresó su arrepentimiento.
La multa: 420 euros y su cálculo
La cuantía de la multa no fue arbitraria. El tribunal la calculó con un criterio deliberadamente pedagógico:
| Concepto | Importe |
|---|---|
| Coste anual de una suscripción a IA jurídica profesional | ~840 euros/año (~70 euros/mes) |
| Multa impuesta (50% del coste anual) | 420 euros |
| Atenuante aplicada | Reconocimiento de hechos y arrepentimiento |
El mensaje del TSJC es claro: la multa equivale a medio año de suscripción a una herramienta de IA diseñada específicamente para el ámbito jurídico, que habría evitado el problema. El tribunal consideró que existían en el mercado planes básicos de IA legal por aproximadamente 70 euros al mes que, a diferencia de las herramientas generalistas, trabajan sobre bases de datos de jurisprudencia real y verificada (El Independiente, 13 Feb 2026).
Además de la multa, el TSJC derivó el caso al Colegio de Abogados correspondiente para que valore la apertura de un expediente disciplinario.
Por qué la IA inventa sentencias que no existen
Para entender este caso es necesario comprender cómo funcionan los modelos de lenguaje grande (LLM) como ChatGPT, Gemini o Claude. Estos sistemas no consultan bases de datos jurídicas reales. No acceden a Cendoj. No buscan en el BOE. Lo que hacen es predecir la siguiente palabra más probable en una secuencia de texto, basándose en patrones estadísticos aprendidos durante su entrenamiento (Nerds.ai, 2026).
El mecanismo técnico de las alucinaciones jurídicas
Cuando un abogado le pide a ChatGPT “dame sentencias del Tribunal Supremo sobre [tema X]”, el modelo no busca sentencias reales. En su lugar:
- Predice el formato: sabe que una sentencia del TS tiene número, fecha, sala, ponente y fundamentos jurídicos
- Genera datos plausibles: combina patrones de su entrenamiento para crear números de sentencia que parecen reales (ej: “STS 1234/2023, de 15 de marzo”)
- Inventa contenido coherente: redacta fundamentos jurídicos que suenan técnicamente correctos pero no corresponden a ninguna resolución real
- No distingue verdad de ficción: el modelo no tiene concepto de verificación factual —solo de probabilidad lingüística
Esto es lo que técnicamente se denomina “alucinación”: una respuesta que es gramaticalmente correcta, estilísticamente plausible y factualmente falsa. Como señala el investigador Brent Mittelstadt de la Universidad de Oxford, un modelo de lenguaje “no tiene ningún requisito absoluto de ser factual, preciso o consistente con la verdad objetiva” (ICALPA, 2026).
Dato clave para abogados
Las alucinaciones jurídicas son especialmente peligrosas porque los LLM generalistas conocen el formato de las sentencias (aprendido de miles de documentos legales) pero no verifican la existencia de lo que generan. El resultado es un documento que parece legítimo a primera vista pero que no resiste la más mínima comprobación en Cendoj o cualquier base de datos oficial.
Herramientas generalistas vs. herramientas jurídicas especializadas
| Característica | IA generalista (ChatGPT, Gemini) | IA jurídica especializada |
|---|---|---|
| Fuente de datos | Corpus general de internet | Bases de datos jurídicas verificadas (Cendoj, BOE, etc.) |
| Verificación de citas | No verifica | Enlaza a fuentes originales |
| Riesgo de alucinaciones | Alto (inventa citas plausibles) | Bajo (trabaja sobre datos reales) |
| Coste | Gratuito o bajo (20-25 euros/mes) | 70-150 euros/mes |
| Fiabilidad jurídica | Nula sin verificación humana | Alta con supervisión profesional |
| Consecuencia de error | Multas, sanciones disciplinarias, pérdida de credibilidad | Riesgo residual controlable |
Precedentes internacionales: no es un caso aislado
El caso del TSJC de Canarias es el primero de este tipo en España, pero se suma a una tendencia global que comenzó en 2023 y que no deja de crecer.
Mata v. Avianca (EE.UU., 2023) - El caso que lo empezó todo
En junio de 2023, los abogados Steven Schwartz y Peter LoDuca del bufete Levidow, Levidow & Oberman presentaron un escrito ante el Tribunal Federal del Distrito Sur de Nueva York en el caso Mata v. Avianca, Inc. que contenía seis sentencias completamente inventadas por ChatGPT. El juez P. Kevin Castel describió la situación como “una circunstancia sin precedentes” y les impuso una multa de 5.000 dólares. Además, les obligó a enviar cartas individuales a cada juez falsamente identificado como autor de las sentencias ficticias (CNN, 2023; Wikipedia: Mata v. Avianca).
Cronología de sanciones por alucinaciones jurídicas de IA
| Fecha | Caso | Jurisdicción | Citas falsas | Sanción | Herramienta |
|---|---|---|---|---|---|
| Jun 2023 | Mata v. Avianca | Nueva York, EE.UU. | 6 sentencias | 5.000 USD | ChatGPT |
| Dic 2023 | Richard Bednar | Utah, EE.UU. | Varias | Reembolso honorarios + 1.000 USD | ChatGPT |
| 2024 | Caso California | California, EE.UU. | Varias | 31.000 USD | Google Gemini + Westlaw |
| 2024 | Caso Walmart | Wyoming, EE.UU. | Varias | 5.000 USD | IA no especificada |
| Feb 2026 | TSJC Canarias | Tenerife, España | 48 sentencias | 420 EUR | IA generalista |
El patrón es siempre el mismo: un profesional del Derecho delega la investigación jurisprudencial a una IA generalista, no verifica los resultados y presenta ante el tribunal un escrito con citas que no existen. Lo que cambia es la escala: 6 citas falsas en Mata v. Avianca, 48 en el caso de Canarias (Spellbook Legal, 2026).
La Instrucción 2/2026 del CGPJ: el nuevo marco regulatorio
Apenas dos semanas antes de que se conociera la multa del TSJC, el Consejo General del Poder Judicial aprobó la Instrucción 2/2026 (28 de enero de 2026), que regula por primera vez el uso de sistemas de inteligencia artificial en la actividad jurisdiccional. Publicada en el BOE el 30 de enero de 2026, esta instrucción establece un marco de principios que resulta directamente aplicable al caso que nos ocupa (BOE-A-2026-2205).
Principios clave de la Instrucción 2/2026
| Principio | Contenido |
|---|---|
| Control humano efectivo | Los sistemas de IA deben estar “siempre sujetos a un control humano real, consciente y efectivo” |
| No sustitución | La IA no puede sustituir al juez en la toma de decisiones, valoración de pruebas o interpretación de la ley |
| Responsabilidad judicial | El juez mantiene “la responsabilidad plena y exclusiva” de sus resoluciones, con independencia de la IA utilizada |
| Prevención de sesgos | Obligación de adoptar precauciones para identificar y evitar sesgos algorítmicos |
| Confidencialidad | Garantías de integridad y seguridad en el tratamiento de datos judiciales |
Aunque la Instrucción 2/2026 se dirige a jueces y magistrados —no directamente a abogados—, establece un principio rector que el TSJC de Canarias citó expresamente en su resolución: la supervisión humana es el “eje fundamental de toda actuación profesional que implique el uso de estos sistemas en la práctica jurídica, entendiendo los profesionales la herramienta como asistencial y nunca como decisoria, evitando la dependencia ciega del sistema”.
Cómo detectar documentos legales generados por IA: perspectiva forense
Como perito informático, cada vez recibo más consultas sobre cómo verificar si un documento legal contiene contenido generado por inteligencia artificial. Esta es la metodología que aplico en mis investigaciones periciales:
Verificación de citas jurisprudenciales contra bases de datos oficiales
El primer paso —y el más efectivo— es contrastar cada cita contra Cendoj, el BOE y las bases de datos de jurisprudencia relevantes. Verificar número de sentencia, fecha, sala, ponente e identificador ECLI. En el caso del TSJC, este paso habría bastado para detectar las 48 citas falsas.
Análisis de metadatos del documento
Los documentos generados por IA a menudo presentan metadatos inconsistentes: timestamps de creación y modificación muy próximos (redacción en bloque), ausencia de historial de revisiones, o propiedades de autor que no coinciden con el firmante.
Análisis estilométrico y lingüístico
Los textos generados por LLM presentan patrones detectables: homogeneidad estilística inusual (un humano varía más de tono entre secciones), distribución de perplejidad anormalmente baja, y tendencia a estructuras sintácticas repetitivas. Las herramientas de detección de contenido sintético pueden ofrecer indicios, aunque no son determinantes por sí solas.
Verificación cruzada de datos factuales
Más allá de las citas, verificar todos los datos factuales del documento: nombres de partes, fechas de hechos, importes, artículos legales citados y sus contenidos reales. Las alucinaciones no solo afectan a la jurisprudencia, también pueden fabricar hechos, estadísticas o normativa.
Análisis de coherencia interna
Los textos generados por IA pueden contener contradicciones internas sutiles: un párrafo afirma una cosa y otro la contraria, o el razonamiento jurídico contiene saltos lógicos que un profesional humano no cometería. Mapear la estructura argumental completa del documento permite detectar estas incoherencias.
Informe pericial documentado
Documentar todo el proceso con evidencia reproducible: capturas de pantalla de las búsquedas en Cendoj, volcado de metadatos, resultados de herramientas de detección, y análisis comparativo con documentos verificados del mismo autor. El informe pericial debe seguir metodología ISO 27037 para ser válido en sede judicial.
Indicadores de que un escrito jurídico puede contener contenido generado por IA
| Indicador | Descripción | Nivel de alerta |
|---|---|---|
| Citas que no aparecen en Cendoj | Números de sentencia, ECLI o fechas sin correspondencia en bases de datos oficiales | Muy alto |
| Formato perfecto pero datos falsos | Estructura correcta de cita (STS nnn/aaaa, Sala X, Ponente Y) con datos inventados | Muy alto |
| Homogeneidad estilística excesiva | Mismo nivel de formalidad y estructura en todo el documento, sin variaciones naturales | Medio |
| Citas textuales sin fuente verificable | Entrecomillados extensos que no corresponden a ningún texto publicado | Alto |
| Razonamientos jurídicos genéricos | Argumentos correctos en abstracto pero sin anclaje en jurisprudencia real del caso concreto | Medio |
| Metadatos inconsistentes | Tiempo de redacción incompatible con la extensión, historial de versiones ausente | Medio |
| Datos factuales no verificables | Estadísticas, porcentajes o cifras sin fuente comprobable | Alto |
| Repetición de patrones sintácticos | Misma estructura de frase repetida (ej: “cabe señalar que… es importante destacar que…”) | Bajo-medio |
Implicaciones para abogados: obligaciones y deberes éticos
La resolución del TSJC de Canarias establece un precedente claro para la abogacía española. El tribunal no cuestiona el uso de la IA como herramienta de apoyo —lo que cuestiona es la ausencia total de supervisión humana.
Lo que deben hacer los abogados a partir de ahora
- Verificar siempre cada cita: toda referencia jurisprudencial obtenida mediante IA debe contrastarse contra Cendoj u otras bases de datos oficiales antes de incluirla en un escrito procesal
- Utilizar herramientas especializadas: si se usa IA para investigación jurídica, emplear plataformas diseñadas para el ámbito legal que trabajen sobre bases de datos verificadas
- Documentar el proceso: mantener registro del uso de herramientas de IA en la preparación de escritos, incluyendo las consultas realizadas y las verificaciones efectuadas
- Formación continua: el propio abogado sancionado declaró haberse inscrito en un curso de competencias digitales del Consejo General de la Abogacía
- Conocer la Instrucción 2/2026: aunque se dirige a jueces, establece principios de supervisión humana aplicables a toda la práctica jurídica
La IA como herramienta, no como sustituto
La resolución del TSJC lo deja claro: la supervisión humana es el “eje fundamental de toda actuación profesional” que implique IA. La herramienta es asistencial, nunca decisoria. Un abogado no puede delegar su deber de diligencia profesional en un algoritmo, del mismo modo que un cirujano no puede delegar una operación en un robot sin supervisar cada paso.
Qué significa esto para la prueba digital en los tribunales
Este caso abre un debate que va a intensificarse: si un abogado puede presentar 48 citas falsas sin ser detectado hasta que una documentalista las verifica manualmente, ¿qué ocurre cuando la IA se utiliza para fabricar otro tipo de pruebas digitales?
Los deepfakes de audio y vídeo ya son una realidad en procedimientos judiciales. Los sistemas de IA agéntica pueden generar documentos cada vez más sofisticados. La capacidad de los tribunales para detectar contenido fabricado por IA sin apoyo pericial especializado es limitada y va a serlo cada vez más.
Como perito informático forense, mi recomendación para abogados, jueces y procuradores es clara: ante cualquier duda sobre la autenticidad de un documento, una grabación o una prueba digital, solicitar un peritaje informático antes de que el documento entre en el procedimiento. Es más barato prevenir que reparar.
¿Necesitas verificar la autenticidad de un documento legal o prueba digital?
Como perito informático forense, aplico metodología ISO 27037 para analizar documentos, detectar contenido generado por IA y emitir informes periciales válidos en sede judicial. Primera consulta gratuita por videollamada.
Más informaciónPreguntas frecuentes
¿Es delito presentar sentencias falsas generadas por IA en un juicio?
La presentación de citas jurisprudenciales falsas generadas por IA puede constituir una infracción de la buena fe procesal (artículos 247 de la Ley de Enjuiciamiento Civil y 11 de la LOPJ), sancionable con multas procesales. En casos más graves —si se acredita dolo y la intención de engañar al tribunal— podría dar lugar a responsabilidad disciplinaria ante el Colegio de Abogados e incluso responsabilidad penal. En el caso del TSJC de Canarias, la multa fue de 420 euros y se derivó el caso al Colegio de Abogados para valorar un expediente disciplinario. La diferencia entre una multa procesal y una sanción disciplinaria o penal depende de si el profesional actuó con negligencia (no verificó) o con intencionalidad (sabía que eran falsas).
¿Cómo puedo verificar si una sentencia citada en un escrito es real?
El Centro de Documentación Judicial (Cendoj) ofrece acceso universal y gratuito a la jurisprudencia española. Cualquier profesional puede buscar por número de sentencia, fecha, tribunal, ponente o identificador ECLI. Además, bases de datos como Aranzadi, vLex o La Ley permiten verificaciones cruzadas. Si una sentencia no aparece en Cendoj ni en ninguna base de datos jurídica comercial, es muy probable que sea una alucinación generada por IA. Para verificaciones periciales con valor probatorio, un perito informático puede documentar formalmente la inexistencia de las citas mediante informe pericial.
¿La Instrucción 2/2026 del CGPJ prohíbe que los abogados usen ChatGPT?
No directamente. La Instrucción 2/2026 regula el uso de IA por jueces y magistrados en la actividad jurisdiccional, no por abogados. Sin embargo, establece principios rectores —como la supervisión humana efectiva, la no sustitución y la responsabilidad del profesional— que el TSJC de Canarias ha aplicado analógicamente a la conducta del abogado sancionado. Los colegios de abogados aún no han emitido una normativa específica sobre el uso de IA en la práctica forense, pero el principio de diligencia profesional del artículo 42 del Estatuto General de la Abogacía Española ya obliga a verificar la información que se presenta ante los tribunales (BOE, Instrucción 2/2026).
¿Puede un perito informático detectar si un documento fue escrito por IA?
Sí, mediante una combinación de técnicas que incluyen análisis estilométrico (patrones lingüísticos), verificación factual de citas y datos, análisis de metadatos del documento, y uso de herramientas especializadas de detección de contenido sintético. Sin embargo, es importante señalar que la detección no es infalible: las herramientas automatizadas como GPTZero o Turnitin tienen tasas de precisión en torno al 70%, y la escritura formal o técnica es especialmente difícil de clasificar. Por eso, la verificación factual —comprobar que los datos, citas y referencias existen realmente— sigue siendo el método más fiable. Un informe pericial documentado con metodología ISO 27037 tiene valor probatorio pleno en sede judicial.
¿Cuánto cuesta un peritaje de verificación de documentos generados por IA?
El coste de un peritaje de autenticidad documental depende de la complejidad del caso: número de documentos a analizar, tipo de verificaciones necesarias (jurisprudenciales, factuales, estilométricas) y urgencia. Para una consulta inicial gratuita donde evaluar el caso y presupuestar, puedes contactar a través de la página de contacto o llamar al 624 09 37 96. Como referencia, la multa de 420 euros impuesta al abogado por el TSJC ya supera el coste de una verificación pericial preventiva que habría evitado toda la situación.
Referencias y fuentes
El Español (13 Feb 2026). “Multa de 420 euros a un abogado por citar en un escrito 48 sentencias falsas generadas por Inteligencia Artificial”. https://www.elespanol.com/espana/tribunales/20260213/multa-euros-abogado-citar-escrito-sentencias-falsas-generadas-inteligencia-artificial/1003744129079_0.html
El Diario (13 Feb 2026). “Multa a un abogado en Tenerife que citó hasta 48 sentencias falsas sugeridas por IA”. https://www.eldiario.es/canariasahora/tribunales/multa-abogado-tenerife-cito-48-sentencias-falsas-sugeridas-ia_1_12988784.html
Infobae (13 Feb 2026). “Multado con 420 euros un abogado que usó 48 citas de sentencias falsas generadas por IA”. https://www.infobae.com/espana/2026/02/13/multado-con-420-euros-un-abogado-que-uso-48-citas-de-sentencias-falsas-generadas-por-ia/
El Independiente (13 Feb 2026). “Multa al abogado que usó la IA para 48 citas de jurisprudencia falsas en un recurso”. https://www.elindependiente.com/espana/2026/02/13/multa-al-abogado-que-uso-la-ia-para-48-citas-de-jurisprudencia-falsas-en-un-recurso/
Diario de Avisos (13 Feb 2026). “Un abogado de Tenerife usa IA para un recurso y el TSJC descubre 48 citas de sentencias inventadas”. https://diariodeavisos.elespanol.com/2026/02/abogado-tenerife-multa-ia-citas-falsas/
BOE (30 Ene 2026). “Instrucción 2/2026, de 28 de enero, del CGPJ, sobre la utilización de sistemas de inteligencia artificial en el ejercicio de la actividad jurisdiccional”. https://www.boe.es/diario_boe/txt.php?id=BOE-A-2026-2205
CNN (2023). “Lawyer apologizes for fake court citations from ChatGPT”. https://www.cnn.com/2023/05/27/business/chat-gpt-avianca-mata-lawyers
Spellbook Legal (2026). “Lawyer Fined for Using AI-Generated Legal Documents with Fake Citations”. https://www.spellbook.legal/learn/lawyer-fined-using-ai-legal-fake-citations
Nerds.ai (2026). “Alucinaciones en LLMs: qué son, por qué ocurren y cómo mitigarlas”. https://www.nerds.ai/en/blog/alucinaciones-en-llms-que-son-por-que-ocurren-y-como-mitigarlas-en-produccion
ICALPA (2026). “Alucinaciones y omisiones en textos generados por IA: cuando la IA nos miente”. https://www.icalpa.es/colegiados/actualidad/alucinaciones-y-omisiones-en-textos-generados-por-ia-cuando-la-ia-nos-miente
LexLatin (2026). “Problemas legales por el uso de ChatGPT: las alucinaciones de la inteligencia artificial dejan en evidencia a 116 abogados”. https://lexlatin.com/gestion-lexlatin/problemas-legales-chatgpt-alucinaciones-inteligencia-artificial-abogados
Iberley (2026). “El CGPJ aprueba la Instrucción 2/2026 sobre uso de IA en la actividad judicial”. https://www.iberley.es/noticias/nueva-instruccion-cgpj-uso-ia-actividad-judicial-36001
Preguntas relacionadas
¿Qué herramientas de IA jurídica especializada existen en España?
En el mercado español existen plataformas de IA diseñadas específicamente para profesionales del Derecho, como vLex (con su asistente Vincent AI), Aranzadi-Westlaw (con IA integrada), La Ley Digital y Tirant lo Blanch. Estas herramientas, a diferencia de ChatGPT o Gemini, trabajan sobre bases de datos de jurisprudencia real verificada y enlaza cada cita a la fuente original. Su coste oscila entre 50 y 150 euros al mes, una inversión insignificante comparada con el riesgo de una multa o sanción disciplinaria.
¿Pueden los jueces usar ChatGPT en España tras la Instrucción 2/2026?
La Instrucción 2/2026 del CGPJ establece que los jueces solo pueden utilizar sistemas de IA facilitados por las administraciones competentes o por el propio CGPJ, debidamente auditados. Sin embargo, permite el uso de sistemas no autorizados para “preparación a partir de fuentes abiertas”, siempre que no se introduzcan datos judiciales. En ningún caso un juez puede incorporar contenido generado por IA en resoluciones judiciales sin revisión personal completa y crítica. Análisis completo de la Instrucción 2/2026.
¿Qué consecuencias disciplinarias puede enfrentar un abogado que use IA sin verificar?
Las consecuencias van en escala: (1) multa procesal por infracción de la buena fe procesal (artículo 247 LEC), como los 420 euros del caso TSJC; (2) expediente disciplinario del Colegio de Abogados, que puede acarrear desde apercibimiento hasta suspensión del ejercicio; (3) responsabilidad civil frente al cliente por negligencia profesional; y (4) en casos extremos con dolo acreditado, responsabilidad penal. El Estatuto General de la Abogacía Española obliga al abogado a actuar con diligencia y a no inducir a error al tribunal.
¿Cuántos abogados han sido sancionados en el mundo por usar IA?
Según la base de datos de alucinaciones de IA en procedimientos judiciales mantenida por el investigador Damien Charlotin, se documentan decenas de casos desde 2023 en múltiples jurisdicciones: Estados Unidos (Mata v. Avianca, caso Bednar en Utah, caso Walmart en Wyoming, caso California con multa de 31.000 USD), España (TSJC Canarias, 2026) y otros países. El LexLatin reporta que al menos 116 abogados han sido afectados globalmente. La tendencia es claramente ascendente y los tribunales están endureciendo las sanciones (Damien Charlotin, AI Hallucination Cases Database).
¿Cómo afecta este caso a la admisibilidad de pruebas digitales en España?
El caso refuerza la necesidad de verificación pericial de toda prueba digital presentada ante los tribunales. Si un profesional del Derecho puede presentar inadvertidamente 48 citas falsas, los tribunales están tomando conciencia de que cualquier documento digital puede contener contenido fabricado por IA. Esto eleva el estándar de autenticidad de la prueba digital y aumenta la demanda de informes periciales que certifiquen la integridad, autenticidad y no manipulación de las evidencias electrónicas.
Sobre el autor: Jonathan Izquierdo es perito informático forense con más de 10 años de experiencia en análisis forense digital, investigación de ciberincidentes y auditoría de sistemas. Ex-CTO y 5x AWS Certified, aplica metodología ISO 27037 en todas sus investigaciones periciales.
Última actualización: 15 de febrero de 2026.





