· Jonathan Izquierdo · Legal  ·

18 min de lectura

Abogado multado con 420 euros por citar 48 sentencias falsas generadas por inteligencia artificial

El TSJC de Canarias sanciona a un letrado por incluir 48 citas de jurisprudencia inventadas por una IA generalista en un recurso penal. Ninguna existía en Cendoj. Análisis forense del caso y cómo detectar documentos legales generados por IA.

El TSJC de Canarias sanciona a un letrado por incluir 48 citas de jurisprudencia inventadas por una IA generalista en un recurso penal. Ninguna existía en Cendoj. Análisis forense del caso y cómo detectar documentos legales generados por IA.

Un abogado español ha sido multado con 420 euros por citar 48 sentencias del Tribunal Supremo que no existen. La Sala de lo Penal del Tribunal Superior de Justicia de Canarias (TSJC) descubrió que un letrado había utilizado una herramienta de inteligencia artificial generalista —no especializada en Derecho— para redactar un recurso de apelación contra una sentencia de la Audiencia Provincial de Santa Cruz de Tenerife. El resultado: 48 citas de jurisprudencia completamente inventadas, incluyendo referencias a sentencias del Supremo y un supuesto informe del Consejo General del Poder Judicial que jamás existió (El Español, 13 Feb 2026).

La documentalista del TSJC verificó cada una de las 48 citas. Ninguna correspondía a resoluciones reales. Números de sentencia, fechas, ponentes, identificadores: todo fabricado por el algoritmo. El abogado no comprobó ni una sola referencia contra el Centro de Documentación Judicial (Cendoj), una base de datos pública y gratuita donde cualquier profesional puede verificar jurisprudencia en minutos (Diario de Avisos, 13 Feb 2026).

Como perito informático forense, este caso me resulta especialmente relevante porque representa un nuevo tipo de fraude documental que va a multiplicarse: documentos generados por IA que parecen legítimos pero contienen información completamente fabricada. Detectar este tipo de contenido sintético ya es parte del trabajo pericial, y los tribunales van a necesitar cada vez más apoyo técnico para identificarlo.

TL;DR - Resumen ejecutivo

En 60 segundos:

  • Multa: 420 euros al abogado (mitad del coste anual de una IA jurídica profesional)
  • Tribunal: Sala de lo Penal del TSJC de Canarias
  • Infracción: 48 citas de jurisprudencia del Tribunal Supremo completamente inventadas por IA
  • Causa: Uso de herramienta de IA generalista (no jurídica) sin verificación humana posterior
  • Detección: La documentalista del tribunal verificó las citas contra Cendoj: ninguna existía
  • Precedente: Primer caso en España; se suma a sanciones similares en EE.UU. desde 2023
  • Contexto: Instrucción 2/2026 del CGPJ regula uso de IA en la actividad jurisdiccional
  • Derivación: Caso remitido al Colegio de Abogados para posible expediente disciplinario

Verificar autenticidad de documentos legales

Qué ocurrió: los hechos del caso paso a paso

El abogado presentó un recurso de apelación ante la Sala de lo Penal del TSJC contra una resolución de la Audiencia Provincial de Santa Cruz de Tenerife. Para fundamentar sus argumentos jurídicos, recurrió a una herramienta de inteligencia artificial de propósito general —del tipo ChatGPT, Gemini o similar— y le solicitó jurisprudencia que respaldara su posición (Infobae, 13 Feb 2026).

La IA le proporcionó 48 referencias que incluían:

  • Sentencias del Tribunal Supremo con números de resolución, fechas concretas e identificadores de ponente
  • Un informe del Consejo General del Poder Judicial con datos aparentemente verificables
  • Citas textuales entrecomilladas de supuestos fundamentos jurídicos

El problema: ninguna de estas referencias era real. Los números de sentencia no correspondían a resoluciones existentes. Las fechas eran inventadas. Los ponentes citados no habían dictado esas sentencias. Los fundamentos jurídicos entrecomillados eran fabricaciones del modelo de lenguaje (El Diario, 13 Feb 2026).

Cómo se descubrió el fraude

La documentalista del TSJC realizó la verificación rutinaria de las citas jurisprudenciales del recurso. Al contrastar las 48 referencias contra la base de datos del Cendoj —que ofrece acceso universal y gratuito a toda la jurisprudencia española— confirmó que ninguna existía.

El tribunal calificó los hechos como una falta a la buena fe procesal y citó al abogado para que explicara la situación. El letrado reconoció los hechos, admitió haber utilizado una herramienta de IA generalista y expresó su arrepentimiento.

La multa: 420 euros y su cálculo

La cuantía de la multa no fue arbitraria. El tribunal la calculó con un criterio deliberadamente pedagógico:

ConceptoImporte
Coste anual de una suscripción a IA jurídica profesional~840 euros/año (~70 euros/mes)
Multa impuesta (50% del coste anual)420 euros
Atenuante aplicadaReconocimiento de hechos y arrepentimiento

El mensaje del TSJC es claro: la multa equivale a medio año de suscripción a una herramienta de IA diseñada específicamente para el ámbito jurídico, que habría evitado el problema. El tribunal consideró que existían en el mercado planes básicos de IA legal por aproximadamente 70 euros al mes que, a diferencia de las herramientas generalistas, trabajan sobre bases de datos de jurisprudencia real y verificada (El Independiente, 13 Feb 2026).

Además de la multa, el TSJC derivó el caso al Colegio de Abogados correspondiente para que valore la apertura de un expediente disciplinario.

Por qué la IA inventa sentencias que no existen

Para entender este caso es necesario comprender cómo funcionan los modelos de lenguaje grande (LLM) como ChatGPT, Gemini o Claude. Estos sistemas no consultan bases de datos jurídicas reales. No acceden a Cendoj. No buscan en el BOE. Lo que hacen es predecir la siguiente palabra más probable en una secuencia de texto, basándose en patrones estadísticos aprendidos durante su entrenamiento (Nerds.ai, 2026).

El mecanismo técnico de las alucinaciones jurídicas

Cuando un abogado le pide a ChatGPT “dame sentencias del Tribunal Supremo sobre [tema X]”, el modelo no busca sentencias reales. En su lugar:

  1. Predice el formato: sabe que una sentencia del TS tiene número, fecha, sala, ponente y fundamentos jurídicos
  2. Genera datos plausibles: combina patrones de su entrenamiento para crear números de sentencia que parecen reales (ej: “STS 1234/2023, de 15 de marzo”)
  3. Inventa contenido coherente: redacta fundamentos jurídicos que suenan técnicamente correctos pero no corresponden a ninguna resolución real
  4. No distingue verdad de ficción: el modelo no tiene concepto de verificación factual —solo de probabilidad lingüística

Esto es lo que técnicamente se denomina “alucinación”: una respuesta que es gramaticalmente correcta, estilísticamente plausible y factualmente falsa. Como señala el investigador Brent Mittelstadt de la Universidad de Oxford, un modelo de lenguaje “no tiene ningún requisito absoluto de ser factual, preciso o consistente con la verdad objetiva” (ICALPA, 2026).

Dato clave para abogados

Las alucinaciones jurídicas son especialmente peligrosas porque los LLM generalistas conocen el formato de las sentencias (aprendido de miles de documentos legales) pero no verifican la existencia de lo que generan. El resultado es un documento que parece legítimo a primera vista pero que no resiste la más mínima comprobación en Cendoj o cualquier base de datos oficial.

Herramientas generalistas vs. herramientas jurídicas especializadas

CaracterísticaIA generalista (ChatGPT, Gemini)IA jurídica especializada
Fuente de datosCorpus general de internetBases de datos jurídicas verificadas (Cendoj, BOE, etc.)
Verificación de citasNo verificaEnlaza a fuentes originales
Riesgo de alucinacionesAlto (inventa citas plausibles)Bajo (trabaja sobre datos reales)
CosteGratuito o bajo (20-25 euros/mes)70-150 euros/mes
Fiabilidad jurídicaNula sin verificación humanaAlta con supervisión profesional
Consecuencia de errorMultas, sanciones disciplinarias, pérdida de credibilidadRiesgo residual controlable

Precedentes internacionales: no es un caso aislado

El caso del TSJC de Canarias es el primero de este tipo en España, pero se suma a una tendencia global que comenzó en 2023 y que no deja de crecer.

Mata v. Avianca (EE.UU., 2023) - El caso que lo empezó todo

En junio de 2023, los abogados Steven Schwartz y Peter LoDuca del bufete Levidow, Levidow & Oberman presentaron un escrito ante el Tribunal Federal del Distrito Sur de Nueva York en el caso Mata v. Avianca, Inc. que contenía seis sentencias completamente inventadas por ChatGPT. El juez P. Kevin Castel describió la situación como “una circunstancia sin precedentes” y les impuso una multa de 5.000 dólares. Además, les obligó a enviar cartas individuales a cada juez falsamente identificado como autor de las sentencias ficticias (CNN, 2023; Wikipedia: Mata v. Avianca).

Cronología de sanciones por alucinaciones jurídicas de IA

FechaCasoJurisdicciónCitas falsasSanciónHerramienta
Jun 2023Mata v. AviancaNueva York, EE.UU.6 sentencias5.000 USDChatGPT
Dic 2023Richard BednarUtah, EE.UU.VariasReembolso honorarios + 1.000 USDChatGPT
2024Caso CaliforniaCalifornia, EE.UU.Varias31.000 USDGoogle Gemini + Westlaw
2024Caso WalmartWyoming, EE.UU.Varias5.000 USDIA no especificada
Feb 2026TSJC CanariasTenerife, España48 sentencias420 EURIA generalista

El patrón es siempre el mismo: un profesional del Derecho delega la investigación jurisprudencial a una IA generalista, no verifica los resultados y presenta ante el tribunal un escrito con citas que no existen. Lo que cambia es la escala: 6 citas falsas en Mata v. Avianca, 48 en el caso de Canarias (Spellbook Legal, 2026).

La Instrucción 2/2026 del CGPJ: el nuevo marco regulatorio

Apenas dos semanas antes de que se conociera la multa del TSJC, el Consejo General del Poder Judicial aprobó la Instrucción 2/2026 (28 de enero de 2026), que regula por primera vez el uso de sistemas de inteligencia artificial en la actividad jurisdiccional. Publicada en el BOE el 30 de enero de 2026, esta instrucción establece un marco de principios que resulta directamente aplicable al caso que nos ocupa (BOE-A-2026-2205).

Principios clave de la Instrucción 2/2026

PrincipioContenido
Control humano efectivoLos sistemas de IA deben estar “siempre sujetos a un control humano real, consciente y efectivo”
No sustituciónLa IA no puede sustituir al juez en la toma de decisiones, valoración de pruebas o interpretación de la ley
Responsabilidad judicialEl juez mantiene “la responsabilidad plena y exclusiva” de sus resoluciones, con independencia de la IA utilizada
Prevención de sesgosObligación de adoptar precauciones para identificar y evitar sesgos algorítmicos
ConfidencialidadGarantías de integridad y seguridad en el tratamiento de datos judiciales

Aunque la Instrucción 2/2026 se dirige a jueces y magistrados —no directamente a abogados—, establece un principio rector que el TSJC de Canarias citó expresamente en su resolución: la supervisión humana es el “eje fundamental de toda actuación profesional que implique el uso de estos sistemas en la práctica jurídica, entendiendo los profesionales la herramienta como asistencial y nunca como decisoria, evitando la dependencia ciega del sistema”.

Cómo detectar documentos legales generados por IA: perspectiva forense

Como perito informático, cada vez recibo más consultas sobre cómo verificar si un documento legal contiene contenido generado por inteligencia artificial. Esta es la metodología que aplico en mis investigaciones periciales:

  1. Verificación de citas jurisprudenciales contra bases de datos oficiales

    El primer paso —y el más efectivo— es contrastar cada cita contra Cendoj, el BOE y las bases de datos de jurisprudencia relevantes. Verificar número de sentencia, fecha, sala, ponente e identificador ECLI. En el caso del TSJC, este paso habría bastado para detectar las 48 citas falsas.

  2. Análisis de metadatos del documento

    Los documentos generados por IA a menudo presentan metadatos inconsistentes: timestamps de creación y modificación muy próximos (redacción en bloque), ausencia de historial de revisiones, o propiedades de autor que no coinciden con el firmante.

  3. Análisis estilométrico y lingüístico

    Los textos generados por LLM presentan patrones detectables: homogeneidad estilística inusual (un humano varía más de tono entre secciones), distribución de perplejidad anormalmente baja, y tendencia a estructuras sintácticas repetitivas. Las herramientas de detección de contenido sintético pueden ofrecer indicios, aunque no son determinantes por sí solas.

  4. Verificación cruzada de datos factuales

    Más allá de las citas, verificar todos los datos factuales del documento: nombres de partes, fechas de hechos, importes, artículos legales citados y sus contenidos reales. Las alucinaciones no solo afectan a la jurisprudencia, también pueden fabricar hechos, estadísticas o normativa.

  5. Análisis de coherencia interna

    Los textos generados por IA pueden contener contradicciones internas sutiles: un párrafo afirma una cosa y otro la contraria, o el razonamiento jurídico contiene saltos lógicos que un profesional humano no cometería. Mapear la estructura argumental completa del documento permite detectar estas incoherencias.

  6. Informe pericial documentado

    Documentar todo el proceso con evidencia reproducible: capturas de pantalla de las búsquedas en Cendoj, volcado de metadatos, resultados de herramientas de detección, y análisis comparativo con documentos verificados del mismo autor. El informe pericial debe seguir metodología ISO 27037 para ser válido en sede judicial.

Indicadores de que un escrito jurídico puede contener contenido generado por IA

IndicadorDescripciónNivel de alerta
Citas que no aparecen en CendojNúmeros de sentencia, ECLI o fechas sin correspondencia en bases de datos oficialesMuy alto
Formato perfecto pero datos falsosEstructura correcta de cita (STS nnn/aaaa, Sala X, Ponente Y) con datos inventadosMuy alto
Homogeneidad estilística excesivaMismo nivel de formalidad y estructura en todo el documento, sin variaciones naturalesMedio
Citas textuales sin fuente verificableEntrecomillados extensos que no corresponden a ningún texto publicadoAlto
Razonamientos jurídicos genéricosArgumentos correctos en abstracto pero sin anclaje en jurisprudencia real del caso concretoMedio
Metadatos inconsistentesTiempo de redacción incompatible con la extensión, historial de versiones ausenteMedio
Datos factuales no verificablesEstadísticas, porcentajes o cifras sin fuente comprobableAlto
Repetición de patrones sintácticosMisma estructura de frase repetida (ej: “cabe señalar que… es importante destacar que…”)Bajo-medio

Implicaciones para abogados: obligaciones y deberes éticos

La resolución del TSJC de Canarias establece un precedente claro para la abogacía española. El tribunal no cuestiona el uso de la IA como herramienta de apoyo —lo que cuestiona es la ausencia total de supervisión humana.

Lo que deben hacer los abogados a partir de ahora

  1. Verificar siempre cada cita: toda referencia jurisprudencial obtenida mediante IA debe contrastarse contra Cendoj u otras bases de datos oficiales antes de incluirla en un escrito procesal
  2. Utilizar herramientas especializadas: si se usa IA para investigación jurídica, emplear plataformas diseñadas para el ámbito legal que trabajen sobre bases de datos verificadas
  3. Documentar el proceso: mantener registro del uso de herramientas de IA en la preparación de escritos, incluyendo las consultas realizadas y las verificaciones efectuadas
  4. Formación continua: el propio abogado sancionado declaró haberse inscrito en un curso de competencias digitales del Consejo General de la Abogacía
  5. Conocer la Instrucción 2/2026: aunque se dirige a jueces, establece principios de supervisión humana aplicables a toda la práctica jurídica
La IA como herramienta, no como sustituto

La resolución del TSJC lo deja claro: la supervisión humana es el “eje fundamental de toda actuación profesional” que implique IA. La herramienta es asistencial, nunca decisoria. Un abogado no puede delegar su deber de diligencia profesional en un algoritmo, del mismo modo que un cirujano no puede delegar una operación en un robot sin supervisar cada paso.

Qué significa esto para la prueba digital en los tribunales

Este caso abre un debate que va a intensificarse: si un abogado puede presentar 48 citas falsas sin ser detectado hasta que una documentalista las verifica manualmente, ¿qué ocurre cuando la IA se utiliza para fabricar otro tipo de pruebas digitales?

Los deepfakes de audio y vídeo ya son una realidad en procedimientos judiciales. Los sistemas de IA agéntica pueden generar documentos cada vez más sofisticados. La capacidad de los tribunales para detectar contenido fabricado por IA sin apoyo pericial especializado es limitada y va a serlo cada vez más.

Como perito informático forense, mi recomendación para abogados, jueces y procuradores es clara: ante cualquier duda sobre la autenticidad de un documento, una grabación o una prueba digital, solicitar un peritaje informático antes de que el documento entre en el procedimiento. Es más barato prevenir que reparar.

¿Necesitas verificar la autenticidad de un documento legal o prueba digital?

Como perito informático forense, aplico metodología ISO 27037 para analizar documentos, detectar contenido generado por IA y emitir informes periciales válidos en sede judicial. Primera consulta gratuita por videollamada.

Más información

Preguntas frecuentes

¿Es delito presentar sentencias falsas generadas por IA en un juicio?

La presentación de citas jurisprudenciales falsas generadas por IA puede constituir una infracción de la buena fe procesal (artículos 247 de la Ley de Enjuiciamiento Civil y 11 de la LOPJ), sancionable con multas procesales. En casos más graves —si se acredita dolo y la intención de engañar al tribunal— podría dar lugar a responsabilidad disciplinaria ante el Colegio de Abogados e incluso responsabilidad penal. En el caso del TSJC de Canarias, la multa fue de 420 euros y se derivó el caso al Colegio de Abogados para valorar un expediente disciplinario. La diferencia entre una multa procesal y una sanción disciplinaria o penal depende de si el profesional actuó con negligencia (no verificó) o con intencionalidad (sabía que eran falsas).

¿Cómo puedo verificar si una sentencia citada en un escrito es real?

El Centro de Documentación Judicial (Cendoj) ofrece acceso universal y gratuito a la jurisprudencia española. Cualquier profesional puede buscar por número de sentencia, fecha, tribunal, ponente o identificador ECLI. Además, bases de datos como Aranzadi, vLex o La Ley permiten verificaciones cruzadas. Si una sentencia no aparece en Cendoj ni en ninguna base de datos jurídica comercial, es muy probable que sea una alucinación generada por IA. Para verificaciones periciales con valor probatorio, un perito informático puede documentar formalmente la inexistencia de las citas mediante informe pericial.

¿La Instrucción 2/2026 del CGPJ prohíbe que los abogados usen ChatGPT?

No directamente. La Instrucción 2/2026 regula el uso de IA por jueces y magistrados en la actividad jurisdiccional, no por abogados. Sin embargo, establece principios rectores —como la supervisión humana efectiva, la no sustitución y la responsabilidad del profesional— que el TSJC de Canarias ha aplicado analógicamente a la conducta del abogado sancionado. Los colegios de abogados aún no han emitido una normativa específica sobre el uso de IA en la práctica forense, pero el principio de diligencia profesional del artículo 42 del Estatuto General de la Abogacía Española ya obliga a verificar la información que se presenta ante los tribunales (BOE, Instrucción 2/2026).

¿Puede un perito informático detectar si un documento fue escrito por IA?

Sí, mediante una combinación de técnicas que incluyen análisis estilométrico (patrones lingüísticos), verificación factual de citas y datos, análisis de metadatos del documento, y uso de herramientas especializadas de detección de contenido sintético. Sin embargo, es importante señalar que la detección no es infalible: las herramientas automatizadas como GPTZero o Turnitin tienen tasas de precisión en torno al 70%, y la escritura formal o técnica es especialmente difícil de clasificar. Por eso, la verificación factual —comprobar que los datos, citas y referencias existen realmente— sigue siendo el método más fiable. Un informe pericial documentado con metodología ISO 27037 tiene valor probatorio pleno en sede judicial.

¿Cuánto cuesta un peritaje de verificación de documentos generados por IA?

El coste de un peritaje de autenticidad documental depende de la complejidad del caso: número de documentos a analizar, tipo de verificaciones necesarias (jurisprudenciales, factuales, estilométricas) y urgencia. Para una consulta inicial gratuita donde evaluar el caso y presupuestar, puedes contactar a través de la página de contacto o llamar al 624 09 37 96. Como referencia, la multa de 420 euros impuesta al abogado por el TSJC ya supera el coste de una verificación pericial preventiva que habría evitado toda la situación.

Referencias y fuentes

  1. El Español (13 Feb 2026). “Multa de 420 euros a un abogado por citar en un escrito 48 sentencias falsas generadas por Inteligencia Artificial”. https://www.elespanol.com/espana/tribunales/20260213/multa-euros-abogado-citar-escrito-sentencias-falsas-generadas-inteligencia-artificial/1003744129079_0.html

  2. El Diario (13 Feb 2026). “Multa a un abogado en Tenerife que citó hasta 48 sentencias falsas sugeridas por IA”. https://www.eldiario.es/canariasahora/tribunales/multa-abogado-tenerife-cito-48-sentencias-falsas-sugeridas-ia_1_12988784.html

  3. Infobae (13 Feb 2026). “Multado con 420 euros un abogado que usó 48 citas de sentencias falsas generadas por IA”. https://www.infobae.com/espana/2026/02/13/multado-con-420-euros-un-abogado-que-uso-48-citas-de-sentencias-falsas-generadas-por-ia/

  4. El Independiente (13 Feb 2026). “Multa al abogado que usó la IA para 48 citas de jurisprudencia falsas en un recurso”. https://www.elindependiente.com/espana/2026/02/13/multa-al-abogado-que-uso-la-ia-para-48-citas-de-jurisprudencia-falsas-en-un-recurso/

  5. Diario de Avisos (13 Feb 2026). “Un abogado de Tenerife usa IA para un recurso y el TSJC descubre 48 citas de sentencias inventadas”. https://diariodeavisos.elespanol.com/2026/02/abogado-tenerife-multa-ia-citas-falsas/

  6. BOE (30 Ene 2026). “Instrucción 2/2026, de 28 de enero, del CGPJ, sobre la utilización de sistemas de inteligencia artificial en el ejercicio de la actividad jurisdiccional”. https://www.boe.es/diario_boe/txt.php?id=BOE-A-2026-2205

  7. CNN (2023). “Lawyer apologizes for fake court citations from ChatGPT”. https://www.cnn.com/2023/05/27/business/chat-gpt-avianca-mata-lawyers

  8. Spellbook Legal (2026). “Lawyer Fined for Using AI-Generated Legal Documents with Fake Citations”. https://www.spellbook.legal/learn/lawyer-fined-using-ai-legal-fake-citations

  9. Nerds.ai (2026). “Alucinaciones en LLMs: qué son, por qué ocurren y cómo mitigarlas”. https://www.nerds.ai/en/blog/alucinaciones-en-llms-que-son-por-que-ocurren-y-como-mitigarlas-en-produccion

  10. ICALPA (2026). “Alucinaciones y omisiones en textos generados por IA: cuando la IA nos miente”. https://www.icalpa.es/colegiados/actualidad/alucinaciones-y-omisiones-en-textos-generados-por-ia-cuando-la-ia-nos-miente

  11. LexLatin (2026). “Problemas legales por el uso de ChatGPT: las alucinaciones de la inteligencia artificial dejan en evidencia a 116 abogados”. https://lexlatin.com/gestion-lexlatin/problemas-legales-chatgpt-alucinaciones-inteligencia-artificial-abogados

  12. Iberley (2026). “El CGPJ aprueba la Instrucción 2/2026 sobre uso de IA en la actividad judicial”. https://www.iberley.es/noticias/nueva-instruccion-cgpj-uso-ia-actividad-judicial-36001

Preguntas relacionadas

¿Qué herramientas de IA jurídica especializada existen en España?

En el mercado español existen plataformas de IA diseñadas específicamente para profesionales del Derecho, como vLex (con su asistente Vincent AI), Aranzadi-Westlaw (con IA integrada), La Ley Digital y Tirant lo Blanch. Estas herramientas, a diferencia de ChatGPT o Gemini, trabajan sobre bases de datos de jurisprudencia real verificada y enlaza cada cita a la fuente original. Su coste oscila entre 50 y 150 euros al mes, una inversión insignificante comparada con el riesgo de una multa o sanción disciplinaria.

¿Pueden los jueces usar ChatGPT en España tras la Instrucción 2/2026?

La Instrucción 2/2026 del CGPJ establece que los jueces solo pueden utilizar sistemas de IA facilitados por las administraciones competentes o por el propio CGPJ, debidamente auditados. Sin embargo, permite el uso de sistemas no autorizados para “preparación a partir de fuentes abiertas”, siempre que no se introduzcan datos judiciales. En ningún caso un juez puede incorporar contenido generado por IA en resoluciones judiciales sin revisión personal completa y crítica. Análisis completo de la Instrucción 2/2026.

¿Qué consecuencias disciplinarias puede enfrentar un abogado que use IA sin verificar?

Las consecuencias van en escala: (1) multa procesal por infracción de la buena fe procesal (artículo 247 LEC), como los 420 euros del caso TSJC; (2) expediente disciplinario del Colegio de Abogados, que puede acarrear desde apercibimiento hasta suspensión del ejercicio; (3) responsabilidad civil frente al cliente por negligencia profesional; y (4) en casos extremos con dolo acreditado, responsabilidad penal. El Estatuto General de la Abogacía Española obliga al abogado a actuar con diligencia y a no inducir a error al tribunal.

¿Cuántos abogados han sido sancionados en el mundo por usar IA?

Según la base de datos de alucinaciones de IA en procedimientos judiciales mantenida por el investigador Damien Charlotin, se documentan decenas de casos desde 2023 en múltiples jurisdicciones: Estados Unidos (Mata v. Avianca, caso Bednar en Utah, caso Walmart en Wyoming, caso California con multa de 31.000 USD), España (TSJC Canarias, 2026) y otros países. El LexLatin reporta que al menos 116 abogados han sido afectados globalmente. La tendencia es claramente ascendente y los tribunales están endureciendo las sanciones (Damien Charlotin, AI Hallucination Cases Database).

¿Cómo afecta este caso a la admisibilidad de pruebas digitales en España?

El caso refuerza la necesidad de verificación pericial de toda prueba digital presentada ante los tribunales. Si un profesional del Derecho puede presentar inadvertidamente 48 citas falsas, los tribunales están tomando conciencia de que cualquier documento digital puede contener contenido fabricado por IA. Esto eleva el estándar de autenticidad de la prueba digital y aumenta la demanda de informes periciales que certifiquen la integridad, autenticidad y no manipulación de las evidencias electrónicas.


Sobre el autor: Jonathan Izquierdo es perito informático forense con más de 10 años de experiencia en análisis forense digital, investigación de ciberincidentes y auditoría de sistemas. Ex-CTO y 5x AWS Certified, aplica metodología ISO 27037 en todas sus investigaciones periciales.

Última actualización: 15 de febrero de 2026.

Sobre el autor

Jonathan Izquierdo es perito informático forense especializado en Legal con conocimientos en blockchain, criptomonedas, AWS Cloud, desarrollo de software y seguridad. Experiencia tecnológica de más de 20 años al servicio de la justicia digital, liderando equipos de desarrollo de software en ámbitos internacionales.

Ver más sobre mí

Volver al Blog

Posts Relacionados

Ver Todos los Posts »
Jonathan Izquierdo

Jonathan Izquierdo · Perito Forense

+15 años experiencia · AWS Certified

WhatsApp