Shadow AI
Uso no autorizado ni supervisado de herramientas de inteligencia artificial (ChatGPT, Claude, Gemini, Copilot y otros modelos generativos) por parte de empleados en el entorno corporativo, exponiendo datos sensibles, propiedad intelectual y secretos comerciales a terceros sin conocimiento ni control del departamento de TI o del CISO.
¿Qué es Shadow AI?
El término Shadow AI (IA en la sombra) describe el uso no autorizado, no supervisado y no gobernado de herramientas de inteligencia artificial generativa por parte de empleados dentro del entorno corporativo. Incluye servicios como ChatGPT, Claude, Gemini, Microsoft Copilot, Perplexity, Midjourney y cualquier modelo de lenguaje o IA generativa al que los trabajadores accedan sin que la empresa lo haya aprobado formalmente ni haya evaluado sus riesgos.
El concepto es una evolución natural del ya conocido Shadow IT — el uso de software, hardware y servicios en la nube sin aprobación del departamento de tecnología — pero con implicaciones significativamente mayores debido a la naturaleza de la IA generativa: cada prompt enviado a un modelo externo puede contener datos corporativos sensibles que se transmiten a servidores de terceros, en muchas ocasiones fuera de la Unión Europea.
Magnitud del problema
Según estudios de Gartner (2025) y Cyberhaven (2024), más del 75% de los empleados en grandes empresas utilizan herramientas de IA generativa en su trabajo, y al menos el 40% lo hace sin conocimiento ni aprobación de su departamento de TI. El 11% de los datos introducidos en ChatGPT contiene información confidencial de la empresa.
Origen y evolución del Shadow AI
De Shadow IT a Shadow AI
El Shadow IT lleva décadas siendo un dolor de cabeza para los equipos de seguridad. Los empleados, buscando productividad, adoptan Dropbox, Google Drive personal, WhatsApp o aplicaciones SaaS sin pasar por los controles corporativos. Con la llegada de la IA generativa a finales de 2022 (lanzamiento público de ChatGPT el 30 de noviembre de 2022), esta tendencia se aceleró exponencialmente.
| Fase | Período | Característica |
|---|---|---|
| Shadow IT clásico | 2005-2015 | USB, email personal, Dropbox |
| Shadow SaaS | 2015-2022 | Trello, Slack personal, apps no aprobadas |
| Shadow AI | 2022-presente | ChatGPT, Claude, Gemini, Copilot, Midjourney |
Hitos clave
| Fecha | Evento | Impacto |
|---|---|---|
| Nov 2022 | Lanzamiento de ChatGPT | 100M usuarios en 2 meses; adopción masiva corporativa |
| Mar 2023 | Samsung prohíbe ChatGPT | Primer caso público de filtración de código propietario |
| May 2023 | Italia bloquea ChatGPT | GPDP investiga transferencias de datos a EE.UU. |
| Jun 2023 | OpenAI lanza ChatGPT Enterprise | Respuesta al problema de Shadow AI con controles corporativos |
| Feb 2024 | NIST AI RMF 1.0 publicado | Marco de gestión de riesgos de IA para empresas |
| Ago 2024 | AI Act entra en vigor | Marco legal europeo obligatorio con sanciones |
| Feb 2025 | Prohibiciones del AI Act activas | Primeras restricciones ejecutables en la UE |
| 2025-2026 | Proliferación de herramientas de IA | +300 nuevas herramientas IA/mes; imposible bloquear manualmente |
Categorías de Shadow AI
Por tipo de herramienta
| Categoría | Ejemplos | Riesgo principal |
|---|---|---|
| Chatbots generalistas | ChatGPT, Claude, Gemini, Perplexity | Datos en prompts enviados a servidores externos |
| Asistentes de código | GitHub Copilot personal, Cursor, Tabnine free | Código fuente propietario como contexto |
| Generación de imágenes | Midjourney, DALL-E, Stable Diffusion online | Propiedad intelectual de diseños, marcas |
| Extensiones de navegador | Extensiones IA para Chrome/Firefox | Acceso a cookies, historial, contenido de páginas |
| Apps móviles | Apps de IA en dispositivos BYOD | Datos corporativos en dispositivos no gestionados |
| Plugins y APIs | Integraciones no oficiales con IA | Tokens de API, credenciales en texto plano |
| IA integrada en SaaS | Funciones IA en Notion, Canva, Grammarly | Datos procesados por subprocesadores no evaluados |
Por nivel de riesgo
Clasificación de riesgo Shadow AI
No todo uso de Shadow AI tiene el mismo impacto. Es fundamental categorizar para priorizar la respuesta.
| Nivel | Descripción | Ejemplo |
|---|---|---|
| Crítico | Datos personales sensibles o secretos comerciales | Subir contratos con datos de clientes a ChatGPT |
| Alto | Código fuente propietario o información financiera | Usar Copilot personal con el repositorio de la empresa |
| Medio | Información interna no clasificada | Pedir a Gemini que resuma un acta de reunión |
| Bajo | Uso personal sin datos corporativos | Preguntar a ChatGPT cómo formatear un CSV genérico |
Vectores de exposición de datos
¿Qué datos se filtran a través de Shadow AI?
Según análisis de Cyberhaven Labs y Netskope (2024-2025), los tipos de datos más frecuentemente introducidos en herramientas de IA generativa son:
| Tipo de dato | Porcentaje | Ejemplo real |
|---|---|---|
| Código fuente | 31% | Empleados que pegan funciones completas para depurar |
| Datos de clientes | 17% | Listas de correos, direcciones, historiales de compra |
| Documentos internos | 15% | Actas de reuniones, planes estratégicos |
| Datos financieros | 12% | Presupuestos, facturas, previsiones |
| Datos personales (RGPD) | 9% | DNI, direcciones, datos de salud de empleados |
| Credenciales | 7% | API keys, contraseñas en snippets de código |
| Propiedad intelectual | 5% | Diseños, patentes en borrador, fórmulas |
| Otros | 4% | Comunicaciones legales privilegiadas |
Mecanismos de exposición
Los datos llegan a servicios de IA generativa a través de múltiples vectores:
1. Prompts directos en el navegador
El empleado accede a chat.openai.com, claude.ai o gemini.google.com y escribe o pega contenido directamente. Este es el vector más común y el más visible para los sistemas de monitorización.
Ejemplo de prompt peligroso:
"Revisa este contrato de confidencialidad entre [Empresa X] y [Cliente Y]:
[pega el contrato completo con datos personales y cláusulas confidenciales]"2. Carga de archivos
Muchos modelos permiten subir archivos (PDF, Excel, imágenes, código). Un empleado puede subir un informe financiero completo o una base de datos de clientes para “analizarla”.
3. Extensiones de navegador con IA
Las extensiones tipo “AI summarizer”, “AI writing assistant” o “AI translator” pueden capturar todo el contenido de las páginas visitadas — incluyendo el correo corporativo, el CRM y la intranet.
4. APIs no oficiales
Desarrolladores que usan la API de OpenAI u otros proveedores con sus cuentas personales, enviando código o datos de producción como contexto para los modelos.
5. Aplicaciones móviles en dispositivos BYOD
En empresas con políticas Bring Your Own Device, las apps de IA instaladas en el teléfono personal del empleado pueden acceder a datos corporativos almacenados en el mismo dispositivo.
6. IA embebida en herramientas SaaS
Herramientas como Notion AI, Canva Magic Write o Grammarly procesan datos del usuario mediante modelos de IA de terceros, creando una capa adicional de subprocesadores de datos que la empresa no ha evaluado.
El caso Samsung: anatomía de una filtración por Shadow AI
Los hechos
En marzo-abril de 2023, Samsung Semiconductor experimentó al menos tres incidentes documentados de filtración de datos a través de ChatGPT en un período inferior a 20 días:
Incidente 1 — Código fuente de semiconductores: Un ingeniero pegó código fuente propietario del proceso de fabricación de chips en ChatGPT para solicitar ayuda con la optimización. El código contenía información sobre el proceso de producción de Samsung, considerado secreto industrial de máximo nivel.
Incidente 2 — Datos de rendimiento de equipos: Otro empleado introdujo datos de medición de rendimiento y diagnóstico de equipos de fabricación para que ChatGPT ayudara a identificar patrones de fallos. Estos datos revelaban capacidades técnicas confidenciales.
Incidente 3 — Acta de reunión: Un trabajador pidió a ChatGPT que resumiera y optimizara el contenido de una reunión interna, proporcionando la transcripción completa que incluía decisiones estratégicas de la división de semiconductores.
Consecuencias
| Acción | Detalle |
|---|---|
| Prohibición inmediata | Samsung prohibió ChatGPT, Bing Chat y Google Bard en todos los dispositivos corporativos |
| Límite de prompt | Se estableció un límite de 1.024 bytes por consulta mientras se desarrollaba una solución interna |
| Desarrollo interno | Samsung aceleró el desarrollo de su propia herramienta de IA generativa interna |
| Amenaza disciplinaria | La empresa advirtió que futuras violaciones podrían resultar en despido |
| Investigación interna | Se auditaron los logs de red para identificar otros posibles usos no autorizados |
Lección clave del caso Samsung
Samsung descubrió los incidentes únicamente porque los empleados reportaron problemas técnicos relacionados con sus consultas en ChatGPT. Sin un sistema de monitorización proactivo (DLP, CASB o proxy con inspección SSL), la mayoría de filtraciones por Shadow AI pasan desapercibidas durante meses o nunca se detectan.
Otros casos documentados
| Empresa/Sector | Año | Tipo de filtración | Consecuencia |
|---|---|---|---|
| Samsung Semiconductor | 2023 | Código fuente, datos fabricación | Prohibición total de IA generativa |
| JPMorgan Chase | 2023 | Comunicaciones con clientes | Restricción de ChatGPT |
| Amazon | 2023 | Código similar al interno en respuestas de ChatGPT | Advertencia interna a empleados |
| Apple | 2023 | Código fuente y datos internos | Prohibición preventiva |
| Verizon | 2023 | Datos corporativos no especificados | Bloqueo de ChatGPT en red corporativa |
| Abogados de Nueva York | 2023 | Citación de casos judiciales inventados | Sanciones por el tribunal |
| Empresa sanitaria (España) | 2024 | Datos de pacientes en prompts de IA | Investigación AEPD |
| Banco europeo | 2025 | Datos financieros de clientes en Claude | Notificación de brecha RGPD |
Riesgos del Shadow AI
1. Fuga de datos y propiedad intelectual
El riesgo más inmediato es que los datos introducidos en servicios de IA generativa pueden ser:
- Almacenados en los servidores del proveedor (OpenAI, Anthropic, Google)
- Utilizados para entrenamiento del modelo (en planes gratuitos o según los ToS)
- Accesibles para empleados del proveedor durante revisiones de calidad
- Expuestos en brechas de seguridad del propio proveedor (como la brecha de ChatGPT en marzo 2023 que expuso historiales de chat de otros usuarios)
Datos de entrenamiento
En los planes gratuitos y de consumo de la mayoría de proveedores de IA, los datos enviados pueden utilizarse para mejorar los modelos. Esto significa que fragmentos de código fuente, datos de clientes o información financiera confidencial podrían reaparecer — potencialmente descontextualizados — en respuestas a otros usuarios. Los planes empresariales (ChatGPT Enterprise, Claude for Business) generalmente excluyen los datos del entrenamiento, pero el Shadow AI por definición no usa estos planes corporativos.
2. Incumplimiento del RGPD
La introducción de datos personales en herramientas de IA generativa plantea múltiples problemas bajo el Reglamento General de Protección de Datos:
| Aspecto RGPD | Problema |
|---|---|
| Base legal (art. 6) | No hay base legal para transmitir datos personales a un proveedor de IA no evaluado |
| Transferencias internacionales (arts. 44-49) | Servidores de OpenAI en EE.UU.; post-Schrems II se requieren salvaguardas adicionales |
| Evaluación de impacto (art. 35) | Uso de IA con datos personales requiere DPIA previa |
| Registro de actividades (art. 30) | El Shadow AI no queda registrado como actividad de tratamiento |
| Principio de minimización (art. 5.1.c) | Se envían datos excesivos e innecesarios al proveedor |
| Derechos de los interesados (arts. 15-22) | Imposible garantizar el derecho de supresión si los datos ya fueron a OpenAI |
| Notificación de brechas (art. 33) | Si hay filtración, la empresa tiene 72 horas para notificar a la AEPD |
| Encargado del tratamiento (art. 28) | El proveedor de IA actúa como encargado sin contrato formalizado |
Sanciones potenciales:
- Hasta 20 millones de euros o el 4% de la facturación global anual (lo que sea mayor) por infracciones graves del RGPD
- La AEPD ha impuesto multas significativas en España: CaixaBank (6,4M€, 2021), Vodafone España (8,15M€, 2021)
- En el contexto de Shadow AI, la responsabilidad recae sobre la empresa como responsable del tratamiento, no sobre el empleado individual
3. Incumplimiento del AI Act
Con la entrada en vigor escalonada del Reglamento (UE) 2024/1689 (AI Act), el Shadow AI genera riesgos regulatorios adicionales:
- Si un empleado usa IA para tomar decisiones que afectan a personas (RRHH, créditos, seguros), puede estar utilizando un sistema de alto riesgo sin las obligaciones de transparencia, supervisión humana y documentación que exige el AI Act
- Las obligaciones de transparencia del AI Act (informar cuando se interactúa con IA, etiquetar deepfakes) no se cumplen si el uso de IA no está gobernado
- Las sanciones del AI Act alcanzan el 7% de la facturación global anual o 35 millones de euros
4. Pérdida de propiedad intelectual
| Riesgo IP | Descripción |
|---|---|
| Secreto comercial | La revelación voluntaria de un secreto comercial puede extinguir la protección legal (Ley 1/2019 de Secretos Empresariales) |
| Código fuente | El código introducido en IA puede perder protección como obra original si se considera divulgado |
| Patentes en trámite | La divulgación anticipada de invenciones puede invalidar solicitudes de patente |
| Datos de formación | Información utilizada para entrenar modelos de IA puede reaparecer en respuestas a competidores |
5. Riesgos de precisión y fiabilidad
El Shadow AI no solo expone datos — también introduce riesgos operativos:
- Alucinaciones: Los modelos de lenguaje generan información falsa con apariencia veraz
- Código vulnerable: Código generado por IA puede contener vulnerabilidades de seguridad (OWASP Top 10, inyecciones SQL, XSS)
- Decisiones sesgadas: Modelos de IA pueden producir resultados discriminatorios que expongan a la empresa a demandas
- Dependencia técnica: Los empleados pueden generar dependencia de herramientas de IA sin que la empresa lo sepa, creando riesgo operativo si el servicio deja de estar disponible
- Citaciones falsas: Como en el caso de los abogados de Nueva York que citaron sentencias inexistentes generadas por ChatGPT ante un tribunal federal
6. Riesgo reputacional
Una filtración de datos de clientes a través de Shadow AI puede resultar en:
- Pérdida de confianza de clientes y socios
- Cobertura mediática negativa
- Investigaciones regulatorias
- Demandas civiles por daños y perjuicios
- Pérdida de certificaciones (ISO 27001, ENS, SOC 2)
Detección de Shadow AI: métodos técnicos
Arquitectura de detección
Una estrategia efectiva de detección de Shadow AI combina múltiples capas:
┌─────────────────────────────────────────────────────┐
│ Capa 1: Red │
│ Proxy/Firewall → DNS → NetFlow → IDS/IPS │
├─────────────────────────────────────────────────────┤
│ Capa 2: Endpoint │
│ EDR → DLP endpoint → Browser forensics │
├─────────────────────────────────────────────────────┤
│ Capa 3: Cloud │
│ CASB → SaaS Discovery → API Gateway │
├─────────────────────────────────────────────────────┤
│ Capa 4: Datos │
│ DLP → Clasificación datos → Monitorización BBDD │
├─────────────────────────────────────────────────────┤
│ Capa 5: Comportamiento │
│ UEBA → Análisis de patrones → Anomalías │
└─────────────────────────────────────────────────────┘1. Monitorización de red (Proxy y Firewall)
La primera línea de detección es monitorizar el tráfico de red hacia dominios conocidos de servicios de IA:
Dominios a monitorizar:
# Proveedores principales de IA generativa
chat.openai.com / api.openai.com / platform.openai.com
claude.ai / api.anthropic.com
gemini.google.com / generativelanguage.googleapis.com
copilot.microsoft.com
perplexity.ai
midjourney.com
huggingface.co / api-inference.huggingface.co
replicate.com
together.ai
groq.com
# Herramientas con IA embebida
notion.so (Notion AI)
grammarly.com (Grammarly AI)
canva.com (Canva Magic)
jasper.ai
copy.ai
writesonic.comConfiguración de proxy (ejemplo Squid/ZScaler):
# Bloqueo o alerta por categoría "AI/ML Services"
# Configurar SSL inspection para detectar tráfico cifrado
# Registrar: usuario, timestamp, URL, bytes enviados, bytes recibidos
# Alertar cuando bytes enviados > umbral (posible carga de archivo)2. DLP (Data Loss Prevention)
Los sistemas DLP pueden configurarse para detectar datos sensibles que se envían a servicios de IA:
| Regla DLP | Descripción | Acción |
|---|---|---|
| Datos personales a dominios IA | Detecta DNI, email, teléfono en tráfico a openai.com | Bloquear + alertar |
| Código fuente | Detecta patrones de código (import, function, class) | Alertar + registrar |
| Documentos clasificados | Detecta metadatos de documentos “Confidencial” | Bloquear + alertar |
| Datos financieros | Detecta patrones de IBAN, tarjetas, importes | Bloquear + alertar |
| Volumen anómalo | Detecta envío de >10KB en un solo prompt | Alertar + registrar |
Limitaciones del DLP con IA
El DLP tradicional tiene limitaciones frente al Shadow AI: el tráfico está cifrado (TLS 1.3), los empleados pueden usar datos móviles para evitar el proxy, y las extensiones de navegador pueden ofuscar el destino real. Es necesario combinar DLP con otras capas de detección.
3. CASB (Cloud Access Security Broker)
Los CASB son esenciales para descubrir y gestionar el uso de SaaS no aprobados, incluyendo servicios de IA:
Funcionalidades relevantes:
- Shadow IT Discovery: Identificar automáticamente todos los servicios SaaS utilizados en la organización
- Inline Protection: Inspeccionar y controlar el tráfico en tiempo real hacia servicios de IA
- API Protection: Detectar integraciones no autorizadas con APIs de IA
- DLP en la nube: Aplicar políticas de protección de datos en el tráfico hacia servicios cloud
- Análisis de riesgo: Evaluar y clasificar el riesgo de cada servicio SaaS descubierto
Proveedores de CASB recomendados:
| CASB | Detección IA | Precio |
|---|---|---|
| Netskope | Categoría específica “Generative AI” con 700+ apps clasificadas | Enterprise |
| Zscaler | Módulo AI/ML Discovery integrado | Enterprise |
| Microsoft Defender for Cloud Apps | Detección de apps IA con Microsoft 365 | Incluido en E5 |
| Palo Alto Prisma Access | SaaS Security con categoría IA | Enterprise |
4. Análisis de DNS
El análisis de consultas DNS puede revelar accesos a servicios de IA incluso cuando el tráfico web está cifrado:
# Consultas DNS a monitorizar (ejemplo Pi-hole / Infoblox / Umbrella)
# Registrar todas las consultas a dominios de IA
# Correlacionar con usuario (autenticación DHCP/AD)
# Alertar sobre patrones anómalos (frecuencia, horario)
# Detectar DNS-over-HTTPS que evite el filtrado DNS corporativo5. Monitorización de endpoints (EDR)
Las soluciones EDR (Endpoint Detection and Response) pueden detectar:
- Instalación de aplicaciones de IA de escritorio (Claude Desktop, ChatGPT Desktop)
- Extensiones de navegador relacionadas con IA
- Procesos de IA local (Ollama, LM Studio, llama.cpp)
- Uso del portapapeles con volúmenes anómalos (copiar-pegar grandes fragmentos de código)
- Acceso a archivos sensibles seguido de acceso a navegador con destino a IA
6. UEBA (User Entity Behavior Analytics)
El análisis de comportamiento del usuario es la capa más sofisticada:
| Indicador comportamental | Qué detecta |
|---|---|
| Aumento de tráfico web cifrado | Uso intensivo de servicios de IA |
| Copiar-pegar grandes volúmenes | Transferencia de datos al navegador |
| Acceso fuera de horario a servicios IA | Uso personal con datos corporativos |
| Descarga masiva seguida de upload | Exfiltración a través de IA |
| Patrones repetitivos de consulta | Automatización de envío de datos a IA |
Análisis forense de incidentes de Shadow AI
Metodología de investigación
Cuando una empresa sospecha o confirma un incidente de Shadow AI, el perito informático forense debe seguir una metodología rigurosa:
Identificación y preservación de evidencias: Antes de cualquier análisis, preservar la evidencia digital con cadena de custodia. Clonar discos duros, capturar memoria RAM, exportar logs de red y proxy. Documentar todo con timestamps y hashes criptográficos (SHA-256).
Análisis de tráfico de red: Examinar logs del proxy corporativo, firewall y DNS para identificar conexiones a dominios de servicios de IA. Cuantificar el volumen de datos enviados (bytes de upload) y la frecuencia de acceso. Identificar los usuarios implicados.
Análisis de endpoint: En el equipo del empleado, examinar el historial del navegador (Chrome, Firefox, Edge), las cookies de sesión, el localStorage de las páginas de IA visitadas, las extensiones instaladas, y el historial del portapapeles si está disponible.
Recuperación de prompts y respuestas: Si el empleado utilizó la interfaz web de ChatGPT u otro servicio, es posible recuperar los prompts y respuestas del localStorage del navegador, del caché HTTP, o de las bases de datos SQLite del navegador. En Chrome, la base de datos IndexedDB puede contener conversaciones completas.
Análisis de datos expuestos: Identificar qué datos específicos fueron introducidos en la herramienta de IA. Clasificar los datos según sensibilidad (datos personales RGPD, secretos comerciales, código fuente, información financiera). Evaluar el impacto potencial de la exposición.
Correlación temporal: Establecer una línea de tiempo precisa que relacione el acceso a archivos sensibles con el envío de datos a servicios de IA. Esto es fundamental para determinar si la filtración fue intencionada o negligente.
Informe pericial y recomendaciones: Documentar todos los hallazgos en un informe pericial que pueda servir como prueba en procedimientos disciplinarios, judiciales o ante la AEPD. Incluir recomendaciones de remediación y prevención.
Artefactos forenses clave
En el navegador
| Artefacto | Ubicación | Información |
|---|---|---|
| Historial de navegación | ~/.config/google-chrome/Default/History (SQLite) | URLs visitadas con timestamps |
| Cookies | ~/.config/google-chrome/Default/Cookies (SQLite) | Sesiones activas en servicios de IA |
| LocalStorage | ~/.config/google-chrome/Default/Local Storage/leveldb/ | Datos almacenados por las páginas web |
| IndexedDB | ~/.config/google-chrome/Default/IndexedDB/ | Bases de datos de aplicaciones web (conversaciones) |
| Cache | ~/.config/google-chrome/Default/Cache/ | Contenido cacheado de páginas visitadas |
| Session Storage | En memoria (volátil) | Datos de sesión temporales |
| Extensiones | ~/.config/google-chrome/Default/Extensions/ | Extensiones de IA instaladas |
| Downloads | ~/.config/google-chrome/Default/History | Archivos descargados desde servicios de IA |
En el sistema operativo
| Artefacto | Sistema | Información |
|---|---|---|
| Registro de aplicaciones | Windows Event Log | Instalación de apps de IA |
| Historial del portapapeles | Windows Clipboard History | Datos copiados (si está habilitado) |
| Prefetch/Superfetch | Windows | Ejecuciones de aplicaciones de IA |
| Journald / syslog | Linux | Registro de procesos y conexiones |
| Unified Log | macOS | Actividad del sistema y aplicaciones |
| Conexiones de red | Netstat / ss | Conexiones activas a servicios de IA |
En la red corporativa
| Artefacto | Fuente | Información |
|---|---|---|
| Logs de proxy | Squid, ZScaler, BlueCoat | URLs, usuarios, bytes enviados/recibidos |
| Logs de firewall | Palo Alto, FortiGate, pfSense | Conexiones permitidas/bloqueadas |
| Logs DNS | Infoblox, Pi-hole, Umbrella | Consultas de resolución de nombres |
| Logs DHCP | Servidor DHCP | Correlación IP-usuario-timestamp |
| NetFlow/sFlow | Router/Switch | Volumen y patrones de tráfico |
| Logs DLP | Symantec, Forcepoint, Digital Guardian | Alertas de fuga de datos |
| Logs CASB | Netskope, Zscaler, McAfee | Uso de SaaS no aprobados |
Técnicas avanzadas de análisis
Recuperación de conversaciones de ChatGPT
Las conversaciones de ChatGPT se almacenan en el lado del servidor (requieren orden judicial para obtenerlas de OpenAI), pero también dejan rastros locales:
# IndexedDB de ChatGPT en Chrome
# Ruta: ~/.config/google-chrome/Default/IndexedDB/
# https_chat.openai.com_0.indexeddb.leveldb/
# El contenido puede incluir:
# - IDs de conversación
# - Prompts enviados
# - Respuestas recibidas
# - Timestamps
# - Modelo utilizado (GPT-3.5, GPT-4, etc.)Análisis de tráfico TLS
Aunque el tráfico está cifrado, el análisis de metadatos puede revelar información valiosa:
- Tamaño de los paquetes de upload: Un prompt largo o la carga de un archivo genera paquetes de upload significativamente mayores que una consulta simple
- Frecuencia de conexiones: Patrones regulares de conexión a APIs de IA
- SNI (Server Name Indication): El nombre del servidor destino es visible incluso en TLS (salvo que se use ECH)
- JA3/JA3S fingerprinting: Identificar el cliente utilizado para conectarse a servicios de IA
Análisis de memoria RAM
En el análisis de memoria volátil (RAM) del equipo del empleado, se pueden encontrar:
- Prompts y respuestas en la memoria del proceso del navegador
- Tokens de autenticación de servicios de IA
- Contenido del portapapeles
- Datos de extensiones de navegador en ejecución
# Con Volatility 3 (framework de análisis de memoria)
# Buscar strings relacionados con servicios de IA
# Identificar procesos de navegador con conexiones a dominios de IA
# Extraer tokens de sesión para acceder al historial del usuarioGobernanza de IA: políticas y controles
Framework de gobernanza de IA empresarial
Para abordar el Shadow AI de forma efectiva, las empresas necesitan un framework integral:
┌───────────────────────────────────────────────────────┐
│ Gobernanza de IA Empresarial │
├───────────────────────────────────────────────────────┤
│ │
│ ┌─────────────┐ ┌─────────────┐ ┌─────────────┐ │
│ │ Política │ │ Tecnología │ │ Personas │ │
│ │ de uso IA │ │ de control │ │ y cultura │ │
│ ├─────────────┤ ├─────────────┤ ├─────────────┤ │
│ │ AUP de IA │ │ CASB + DLP │ │ Formación │ │
│ │ Clasificación│ │ Proxy/FW │ │ Awareness │ │
│ │ datos │ │ EDR │ │ Champions │ │
│ │ Procesos │ │ UEBA │ │ Incentivos │ │
│ │ aprobación │ │ API Gateway │ │ Reporting │ │
│ │ Inventario │ │ SSO/IdP │ │ anónimo │ │
│ └─────────────┘ └─────────────┘ └─────────────┘ │
│ │
│ ┌─────────────┐ ┌─────────────┐ ┌─────────────┐ │
│ │ Cumplimiento│ │ Evaluación │ │ Respuesta │ │
│ │ normativo │ │ de riesgos │ │ incidentes │ │
│ ├─────────────┤ ├─────────────┤ ├─────────────┤ │
│ │ RGPD │ │ DPIA por │ │ Playbook │ │
│ │ AI Act │ │ herramienta │ │ Shadow AI │ │
│ │ ENS │ │ Vendor risk │ │ Contención │ │
│ │ ISO 27001 │ │ assessment │ │ Notificación│ │
│ │ LOPDGDD │ │ Pentesting │ │ AEPD/CISO │ │
│ └─────────────┘ └─────────────┘ └─────────────┘ │
└───────────────────────────────────────────────────────┘Política de uso aceptable de IA (AUP-IA)
Toda empresa debe disponer de una política de uso aceptable de inteligencia artificial. Elementos esenciales:
1. Herramientas aprobadas
| Categoría | Herramienta aprobada | Restricciones |
|---|---|---|
| Chatbot generalista | ChatGPT Enterprise / Azure OpenAI | Solo con cuenta corporativa |
| Asistente de código | GitHub Copilot Business | Solo en repositorios aprobados |
| Generación de texto | Claude for Business | Datos no sensibles únicamente |
| Análisis de datos | Microsoft Copilot (M365) | Datos internos clasificados hasta “interno” |
2. Datos prohibidos en herramientas de IA
- Datos personales (nombres, DNI, email, teléfono, datos de salud)
- Código fuente de producción o con clasificación “confidencial”
- Información financiera no pública
- Estrategias comerciales y planes de negocio
- Comunicaciones legales privilegiadas
- Credenciales, tokens de API, certificados
- Datos de clientes sin consentimiento explícito
3. Proceso de aprobación para nuevas herramientas de IA
Solicitud: El empleado o departamento envía una solicitud al comité de gobernanza de IA especificando la herramienta, el caso de uso y los datos involucrados.
Evaluación de riesgos: El equipo de seguridad realiza una evaluación de riesgos que incluye análisis de los términos de servicio del proveedor, localización de servidores, políticas de retención de datos y cumplimiento normativo.
DPIA: Si la herramienta procesa datos personales, se realiza una Evaluación de Impacto en la Protección de Datos conforme al artículo 35 del RGPD.
Revisión legal: El departamento legal revisa las implicaciones contractuales, de propiedad intelectual y de cumplimiento regulatorio.
Aprobación y configuración: Si se aprueba, el equipo de TI configura la herramienta con los controles técnicos adecuados (SSO, DLP, logging, restricciones de datos).
Formación: Los usuarios reciben formación específica sobre el uso seguro de la herramienta aprobada.
Monitorización continua: El uso se monitoriza de forma continua para detectar desviaciones de la política.
Controles técnicos recomendados
| Control | Implementación | Eficacia |
|---|---|---|
| Proxy con categoría IA | ZScaler, Netskope, Palo Alto | Alta — bloquea o permite con granularidad |
| DLP en endpoint | Microsoft Purview, Symantec, Digital Guardian | Media-Alta — detecta datos sensibles en tránsito |
| CASB | Netskope, McAfee MVISION, Microsoft Defender | Alta — visibilidad completa de SaaS |
| DNS filtering | Umbrella, Infoblox, Pi-hole | Media — fácil de eludir con DoH |
| Browser isolation | Menlo Security, Zscaler Browser | Alta — aísla el navegador de los datos locales |
| SSO obligatorio | Okta, Azure AD, OneLogin | Media — solo controla herramientas aprobadas |
| API Gateway | Kong, Apigee, AWS API Gateway | Alta — controla acceso programático a APIs de IA |
| EDR con políticas de app | CrowdStrike, SentinelOne, Microsoft Defender | Media — detecta instalación de apps no autorizadas |
El enfoque “permitir con control” vs. “bloquear todo”
El bloqueo total no funciona
La experiencia demuestra que prohibir completamente las herramientas de IA generativa es contraproducente. Los empleados buscan alternativas más difíciles de detectar: VPN personales, datos móviles, herramientas de IA menos conocidas, o incluso fotografiar la pantalla con el teléfono. El enfoque recomendado es “permitir con control y gobernanza”.
| Enfoque | Ventajas | Desventajas |
|---|---|---|
| Bloquear todo | Máximo control aparente, simple | Frustración empleados, Shadow AI más oculto, pérdida de productividad |
| Permitir todo | Máxima productividad | Riesgo inaceptable de fuga de datos |
| Permitir con control | Equilibrio productividad-seguridad | Requiere inversión en herramientas y procesos |
Implicaciones legales en España
Marco normativo aplicable
El Shadow AI intersecta con múltiples normativas españolas y europeas:
| Normativa | Relevancia para Shadow AI |
|---|---|
| RGPD (Reglamento UE 2016/679) | Transferencias de datos personales a proveedores de IA |
| LOPDGDD (LO 3/2018) | Desarrollo español del RGPD; derechos digitales laborales |
| AI Act (Reglamento UE 2024/1689) | Obligaciones de transparencia y gestión de riesgos de IA |
| Estatuto de los Trabajadores (RDL 2/2015) | Art. 20.3 (monitorización), Art. 20 bis (derechos digitales) |
| Código Penal (LO 10/1995) | Art. 197 (revelación de secretos), Art. 264 (daños informáticos) |
| Ley 1/2019 de Secretos Empresariales | Protección de secretos comerciales e información reservada |
| ENS (RD 311/2022) | Esquema Nacional de Seguridad para sector público |
| Ley 11/2007 de Propiedad Intelectual | Derechos sobre obras creadas con o por IA |
Artículo 197 del Código Penal y Shadow AI
El artículo 197 CP tipifica el descubrimiento y revelación de secretos:
“El que, para descubrir los secretos o vulnerar la intimidad de otro, sin su consentimiento, se apodere de sus papeles, cartas, mensajes de correo electrónico o cualesquiera otros documentos o efectos personales…”
En el contexto del Shadow AI, un empleado que introduce datos personales de clientes o compañeros en ChatGPT podría estar incurriendo en:
- Art. 197.1 CP: Acceso a datos personales reservados (pena: 1-4 años de prisión)
- Art. 197.2 CP: Acceso a datos en ficheros automatizados (pena: 1-4 años de prisión)
- Art. 197.3 CP: Difusión de datos obtenidos ilícitamente (pena: 2-5 años de prisión)
- Art. 197.4 bis CP: Si se trata de datos especialmente sensibles (agravante)
Ley de Secretos Empresariales
La Ley 1/2019 transpone la Directiva (UE) 2016/943 sobre protección de secretos comerciales. Para que información se considere “secreto empresarial”, debe cumplir tres requisitos:
- Ser secreta (no generalmente conocida ni fácilmente accesible)
- Tener valor comercial por ser secreta
- Estar sujeta a medidas razonables de protección
Pérdida de protección legal
Si un empleado introduce un secreto comercial en ChatGPT (plan gratuito) y la información se utiliza para entrenamiento del modelo, podría argumentarse que la información ha dejado de ser “secreta” en el sentido legal, extinguiendo la protección de la Ley de Secretos Empresariales. Esto convierte un incidente de Shadow AI en una pérdida permanente e irrecuperable de derechos de propiedad intelectual.
Responsabilidad del empleado y de la empresa
| Aspecto | Empleado | Empresa |
|---|---|---|
| RGPD | Puede ser sancionado disciplinariamente | Responsable como controlador de datos (art. 4.7 RGPD) |
| Código Penal | Responsable penal directo | Posible responsabilidad penal de persona jurídica (art. 31 bis CP) |
| Secretos comerciales | Responsabilidad civil y penal | Pierde protección legal si no adoptó medidas razonables |
| Laboral | Despido disciplinario procedente (art. 54 ET) | Debe haber informado previamente de la política |
| AI Act | No tiene obligaciones directas como usuario | Responsable del cumplimiento como deployer/provider |
Despido disciplinario por Shadow AI
La jurisprudencia española permite el despido disciplinario de empleados que violen políticas de seguridad informática. Para que sea procedente, la empresa debe demostrar:
- Existencia de política previa: La empresa debe tener una política de uso aceptable de IA que prohíba o regule el uso de estas herramientas, y el empleado debe haberla recibido y firmado
- Notificación al empleado: El empleado debe haber sido informado de la monitorización (art. 87 LOPDGDD, criterios STS 119/2018)
- Gravedad del incumplimiento: La violación debe ser grave y culpable (art. 54 ET)
- Proporcionalidad: La sanción debe ser proporcionada a la falta cometida
- Prueba válida: Las evidencias deben haberse obtenido respetando derechos fundamentales
Sentencias relevantes:
| Sentencia | Asunto | Resultado |
|---|---|---|
| STS 119/2018 | Monitorización de email corporativo | Procedente si hay política previa y notificación |
| STC 170/2013 | Acceso a ordenador de empleado | Nulo si no se respeta proporcionalidad |
| STSJ Madrid 2024 | Uso no autorizado de herramientas cloud | Procedente con política firmada |
Estadísticas y tendencias (2024-2026)
Adopción de Shadow AI en empresas
| Estadística | Fuente | Año |
|---|---|---|
| 75% de empleados usan IA generativa en el trabajo | Gartner | 2025 |
| 40% lo hacen sin aprobación de TI | Gartner | 2025 |
| 55% de empresas no tienen política de IA | McKinsey | 2025 |
| 11% de datos en prompts son confidenciales | Cyberhaven | 2024 |
| 27% de empleados usan ChatGPT diariamente | Salesforce | 2025 |
| 68% de CISOs consideran Shadow AI su mayor preocupación | ISACA | 2025 |
| 300+ nuevas herramientas de IA por mes | CB Insights | 2025 |
| 83% de empresas han detectado uso no autorizado de IA | Netskope | 2025 |
| $4.45M coste medio de brecha de datos (global) | IBM | 2024 |
Tendencias 2026
- Proliferación imparable: El número de herramientas de IA disponibles crece exponencialmente, haciendo imposible el bloqueo manual por dominio
- IA en el dispositivo: Modelos locales (Ollama, LM Studio) eliminan la necesidad de conexión a servidores externos, dificultando la detección por red
- IA embebida en todo: Cada aplicación SaaS integra funciones de IA, diluyendo la línea entre uso autorizado y Shadow AI
- Regulación en vigor: Con el AI Act plenamente aplicable en agosto de 2026, las empresas se enfrentan a sanciones reales por falta de gobernanza
- Mercado de gobernanza de IA: Surge un nuevo mercado de herramientas específicas para gestionar y gobernar el uso de IA en la empresa
Papel del perito informático forense
Servicios periciales relacionados con Shadow AI
El perito informático forense puede intervenir en casos de Shadow AI en múltiples escenarios:
| Escenario | Intervención del perito |
|---|---|
| Investigación empresarial interna | Análisis de endpoints y red para identificar qué datos se filtraron y a través de qué herramientas |
| Despido disciplinario | Informe pericial que documente la violación de la política de seguridad con evidencias técnicas sólidas |
| Brecha de datos RGPD | Análisis forense para determinar el alcance de la exposición de datos personales y apoyar la notificación a la AEPD |
| Litigio de propiedad intelectual | Demostrar que un secreto comercial fue expuesto a un servicio de IA, cuantificar el impacto |
| Auditoría de cumplimiento | Evaluar el nivel de Shadow AI en la organización y recomendar controles técnicos |
| Procedimiento penal | Documentar la revelación de secretos (art. 197 CP) o el daño a sistemas (art. 264 CP) |
Metodología pericial para Shadow AI
Encargo pericial: Recibir el encargo del cliente (empresa, abogado, juzgado) con la definición clara del objeto de la pericia. Verificar que la investigación respeta los derechos fundamentales del empleado investigado.
Preservación de evidencias: Adquisición forense de los dispositivos del empleado (clonado bit a bit), exportación de logs de red, proxy, firewall y DLP. Todo con cadena de custodia documentada y hashes SHA-256 de verificación.
Análisis de navegación: Examinar el historial del navegador, cookies, localStorage e IndexedDB en busca de accesos a servicios de IA. Recuperar conversaciones almacenadas localmente en el navegador.
Análisis de red: Correlacionar los accesos a servicios de IA con los logs de proxy/firewall. Cuantificar el volumen de datos enviados. Identificar patrones temporales (fecha, hora, frecuencia).
Identificación de datos expuestos: Determinar qué datos específicos fueron introducidos en las herramientas de IA. Clasificar los datos por sensibilidad y normativa aplicable.
Evaluación del impacto: Analizar los términos de servicio del proveedor de IA para determinar si los datos pudieron ser usados para entrenamiento, almacenados, o accedidos por terceros.
Emisión del informe pericial: Redactar un informe pericial completo con metodología, hallazgos, conclusiones y recomendaciones. El informe debe ser comprensible para un tribunal no técnico.
Herramientas forenses específicas
| Herramienta | Uso en Shadow AI |
|---|---|
| Autopsy / Sleuth Kit | Análisis de sistema de archivos, recuperación de datos eliminados |
| Volatility 3 | Análisis de memoria RAM (prompts en memoria del navegador) |
| DB Browser for SQLite | Examinar bases de datos del navegador (historial, cookies) |
| Wireshark / NetworkMiner | Análisis de capturas de tráfico de red |
| Hindsight (Chrome forensics) | Análisis específico de artefactos de Google Chrome |
| AXIOM Cyber (Magnet) | Adquisición y análisis integral de endpoints y cloud |
| X-Ways Forensics | Análisis forense avanzado de discos y sistemas de archivos |
| Plaso / log2timeline | Creación de supertimeline con todos los artefactos |
Prevención y mejores prácticas
Para empresas
Nivel organizativo:
- Crear un comité de gobernanza de IA con representantes de TI, legal, RRHH y negocio
- Desarrollar y comunicar una política de uso aceptable de IA
- Incluir la política de IA en el onboarding de nuevos empleados
- Realizar auditorías periódicas de Shadow AI (trimestral recomendado)
- Designar “AI Champions” en cada departamento para canalizar necesidades
Nivel técnico:
- Implementar CASB con categoría específica de IA generativa
- Configurar DLP para detectar envío de datos sensibles a servicios de IA
- Desplegar proxy con inspección SSL y categorización de dominios de IA
- Habilitar SSO corporativo para herramientas de IA aprobadas
- Monitorizar la instalación de extensiones de navegador
Nivel formativo:
- Formación obligatoria sobre riesgos de Shadow AI (anual)
- Simulaciones prácticas (como las simulaciones de phishing, pero para IA)
- Comunicación regular sobre herramientas aprobadas y sus límites
- Canal de consulta para empleados que necesiten usar IA
Para empleados
- Verificar siempre que la herramienta de IA esté aprobada por la empresa
- No introducir datos personales de clientes, compañeros o proveedores
- No pegar código fuente de producción ni documentos clasificados
- Usar únicamente la cuenta corporativa (nunca la personal) para herramientas aprobadas
- Reportar necesidades de herramientas de IA al departamento correspondiente
- Anonimizar o pseudonimizar datos antes de usar IA cuando sea posible
Para el sector legal
- Los abogados deben verificar que los bufetes tienen políticas de IA para datos de clientes
- El secreto profesional del abogado (art. 542.3 LOPJ) prohíbe revelar datos del cliente a servicios de IA
- Los despachos deben evaluar si sus proveedores SaaS han activado funciones de IA sin consentimiento
- Incluir cláusulas de IA en los contratos de servicios y encargos de tratamiento
Impacto del Shadow AI por sector en España
Sector financiero
| Riesgo | Impacto | Ejemplo |
|---|---|---|
| Datos de clientes en prompts | Brecha RGPD + pérdida de confianza | Analista que sube carteras de inversión a ChatGPT |
| Modelos de riesgo generados por IA | Decisiones de crédito no auditables | Uso de IA para scoring sin validación del regulador |
| Información privilegiada | Delito de abuso de mercado (MAR) | Analista que introduce datos no públicos de empresas cotizadas |
| Incumplimiento DORA | Sanción regulatoria | Uso de IA no registrada como proveedor TIC crítico |
Sector sanitario
| Riesgo | Impacto | Ejemplo |
|---|---|---|
| Datos de pacientes | Brecha de datos de categoría especial (art. 9 RGPD) | Médico que sube historial clínico a IA para diagnóstico diferencial |
| Decisiones clínicas con IA no validada | Responsabilidad médica | Profesional que sigue recomendación de ChatGPT sin verificar |
| Datos de ensayos clínicos | Pérdida de IP + incumplimiento regulatorio | Investigador que analiza datos experimentales con IA externa |
Sector educativo
| Riesgo | Impacto | Ejemplo |
|---|---|---|
| Datos de menores | Protección especial LOPDGDD + RGPD | Profesor que sube trabajos de alumnos menores a IA para corrección |
| Evaluaciones generadas por IA | Responsabilidad académica | Notas basadas en análisis de IA no validado |
| Investigación académica | Plagio, integridad científica | Investigador que genera contenido con IA sin declararlo |
Sector público
| Riesgo | Impacto | Ejemplo |
|---|---|---|
| Datos de ciudadanos | Brecha RGPD + ENS | Funcionario que usa ChatGPT para redactar resoluciones con datos personales |
| Decisiones administrativas | Nulidad del acto administrativo | Uso de IA para resolver expedientes sin supervisión humana |
| Información clasificada | Riesgo para la seguridad nacional | Personal de defensa que usa IA externa con información reservada |
Comparativa internacional de regulación del Shadow AI
| País/Región | Enfoque regulatorio | Estado |
|---|---|---|
| UE (AI Act + RGPD) | Regulación integral por riesgo + protección de datos | En vigor (escalonado hasta ago 2026) |
| España (AESIA) | Supervisión nacional del AI Act + LOPDGDD | AESIA operativa en A Coruña |
| EE.UU. | Orden ejecutiva Biden (revocada por Trump) + regulación estatal | Fragmentada; sin ley federal |
| Reino Unido | Enfoque pro-innovación, regulación sectorial | Más flexible que la UE |
| China | Regulación estricta de IA generativa (obligación de registro) | Aplicación activa |
| Japón | Guidelines no vinculantes + APPI | Enfoque flexible |
| Brasil | LGPD + Marco Civil da Internet + proyecto de ley IA | En tramitación |
Glosario de términos relacionados
| Término | Definición |
|---|---|
| CASB | Cloud Access Security Broker — intermediario de seguridad para servicios cloud |
| DLP | Data Loss Prevention — prevención de fuga de datos |
| UEBA | User Entity Behavior Analytics — análisis de comportamiento de usuarios |
| DPIA | Data Protection Impact Assessment — evaluación de impacto en protección de datos |
| AUP | Acceptable Use Policy — política de uso aceptable |
| BYOD | Bring Your Own Device — uso de dispositivos personales en el trabajo |
| SSO | Single Sign-On — inicio de sesión único |
| EDR | Endpoint Detection and Response — detección y respuesta en endpoints |
| IA generativa | Inteligencia artificial capaz de crear contenido nuevo (texto, imagen, código) |
| LLM | Large Language Model — modelo de lenguaje de gran escala |
| Prompt | Instrucción o consulta enviada a un modelo de IA |
| RAG | Retrieval-Augmented Generation — generación aumentada con recuperación |
Preguntas frecuentes adicionales
¿Puede un empleado ser despedido por usar ChatGPT en el trabajo?
Sí, si la empresa tiene una política clara que prohíbe o restringe el uso de herramientas de IA no autorizadas, y el empleado la incumple de forma grave. El despido disciplinario estaría amparado por el artículo 54.2.d) del Estatuto de los Trabajadores (transgresión de la buena fe contractual) o el artículo 54.2.b) (indisciplina o desobediencia). Es imprescindible que la política exista previamente, que el empleado la conozca y que la infracción sea grave.
¿Qué ocurre si un empleado filtra datos de clientes a ChatGPT sin darse cuenta?
Aunque la intención no sea maliciosa, la empresa sigue siendo responsable ante el RGPD. Debe evaluar si la filtración constituye una brecha de seguridad notificable a la AEPD (artículo 33 RGPD) y, en caso afirmativo, notificar en un plazo de 72 horas. La empresa puede reclamar internamente al empleado, pero frente a la AEPD y los afectados, la responsabilidad es de la organización.
¿Pueden los datos introducidos en ChatGPT ser eliminados?
Depende del plan y del proveedor. OpenAI permite solicitar la eliminación de datos en planes de pago, y ChatGPT Enterprise no utiliza datos para entrenamiento. Sin embargo, en planes gratuitos, los datos pueden haber sido ya procesados para entrenamiento antes de la solicitud de eliminación, lo que hace la recuperación efectivamente imposible.
¿El uso de modelos de IA locales (Ollama, LM Studio) elimina el riesgo de Shadow AI?
Reduce el riesgo de transferencia de datos a terceros, pero no elimina otros riesgos: los modelos locales consumen recursos corporativos, pueden contener vulnerabilidades, generan salidas no gobernadas, y el empleado sigue operando fuera del marco de gobernanza de la empresa. Además, la descarga de modelos de gran tamaño puede violar políticas de uso de ancho de banda y almacenamiento.
¿Cómo afecta el Shadow AI a las certificaciones ISO 27001 y ENS?
El uso no controlado de IA generativa puede suponer un incumplimiento de varios controles de ISO 27001:2022 (A.5.10 Uso aceptable de información, A.5.12 Clasificación de información, A.8.11 Enmascaramiento de datos) y del ENS (medidas de protección de la información). En una auditoría de certificación, la falta de gobernanza de IA podría resultar en no conformidades mayores.
Casos prácticos de investigación forense de Shadow AI
Caso 1: Empresa tecnológica — fuga de código fuente
Escenario: Una empresa de desarrollo de software de Barcelona detecta que fragmentos de su código fuente propietario aparecen en respuestas de ChatGPT a usuarios externos. La empresa contrata a un perito informático forense para investigar.
Investigación:
| Fase | Hallazgo |
|---|---|
| Análisis de proxy | 3 desarrolladores accedieron a chat.openai.com más de 200 veces en 2 meses |
| Volumen de datos | Se enviaron más de 15 MB de datos (upload) a OpenAI — equivalente a miles de líneas de código |
| Análisis de endpoint | El localStorage del navegador de un desarrollador contenía conversaciones con fragmentos de código del repositorio privado |
| Correlación temporal | Los accesos a ChatGPT coincidían con commits en el repositorio interno (el desarrollador pedía a ChatGPT que revisara su código antes de subirlo) |
Resultado: La empresa pudo documentar la fuga de propiedad intelectual, implementar controles DLP y despedir disciplinariamente a los empleados que violaron la política de seguridad (que habían firmado). El informe pericial fue clave para demostrar la gravedad de la filtración.
Caso 2: Despacho de abogados — datos de clientes en IA
Escenario: Un abogado de un despacho de Madrid utiliza Claude para resumir y analizar documentación de un caso de divorcio con custodia de menores. La documentación contiene datos personales sensibles de ambos cónyuges y de los menores.
Riesgos identificados:
- Violación del secreto profesional del abogado (art. 542.3 LOPJ)
- Transferencia internacional de datos personales sensibles sin base legal
- Datos de menores procesados por un encargado no autorizado
- Posible sanción de la AEPD por brecha de datos personales
Intervención pericial: El perito documentó los accesos a servicios de IA desde el equipo del abogado, identificó los datos concretos que fueron introducidos (mediante análisis del localStorage del navegador), y emitió un informe que sirvió para la notificación preventiva a la AEPD y la implementación de controles en el despacho.
Caso 3: Empresa industrial — secreto comercial comprometido
Escenario: Un ingeniero de una empresa farmacéutica de Valencia introduce en Gemini la fórmula de un medicamento en fase de desarrollo para que la IA le ayude a optimizar el proceso de fabricación.
Consecuencias legales potenciales:
| Normativa | Consecuencia |
|---|---|
| Ley de Secretos Empresariales | Posible extinción de la protección legal del secreto si se considera divulgado |
| RGPD | Si la fórmula se relacionaba con ensayos clínicos con datos de pacientes |
| Propiedad industrial | Riesgo de invalidación de patentes en trámite por divulgación anticipada |
| Código Penal art. 278 | Posible delito de revelación de secretos de empresa |
Checklist de auditoría de Shadow AI para empresas
Evaluación rápida (30 minutos)
| Pregunta | Sí/No | Acción si “No” |
|---|---|---|
| ¿Existe una política de uso de IA aprobada? | Redactar y aprobar inmediatamente | |
| ¿Los empleados han firmado la política? | Distribuir y obtener firmas | |
| ¿Se monitoriza el tráfico a servicios de IA? | Configurar proxy/CASB | |
| ¿Se ha realizado una DPIA para herramientas de IA aprobadas? | Iniciar DPIA con DPO | |
| ¿Existe formación sobre riesgos de Shadow AI? | Planificar sesión formativa | |
| ¿Hay un proceso de aprobación para nuevas herramientas de IA? | Diseñar proceso con TI y Legal | |
| ¿Se audita periódicamente el uso de IA no autorizada? | Programar auditoría trimestral | |
| ¿El DPO está involucrado en la gobernanza de IA? | Incluir al DPO en el comité de IA | |
| ¿Se registran las herramientas de IA en el RAT (Registro de Actividades de Tratamiento)? | Actualizar el RAT | |
| ¿Existe un plan de respuesta a incidentes de Shadow AI? | Desarrollar playbook específico |
Evaluación técnica detallada (1-2 días)
- Revisar logs de proxy/firewall de los últimos 90 días en busca de conexiones a dominios de IA
- Inventariar extensiones de navegador instaladas en endpoints corporativos
- Verificar si hay aplicaciones de IA de escritorio instaladas en equipos corporativos
- Analizar el tráfico DNS en busca de consultas a dominios de servicios de IA
- Revisar las aplicaciones OAuth autorizadas en Google Workspace o Microsoft 365
- Verificar las integraciones de terceros en herramientas SaaS corporativas (Slack, Teams, Notion)
- Comprobar si algún empleado ha registrado API keys de servicios de IA con su email corporativo
- Evaluar la configuración de DLP para detectar envíos a servicios de IA
- Verificar las políticas de Conditional Access para detectar sesiones anómalas
- Documentar todos los hallazgos y priorizar las acciones de remediación
Referencias y fuentes
- Reglamento (UE) 2016/679 (RGPD) — Protección de datos personales en la Unión Europea
- Reglamento (UE) 2024/1689 (AI Act) — Regulación de la inteligencia artificial en la UE
- Ley Orgánica 3/2018 (LOPDGDD) — Ley Orgánica de Protección de Datos y garantía de los derechos digitales
- Ley 1/2019 de Secretos Empresariales — Transposición de la Directiva (UE) 2016/943
- Código Penal (LO 10/1995) — Artículos 197, 264 y 31 bis
- Gartner (2025) — “Predicts 2025: AI Governance Will Become a Business Imperative”
- Cyberhaven Labs (2024) — “How Employees Are Using Generative AI — and What Data They’re Sharing”
- Netskope Threat Labs (2025) — “Cloud and Threat Report: AI Apps in the Enterprise”
- Samsung Electronics (2023) — Incidentes de filtración de código fuente a ChatGPT (The Economist Korea, Bloomberg)
- NIST AI RMF 1.0 (2024) — Marco de gestión de riesgos de inteligencia artificial
- ISACA (2025) — “State of AI Governance Survey”
- IBM Security (2024) — “Cost of a Data Breach Report 2024”
- AEPD — Guía sobre tratamientos de datos y uso de inteligencia artificial
Conclusión
El Shadow AI representa uno de los mayores desafíos de seguridad y cumplimiento normativo para las empresas en 2025-2026. A diferencia del Shadow IT tradicional, donde el riesgo principal era la pérdida de control sobre los datos almacenados, el Shadow AI implica la transferencia activa de datos sensibles a terceros cada vez que un empleado introduce un prompt en un servicio de IA no gobernado.
La combinación del RGPD (con sanciones de hasta el 4% de la facturación global), el AI Act (hasta el 7%) y la Ley de Secretos Empresariales crea un marco legal en el que la falta de gobernanza de la IA puede resultar en pérdidas millonarias — tanto económicas como de propiedad intelectual irrecuperable.
La solución no pasa por prohibir la IA generativa, sino por gobernarla: políticas claras, herramientas técnicas de control, formación continua y un proceso de aprobación ágil que permita a los empleados beneficiarse de la IA sin comprometer los activos de la organización.
Para los casos en que la prevención falla, el perito informático forense es un aliado esencial: puede investigar el alcance de la exposición, documentar las evidencias para procedimientos disciplinarios o judiciales, y asesorar sobre medidas de remediación técnica.
Última actualización: 30 de marzo de 2026 Categoría: Gestión de Riesgos Código: GES-015
Preguntas Frecuentes
¿Qué es Shadow AI y por qué es peligroso para las empresas?
Shadow AI es el uso no autorizado de herramientas de inteligencia artificial (ChatGPT, Claude, Gemini, etc.) por parte de empleados sin conocimiento ni aprobación de la empresa. Es peligroso porque los datos introducidos en estas herramientas pueden incluir código fuente, datos de clientes, estrategias comerciales o información financiera confidencial, exponiéndolos a terceros sin control.
¿Cómo puede un perito informático investigar incidentes de Shadow AI?
El perito analiza logs de navegación (proxy/firewall), registros DNS, historial del navegador, portapapeles del sistema, registros DLP, tráfico de red hacia dominios de servicios de IA, y metadatos de archivos. También puede examinar extensiones de navegador y aplicaciones de escritorio que integren modelos de IA.
¿Es legal que los empleados usen ChatGPT con datos de la empresa?
Depende de la política interna y del tipo de datos. Si se introducen datos personales protegidos por el RGPD, puede constituir una transferencia internacional no autorizada (los servidores de OpenAI están en EE.UU.). La empresa podría enfrentarse a sanciones de la AEPD, y el empleado a responsabilidades disciplinarias y penales según el artículo 197 del Código Penal.
¿Qué medidas técnicas pueden detectar el Shadow AI en una empresa?
Las principales medidas son: sistemas DLP (Data Loss Prevention) configurados para detectar envíos a dominios de IA, CASB (Cloud Access Security Broker) para monitorizar SaaS no aprobados, filtrado DNS/proxy para bloquear o alertar sobre accesos a api.openai.com y similares, y soluciones UEBA (User Entity Behavior Analytics) que detecten patrones anómalos de uso.
¿Qué caso real de filtración de datos por Shadow AI es más conocido?
El caso más documentado es el de Samsung Semiconductor en mayo de 2023, donde ingenieros introdujeron código fuente propietario y actas de reuniones confidenciales en ChatGPT. Samsung descubrió al menos tres incidentes en menos de un mes, lo que llevó a la empresa a prohibir completamente el uso de herramientas de IA generativa y a desarrollar su propia solución interna.
Términos Relacionados
Exfiltración de Datos
Transferencia no autorizada de datos sensibles desde una organización hacia sistemas externos controlados por atacantes, empleados desleales o competidores, utilizando técnicas encubiertas para evadir sistemas de seguridad.
Insider Threats
Amenazas a la seguridad de la información originadas por empleados, contratistas o colaboradores internos que acceden, exfiltran o sabotean datos de forma malintencionada o negligente, aprovechando su acceso legítimo.
Cloud Forensics
Rama del análisis forense digital especializada en la adquisición, preservación y análisis de evidencia en entornos de computación en la nube como AWS, Azure y Google Cloud.
¿Necesitas un peritaje forense?
Si necesitas ayuda profesional con análisis forense digital, estoy aquí para ayudarte.
Solicitar Consulta Gratuita
