Gestión de Riesgos

Shadow AI

Uso no autorizado ni supervisado de herramientas de inteligencia artificial (ChatGPT, Claude, Gemini, Copilot y otros modelos generativos) por parte de empleados en el entorno corporativo, exponiendo datos sensibles, propiedad intelectual y secretos comerciales a terceros sin conocimiento ni control del departamento de TI o del CISO.

42 min de lectura

¿Qué es Shadow AI?

El término Shadow AI (IA en la sombra) describe el uso no autorizado, no supervisado y no gobernado de herramientas de inteligencia artificial generativa por parte de empleados dentro del entorno corporativo. Incluye servicios como ChatGPT, Claude, Gemini, Microsoft Copilot, Perplexity, Midjourney y cualquier modelo de lenguaje o IA generativa al que los trabajadores accedan sin que la empresa lo haya aprobado formalmente ni haya evaluado sus riesgos.

El concepto es una evolución natural del ya conocido Shadow IT — el uso de software, hardware y servicios en la nube sin aprobación del departamento de tecnología — pero con implicaciones significativamente mayores debido a la naturaleza de la IA generativa: cada prompt enviado a un modelo externo puede contener datos corporativos sensibles que se transmiten a servidores de terceros, en muchas ocasiones fuera de la Unión Europea.

Magnitud del problema

Según estudios de Gartner (2025) y Cyberhaven (2024), más del 75% de los empleados en grandes empresas utilizan herramientas de IA generativa en su trabajo, y al menos el 40% lo hace sin conocimiento ni aprobación de su departamento de TI. El 11% de los datos introducidos en ChatGPT contiene información confidencial de la empresa.

Origen y evolución del Shadow AI

De Shadow IT a Shadow AI

El Shadow IT lleva décadas siendo un dolor de cabeza para los equipos de seguridad. Los empleados, buscando productividad, adoptan Dropbox, Google Drive personal, WhatsApp o aplicaciones SaaS sin pasar por los controles corporativos. Con la llegada de la IA generativa a finales de 2022 (lanzamiento público de ChatGPT el 30 de noviembre de 2022), esta tendencia se aceleró exponencialmente.

FasePeríodoCaracterística
Shadow IT clásico2005-2015USB, email personal, Dropbox
Shadow SaaS2015-2022Trello, Slack personal, apps no aprobadas
Shadow AI2022-presenteChatGPT, Claude, Gemini, Copilot, Midjourney

Hitos clave

FechaEventoImpacto
Nov 2022Lanzamiento de ChatGPT100M usuarios en 2 meses; adopción masiva corporativa
Mar 2023Samsung prohíbe ChatGPTPrimer caso público de filtración de código propietario
May 2023Italia bloquea ChatGPTGPDP investiga transferencias de datos a EE.UU.
Jun 2023OpenAI lanza ChatGPT EnterpriseRespuesta al problema de Shadow AI con controles corporativos
Feb 2024NIST AI RMF 1.0 publicadoMarco de gestión de riesgos de IA para empresas
Ago 2024AI Act entra en vigorMarco legal europeo obligatorio con sanciones
Feb 2025Prohibiciones del AI Act activasPrimeras restricciones ejecutables en la UE
2025-2026Proliferación de herramientas de IA+300 nuevas herramientas IA/mes; imposible bloquear manualmente

Categorías de Shadow AI

Por tipo de herramienta

CategoríaEjemplosRiesgo principal
Chatbots generalistasChatGPT, Claude, Gemini, PerplexityDatos en prompts enviados a servidores externos
Asistentes de códigoGitHub Copilot personal, Cursor, Tabnine freeCódigo fuente propietario como contexto
Generación de imágenesMidjourney, DALL-E, Stable Diffusion onlinePropiedad intelectual de diseños, marcas
Extensiones de navegadorExtensiones IA para Chrome/FirefoxAcceso a cookies, historial, contenido de páginas
Apps móvilesApps de IA en dispositivos BYODDatos corporativos en dispositivos no gestionados
Plugins y APIsIntegraciones no oficiales con IATokens de API, credenciales en texto plano
IA integrada en SaaSFunciones IA en Notion, Canva, GrammarlyDatos procesados por subprocesadores no evaluados

Por nivel de riesgo

Clasificación de riesgo Shadow AI

No todo uso de Shadow AI tiene el mismo impacto. Es fundamental categorizar para priorizar la respuesta.

NivelDescripciónEjemplo
CríticoDatos personales sensibles o secretos comercialesSubir contratos con datos de clientes a ChatGPT
AltoCódigo fuente propietario o información financieraUsar Copilot personal con el repositorio de la empresa
MedioInformación interna no clasificadaPedir a Gemini que resuma un acta de reunión
BajoUso personal sin datos corporativosPreguntar a ChatGPT cómo formatear un CSV genérico

Vectores de exposición de datos

¿Qué datos se filtran a través de Shadow AI?

Según análisis de Cyberhaven Labs y Netskope (2024-2025), los tipos de datos más frecuentemente introducidos en herramientas de IA generativa son:

Tipo de datoPorcentajeEjemplo real
Código fuente31%Empleados que pegan funciones completas para depurar
Datos de clientes17%Listas de correos, direcciones, historiales de compra
Documentos internos15%Actas de reuniones, planes estratégicos
Datos financieros12%Presupuestos, facturas, previsiones
Datos personales (RGPD)9%DNI, direcciones, datos de salud de empleados
Credenciales7%API keys, contraseñas en snippets de código
Propiedad intelectual5%Diseños, patentes en borrador, fórmulas
Otros4%Comunicaciones legales privilegiadas

Mecanismos de exposición

Los datos llegan a servicios de IA generativa a través de múltiples vectores:

1. Prompts directos en el navegador

El empleado accede a chat.openai.com, claude.ai o gemini.google.com y escribe o pega contenido directamente. Este es el vector más común y el más visible para los sistemas de monitorización.

Ejemplo de prompt peligroso:
"Revisa este contrato de confidencialidad entre [Empresa X] y [Cliente Y]:
[pega el contrato completo con datos personales y cláusulas confidenciales]"

2. Carga de archivos

Muchos modelos permiten subir archivos (PDF, Excel, imágenes, código). Un empleado puede subir un informe financiero completo o una base de datos de clientes para “analizarla”.

3. Extensiones de navegador con IA

Las extensiones tipo “AI summarizer”, “AI writing assistant” o “AI translator” pueden capturar todo el contenido de las páginas visitadas — incluyendo el correo corporativo, el CRM y la intranet.

4. APIs no oficiales

Desarrolladores que usan la API de OpenAI u otros proveedores con sus cuentas personales, enviando código o datos de producción como contexto para los modelos.

5. Aplicaciones móviles en dispositivos BYOD

En empresas con políticas Bring Your Own Device, las apps de IA instaladas en el teléfono personal del empleado pueden acceder a datos corporativos almacenados en el mismo dispositivo.

6. IA embebida en herramientas SaaS

Herramientas como Notion AI, Canva Magic Write o Grammarly procesan datos del usuario mediante modelos de IA de terceros, creando una capa adicional de subprocesadores de datos que la empresa no ha evaluado.

El caso Samsung: anatomía de una filtración por Shadow AI

Los hechos

En marzo-abril de 2023, Samsung Semiconductor experimentó al menos tres incidentes documentados de filtración de datos a través de ChatGPT en un período inferior a 20 días:

  1. Incidente 1 — Código fuente de semiconductores: Un ingeniero pegó código fuente propietario del proceso de fabricación de chips en ChatGPT para solicitar ayuda con la optimización. El código contenía información sobre el proceso de producción de Samsung, considerado secreto industrial de máximo nivel.

  2. Incidente 2 — Datos de rendimiento de equipos: Otro empleado introdujo datos de medición de rendimiento y diagnóstico de equipos de fabricación para que ChatGPT ayudara a identificar patrones de fallos. Estos datos revelaban capacidades técnicas confidenciales.

  3. Incidente 3 — Acta de reunión: Un trabajador pidió a ChatGPT que resumiera y optimizara el contenido de una reunión interna, proporcionando la transcripción completa que incluía decisiones estratégicas de la división de semiconductores.

Consecuencias

AcciónDetalle
Prohibición inmediataSamsung prohibió ChatGPT, Bing Chat y Google Bard en todos los dispositivos corporativos
Límite de promptSe estableció un límite de 1.024 bytes por consulta mientras se desarrollaba una solución interna
Desarrollo internoSamsung aceleró el desarrollo de su propia herramienta de IA generativa interna
Amenaza disciplinariaLa empresa advirtió que futuras violaciones podrían resultar en despido
Investigación internaSe auditaron los logs de red para identificar otros posibles usos no autorizados
Lección clave del caso Samsung

Samsung descubrió los incidentes únicamente porque los empleados reportaron problemas técnicos relacionados con sus consultas en ChatGPT. Sin un sistema de monitorización proactivo (DLP, CASB o proxy con inspección SSL), la mayoría de filtraciones por Shadow AI pasan desapercibidas durante meses o nunca se detectan.

Otros casos documentados

Empresa/SectorAñoTipo de filtraciónConsecuencia
Samsung Semiconductor2023Código fuente, datos fabricaciónProhibición total de IA generativa
JPMorgan Chase2023Comunicaciones con clientesRestricción de ChatGPT
Amazon2023Código similar al interno en respuestas de ChatGPTAdvertencia interna a empleados
Apple2023Código fuente y datos internosProhibición preventiva
Verizon2023Datos corporativos no especificadosBloqueo de ChatGPT en red corporativa
Abogados de Nueva York2023Citación de casos judiciales inventadosSanciones por el tribunal
Empresa sanitaria (España)2024Datos de pacientes en prompts de IAInvestigación AEPD
Banco europeo2025Datos financieros de clientes en ClaudeNotificación de brecha RGPD

Riesgos del Shadow AI

1. Fuga de datos y propiedad intelectual

El riesgo más inmediato es que los datos introducidos en servicios de IA generativa pueden ser:

  • Almacenados en los servidores del proveedor (OpenAI, Anthropic, Google)
  • Utilizados para entrenamiento del modelo (en planes gratuitos o según los ToS)
  • Accesibles para empleados del proveedor durante revisiones de calidad
  • Expuestos en brechas de seguridad del propio proveedor (como la brecha de ChatGPT en marzo 2023 que expuso historiales de chat de otros usuarios)
Datos de entrenamiento

En los planes gratuitos y de consumo de la mayoría de proveedores de IA, los datos enviados pueden utilizarse para mejorar los modelos. Esto significa que fragmentos de código fuente, datos de clientes o información financiera confidencial podrían reaparecer — potencialmente descontextualizados — en respuestas a otros usuarios. Los planes empresariales (ChatGPT Enterprise, Claude for Business) generalmente excluyen los datos del entrenamiento, pero el Shadow AI por definición no usa estos planes corporativos.

2. Incumplimiento del RGPD

La introducción de datos personales en herramientas de IA generativa plantea múltiples problemas bajo el Reglamento General de Protección de Datos:

Aspecto RGPDProblema
Base legal (art. 6)No hay base legal para transmitir datos personales a un proveedor de IA no evaluado
Transferencias internacionales (arts. 44-49)Servidores de OpenAI en EE.UU.; post-Schrems II se requieren salvaguardas adicionales
Evaluación de impacto (art. 35)Uso de IA con datos personales requiere DPIA previa
Registro de actividades (art. 30)El Shadow AI no queda registrado como actividad de tratamiento
Principio de minimización (art. 5.1.c)Se envían datos excesivos e innecesarios al proveedor
Derechos de los interesados (arts. 15-22)Imposible garantizar el derecho de supresión si los datos ya fueron a OpenAI
Notificación de brechas (art. 33)Si hay filtración, la empresa tiene 72 horas para notificar a la AEPD
Encargado del tratamiento (art. 28)El proveedor de IA actúa como encargado sin contrato formalizado

Sanciones potenciales:

  • Hasta 20 millones de euros o el 4% de la facturación global anual (lo que sea mayor) por infracciones graves del RGPD
  • La AEPD ha impuesto multas significativas en España: CaixaBank (6,4M€, 2021), Vodafone España (8,15M€, 2021)
  • En el contexto de Shadow AI, la responsabilidad recae sobre la empresa como responsable del tratamiento, no sobre el empleado individual

3. Incumplimiento del AI Act

Con la entrada en vigor escalonada del Reglamento (UE) 2024/1689 (AI Act), el Shadow AI genera riesgos regulatorios adicionales:

  • Si un empleado usa IA para tomar decisiones que afectan a personas (RRHH, créditos, seguros), puede estar utilizando un sistema de alto riesgo sin las obligaciones de transparencia, supervisión humana y documentación que exige el AI Act
  • Las obligaciones de transparencia del AI Act (informar cuando se interactúa con IA, etiquetar deepfakes) no se cumplen si el uso de IA no está gobernado
  • Las sanciones del AI Act alcanzan el 7% de la facturación global anual o 35 millones de euros

4. Pérdida de propiedad intelectual

Riesgo IPDescripción
Secreto comercialLa revelación voluntaria de un secreto comercial puede extinguir la protección legal (Ley 1/2019 de Secretos Empresariales)
Código fuenteEl código introducido en IA puede perder protección como obra original si se considera divulgado
Patentes en trámiteLa divulgación anticipada de invenciones puede invalidar solicitudes de patente
Datos de formaciónInformación utilizada para entrenar modelos de IA puede reaparecer en respuestas a competidores

5. Riesgos de precisión y fiabilidad

El Shadow AI no solo expone datos — también introduce riesgos operativos:

  • Alucinaciones: Los modelos de lenguaje generan información falsa con apariencia veraz
  • Código vulnerable: Código generado por IA puede contener vulnerabilidades de seguridad (OWASP Top 10, inyecciones SQL, XSS)
  • Decisiones sesgadas: Modelos de IA pueden producir resultados discriminatorios que expongan a la empresa a demandas
  • Dependencia técnica: Los empleados pueden generar dependencia de herramientas de IA sin que la empresa lo sepa, creando riesgo operativo si el servicio deja de estar disponible
  • Citaciones falsas: Como en el caso de los abogados de Nueva York que citaron sentencias inexistentes generadas por ChatGPT ante un tribunal federal

6. Riesgo reputacional

Una filtración de datos de clientes a través de Shadow AI puede resultar en:

  • Pérdida de confianza de clientes y socios
  • Cobertura mediática negativa
  • Investigaciones regulatorias
  • Demandas civiles por daños y perjuicios
  • Pérdida de certificaciones (ISO 27001, ENS, SOC 2)

Detección de Shadow AI: métodos técnicos

Arquitectura de detección

Una estrategia efectiva de detección de Shadow AI combina múltiples capas:

┌─────────────────────────────────────────────────────┐
│                  Capa 1: Red                        │
│  Proxy/Firewall → DNS → NetFlow → IDS/IPS          │
├─────────────────────────────────────────────────────┤
│                  Capa 2: Endpoint                   │
│  EDR → DLP endpoint → Browser forensics             │
├─────────────────────────────────────────────────────┤
│                  Capa 3: Cloud                       │
│  CASB → SaaS Discovery → API Gateway               │
├─────────────────────────────────────────────────────┤
│                  Capa 4: Datos                       │
│  DLP → Clasificación datos → Monitorización BBDD   │
├─────────────────────────────────────────────────────┤
│                  Capa 5: Comportamiento             │
│  UEBA → Análisis de patrones → Anomalías           │
└─────────────────────────────────────────────────────┘

1. Monitorización de red (Proxy y Firewall)

La primera línea de detección es monitorizar el tráfico de red hacia dominios conocidos de servicios de IA:

Dominios a monitorizar:

# Proveedores principales de IA generativa
chat.openai.com / api.openai.com / platform.openai.com
claude.ai / api.anthropic.com
gemini.google.com / generativelanguage.googleapis.com
copilot.microsoft.com
perplexity.ai
midjourney.com
huggingface.co / api-inference.huggingface.co
replicate.com
together.ai
groq.com

# Herramientas con IA embebida
notion.so (Notion AI)
grammarly.com (Grammarly AI)
canva.com (Canva Magic)
jasper.ai
copy.ai
writesonic.com

Configuración de proxy (ejemplo Squid/ZScaler):

# Bloqueo o alerta por categoría "AI/ML Services"
# Configurar SSL inspection para detectar tráfico cifrado
# Registrar: usuario, timestamp, URL, bytes enviados, bytes recibidos
# Alertar cuando bytes enviados > umbral (posible carga de archivo)

2. DLP (Data Loss Prevention)

Los sistemas DLP pueden configurarse para detectar datos sensibles que se envían a servicios de IA:

Regla DLPDescripciónAcción
Datos personales a dominios IADetecta DNI, email, teléfono en tráfico a openai.comBloquear + alertar
Código fuenteDetecta patrones de código (import, function, class)Alertar + registrar
Documentos clasificadosDetecta metadatos de documentos “Confidencial”Bloquear + alertar
Datos financierosDetecta patrones de IBAN, tarjetas, importesBloquear + alertar
Volumen anómaloDetecta envío de >10KB en un solo promptAlertar + registrar
Limitaciones del DLP con IA

El DLP tradicional tiene limitaciones frente al Shadow AI: el tráfico está cifrado (TLS 1.3), los empleados pueden usar datos móviles para evitar el proxy, y las extensiones de navegador pueden ofuscar el destino real. Es necesario combinar DLP con otras capas de detección.

3. CASB (Cloud Access Security Broker)

Los CASB son esenciales para descubrir y gestionar el uso de SaaS no aprobados, incluyendo servicios de IA:

Funcionalidades relevantes:

  • Shadow IT Discovery: Identificar automáticamente todos los servicios SaaS utilizados en la organización
  • Inline Protection: Inspeccionar y controlar el tráfico en tiempo real hacia servicios de IA
  • API Protection: Detectar integraciones no autorizadas con APIs de IA
  • DLP en la nube: Aplicar políticas de protección de datos en el tráfico hacia servicios cloud
  • Análisis de riesgo: Evaluar y clasificar el riesgo de cada servicio SaaS descubierto

Proveedores de CASB recomendados:

CASBDetección IAPrecio
NetskopeCategoría específica “Generative AI” con 700+ apps clasificadasEnterprise
ZscalerMódulo AI/ML Discovery integradoEnterprise
Microsoft Defender for Cloud AppsDetección de apps IA con Microsoft 365Incluido en E5
Palo Alto Prisma AccessSaaS Security con categoría IAEnterprise

4. Análisis de DNS

El análisis de consultas DNS puede revelar accesos a servicios de IA incluso cuando el tráfico web está cifrado:

# Consultas DNS a monitorizar (ejemplo Pi-hole / Infoblox / Umbrella)
# Registrar todas las consultas a dominios de IA
# Correlacionar con usuario (autenticación DHCP/AD)
# Alertar sobre patrones anómalos (frecuencia, horario)
# Detectar DNS-over-HTTPS que evite el filtrado DNS corporativo

5. Monitorización de endpoints (EDR)

Las soluciones EDR (Endpoint Detection and Response) pueden detectar:

  • Instalación de aplicaciones de IA de escritorio (Claude Desktop, ChatGPT Desktop)
  • Extensiones de navegador relacionadas con IA
  • Procesos de IA local (Ollama, LM Studio, llama.cpp)
  • Uso del portapapeles con volúmenes anómalos (copiar-pegar grandes fragmentos de código)
  • Acceso a archivos sensibles seguido de acceso a navegador con destino a IA

6. UEBA (User Entity Behavior Analytics)

El análisis de comportamiento del usuario es la capa más sofisticada:

Indicador comportamentalQué detecta
Aumento de tráfico web cifradoUso intensivo de servicios de IA
Copiar-pegar grandes volúmenesTransferencia de datos al navegador
Acceso fuera de horario a servicios IAUso personal con datos corporativos
Descarga masiva seguida de uploadExfiltración a través de IA
Patrones repetitivos de consultaAutomatización de envío de datos a IA

Análisis forense de incidentes de Shadow AI

Metodología de investigación

Cuando una empresa sospecha o confirma un incidente de Shadow AI, el perito informático forense debe seguir una metodología rigurosa:

  1. Identificación y preservación de evidencias: Antes de cualquier análisis, preservar la evidencia digital con cadena de custodia. Clonar discos duros, capturar memoria RAM, exportar logs de red y proxy. Documentar todo con timestamps y hashes criptográficos (SHA-256).

  2. Análisis de tráfico de red: Examinar logs del proxy corporativo, firewall y DNS para identificar conexiones a dominios de servicios de IA. Cuantificar el volumen de datos enviados (bytes de upload) y la frecuencia de acceso. Identificar los usuarios implicados.

  3. Análisis de endpoint: En el equipo del empleado, examinar el historial del navegador (Chrome, Firefox, Edge), las cookies de sesión, el localStorage de las páginas de IA visitadas, las extensiones instaladas, y el historial del portapapeles si está disponible.

  4. Recuperación de prompts y respuestas: Si el empleado utilizó la interfaz web de ChatGPT u otro servicio, es posible recuperar los prompts y respuestas del localStorage del navegador, del caché HTTP, o de las bases de datos SQLite del navegador. En Chrome, la base de datos IndexedDB puede contener conversaciones completas.

  5. Análisis de datos expuestos: Identificar qué datos específicos fueron introducidos en la herramienta de IA. Clasificar los datos según sensibilidad (datos personales RGPD, secretos comerciales, código fuente, información financiera). Evaluar el impacto potencial de la exposición.

  6. Correlación temporal: Establecer una línea de tiempo precisa que relacione el acceso a archivos sensibles con el envío de datos a servicios de IA. Esto es fundamental para determinar si la filtración fue intencionada o negligente.

  7. Informe pericial y recomendaciones: Documentar todos los hallazgos en un informe pericial que pueda servir como prueba en procedimientos disciplinarios, judiciales o ante la AEPD. Incluir recomendaciones de remediación y prevención.

Artefactos forenses clave

En el navegador

ArtefactoUbicaciónInformación
Historial de navegación~/.config/google-chrome/Default/History (SQLite)URLs visitadas con timestamps
Cookies~/.config/google-chrome/Default/Cookies (SQLite)Sesiones activas en servicios de IA
LocalStorage~/.config/google-chrome/Default/Local Storage/leveldb/Datos almacenados por las páginas web
IndexedDB~/.config/google-chrome/Default/IndexedDB/Bases de datos de aplicaciones web (conversaciones)
Cache~/.config/google-chrome/Default/Cache/Contenido cacheado de páginas visitadas
Session StorageEn memoria (volátil)Datos de sesión temporales
Extensiones~/.config/google-chrome/Default/Extensions/Extensiones de IA instaladas
Downloads~/.config/google-chrome/Default/HistoryArchivos descargados desde servicios de IA

En el sistema operativo

ArtefactoSistemaInformación
Registro de aplicacionesWindows Event LogInstalación de apps de IA
Historial del portapapelesWindows Clipboard HistoryDatos copiados (si está habilitado)
Prefetch/SuperfetchWindowsEjecuciones de aplicaciones de IA
Journald / syslogLinuxRegistro de procesos y conexiones
Unified LogmacOSActividad del sistema y aplicaciones
Conexiones de redNetstat / ssConexiones activas a servicios de IA

En la red corporativa

ArtefactoFuenteInformación
Logs de proxySquid, ZScaler, BlueCoatURLs, usuarios, bytes enviados/recibidos
Logs de firewallPalo Alto, FortiGate, pfSenseConexiones permitidas/bloqueadas
Logs DNSInfoblox, Pi-hole, UmbrellaConsultas de resolución de nombres
Logs DHCPServidor DHCPCorrelación IP-usuario-timestamp
NetFlow/sFlowRouter/SwitchVolumen y patrones de tráfico
Logs DLPSymantec, Forcepoint, Digital GuardianAlertas de fuga de datos
Logs CASBNetskope, Zscaler, McAfeeUso de SaaS no aprobados

Técnicas avanzadas de análisis

Recuperación de conversaciones de ChatGPT

Las conversaciones de ChatGPT se almacenan en el lado del servidor (requieren orden judicial para obtenerlas de OpenAI), pero también dejan rastros locales:

# IndexedDB de ChatGPT en Chrome
# Ruta: ~/.config/google-chrome/Default/IndexedDB/
#        https_chat.openai.com_0.indexeddb.leveldb/

# El contenido puede incluir:
# - IDs de conversación
# - Prompts enviados
# - Respuestas recibidas
# - Timestamps
# - Modelo utilizado (GPT-3.5, GPT-4, etc.)

Análisis de tráfico TLS

Aunque el tráfico está cifrado, el análisis de metadatos puede revelar información valiosa:

  • Tamaño de los paquetes de upload: Un prompt largo o la carga de un archivo genera paquetes de upload significativamente mayores que una consulta simple
  • Frecuencia de conexiones: Patrones regulares de conexión a APIs de IA
  • SNI (Server Name Indication): El nombre del servidor destino es visible incluso en TLS (salvo que se use ECH)
  • JA3/JA3S fingerprinting: Identificar el cliente utilizado para conectarse a servicios de IA

Análisis de memoria RAM

En el análisis de memoria volátil (RAM) del equipo del empleado, se pueden encontrar:

  • Prompts y respuestas en la memoria del proceso del navegador
  • Tokens de autenticación de servicios de IA
  • Contenido del portapapeles
  • Datos de extensiones de navegador en ejecución
# Con Volatility 3 (framework de análisis de memoria)
# Buscar strings relacionados con servicios de IA
# Identificar procesos de navegador con conexiones a dominios de IA
# Extraer tokens de sesión para acceder al historial del usuario

Gobernanza de IA: políticas y controles

Framework de gobernanza de IA empresarial

Para abordar el Shadow AI de forma efectiva, las empresas necesitan un framework integral:

┌───────────────────────────────────────────────────────┐
│              Gobernanza de IA Empresarial              │
├───────────────────────────────────────────────────────┤
│                                                       │
│  ┌─────────────┐  ┌─────────────┐  ┌─────────────┐  │
│  │  Política    │  │  Tecnología │  │  Personas   │  │
│  │  de uso IA   │  │  de control │  │  y cultura  │  │
│  ├─────────────┤  ├─────────────┤  ├─────────────┤  │
│  │ AUP de IA   │  │ CASB + DLP  │  │ Formación   │  │
│  │ Clasificación│  │ Proxy/FW    │  │ Awareness   │  │
│  │ datos       │  │ EDR         │  │ Champions   │  │
│  │ Procesos    │  │ UEBA        │  │ Incentivos  │  │
│  │ aprobación  │  │ API Gateway │  │ Reporting   │  │
│  │ Inventario  │  │ SSO/IdP     │  │ anónimo     │  │
│  └─────────────┘  └─────────────┘  └─────────────┘  │
│                                                       │
│  ┌─────────────┐  ┌─────────────┐  ┌─────────────┐  │
│  │ Cumplimiento│  │ Evaluación  │  │ Respuesta   │  │
│  │ normativo   │  │ de riesgos  │  │ incidentes  │  │
│  ├─────────────┤  ├─────────────┤  ├─────────────┤  │
│  │ RGPD        │  │ DPIA por    │  │ Playbook    │  │
│  │ AI Act      │  │ herramienta │  │ Shadow AI   │  │
│  │ ENS         │  │ Vendor risk │  │ Contención  │  │
│  │ ISO 27001   │  │ assessment  │  │ Notificación│  │
│  │ LOPDGDD     │  │ Pentesting  │  │ AEPD/CISO   │  │
│  └─────────────┘  └─────────────┘  └─────────────┘  │
└───────────────────────────────────────────────────────┘

Política de uso aceptable de IA (AUP-IA)

Toda empresa debe disponer de una política de uso aceptable de inteligencia artificial. Elementos esenciales:

1. Herramientas aprobadas

CategoríaHerramienta aprobadaRestricciones
Chatbot generalistaChatGPT Enterprise / Azure OpenAISolo con cuenta corporativa
Asistente de códigoGitHub Copilot BusinessSolo en repositorios aprobados
Generación de textoClaude for BusinessDatos no sensibles únicamente
Análisis de datosMicrosoft Copilot (M365)Datos internos clasificados hasta “interno”

2. Datos prohibidos en herramientas de IA

  • Datos personales (nombres, DNI, email, teléfono, datos de salud)
  • Código fuente de producción o con clasificación “confidencial”
  • Información financiera no pública
  • Estrategias comerciales y planes de negocio
  • Comunicaciones legales privilegiadas
  • Credenciales, tokens de API, certificados
  • Datos de clientes sin consentimiento explícito

3. Proceso de aprobación para nuevas herramientas de IA

  1. Solicitud: El empleado o departamento envía una solicitud al comité de gobernanza de IA especificando la herramienta, el caso de uso y los datos involucrados.

  2. Evaluación de riesgos: El equipo de seguridad realiza una evaluación de riesgos que incluye análisis de los términos de servicio del proveedor, localización de servidores, políticas de retención de datos y cumplimiento normativo.

  3. DPIA: Si la herramienta procesa datos personales, se realiza una Evaluación de Impacto en la Protección de Datos conforme al artículo 35 del RGPD.

  4. Revisión legal: El departamento legal revisa las implicaciones contractuales, de propiedad intelectual y de cumplimiento regulatorio.

  5. Aprobación y configuración: Si se aprueba, el equipo de TI configura la herramienta con los controles técnicos adecuados (SSO, DLP, logging, restricciones de datos).

  6. Formación: Los usuarios reciben formación específica sobre el uso seguro de la herramienta aprobada.

  7. Monitorización continua: El uso se monitoriza de forma continua para detectar desviaciones de la política.

Controles técnicos recomendados

ControlImplementaciónEficacia
Proxy con categoría IAZScaler, Netskope, Palo AltoAlta — bloquea o permite con granularidad
DLP en endpointMicrosoft Purview, Symantec, Digital GuardianMedia-Alta — detecta datos sensibles en tránsito
CASBNetskope, McAfee MVISION, Microsoft DefenderAlta — visibilidad completa de SaaS
DNS filteringUmbrella, Infoblox, Pi-holeMedia — fácil de eludir con DoH
Browser isolationMenlo Security, Zscaler BrowserAlta — aísla el navegador de los datos locales
SSO obligatorioOkta, Azure AD, OneLoginMedia — solo controla herramientas aprobadas
API GatewayKong, Apigee, AWS API GatewayAlta — controla acceso programático a APIs de IA
EDR con políticas de appCrowdStrike, SentinelOne, Microsoft DefenderMedia — detecta instalación de apps no autorizadas

El enfoque “permitir con control” vs. “bloquear todo”

El bloqueo total no funciona

La experiencia demuestra que prohibir completamente las herramientas de IA generativa es contraproducente. Los empleados buscan alternativas más difíciles de detectar: VPN personales, datos móviles, herramientas de IA menos conocidas, o incluso fotografiar la pantalla con el teléfono. El enfoque recomendado es “permitir con control y gobernanza”.

EnfoqueVentajasDesventajas
Bloquear todoMáximo control aparente, simpleFrustración empleados, Shadow AI más oculto, pérdida de productividad
Permitir todoMáxima productividadRiesgo inaceptable de fuga de datos
Permitir con controlEquilibrio productividad-seguridadRequiere inversión en herramientas y procesos

Implicaciones legales en España

Marco normativo aplicable

El Shadow AI intersecta con múltiples normativas españolas y europeas:

NormativaRelevancia para Shadow AI
RGPD (Reglamento UE 2016/679)Transferencias de datos personales a proveedores de IA
LOPDGDD (LO 3/2018)Desarrollo español del RGPD; derechos digitales laborales
AI Act (Reglamento UE 2024/1689)Obligaciones de transparencia y gestión de riesgos de IA
Estatuto de los Trabajadores (RDL 2/2015)Art. 20.3 (monitorización), Art. 20 bis (derechos digitales)
Código Penal (LO 10/1995)Art. 197 (revelación de secretos), Art. 264 (daños informáticos)
Ley 1/2019 de Secretos EmpresarialesProtección de secretos comerciales e información reservada
ENS (RD 311/2022)Esquema Nacional de Seguridad para sector público
Ley 11/2007 de Propiedad IntelectualDerechos sobre obras creadas con o por IA

Artículo 197 del Código Penal y Shadow AI

El artículo 197 CP tipifica el descubrimiento y revelación de secretos:

“El que, para descubrir los secretos o vulnerar la intimidad de otro, sin su consentimiento, se apodere de sus papeles, cartas, mensajes de correo electrónico o cualesquiera otros documentos o efectos personales…”

En el contexto del Shadow AI, un empleado que introduce datos personales de clientes o compañeros en ChatGPT podría estar incurriendo en:

  • Art. 197.1 CP: Acceso a datos personales reservados (pena: 1-4 años de prisión)
  • Art. 197.2 CP: Acceso a datos en ficheros automatizados (pena: 1-4 años de prisión)
  • Art. 197.3 CP: Difusión de datos obtenidos ilícitamente (pena: 2-5 años de prisión)
  • Art. 197.4 bis CP: Si se trata de datos especialmente sensibles (agravante)

Ley de Secretos Empresariales

La Ley 1/2019 transpone la Directiva (UE) 2016/943 sobre protección de secretos comerciales. Para que información se considere “secreto empresarial”, debe cumplir tres requisitos:

  1. Ser secreta (no generalmente conocida ni fácilmente accesible)
  2. Tener valor comercial por ser secreta
  3. Estar sujeta a medidas razonables de protección
Pérdida de protección legal

Si un empleado introduce un secreto comercial en ChatGPT (plan gratuito) y la información se utiliza para entrenamiento del modelo, podría argumentarse que la información ha dejado de ser “secreta” en el sentido legal, extinguiendo la protección de la Ley de Secretos Empresariales. Esto convierte un incidente de Shadow AI en una pérdida permanente e irrecuperable de derechos de propiedad intelectual.

Responsabilidad del empleado y de la empresa

AspectoEmpleadoEmpresa
RGPDPuede ser sancionado disciplinariamenteResponsable como controlador de datos (art. 4.7 RGPD)
Código PenalResponsable penal directoPosible responsabilidad penal de persona jurídica (art. 31 bis CP)
Secretos comercialesResponsabilidad civil y penalPierde protección legal si no adoptó medidas razonables
LaboralDespido disciplinario procedente (art. 54 ET)Debe haber informado previamente de la política
AI ActNo tiene obligaciones directas como usuarioResponsable del cumplimiento como deployer/provider

Despido disciplinario por Shadow AI

La jurisprudencia española permite el despido disciplinario de empleados que violen políticas de seguridad informática. Para que sea procedente, la empresa debe demostrar:

  1. Existencia de política previa: La empresa debe tener una política de uso aceptable de IA que prohíba o regule el uso de estas herramientas, y el empleado debe haberla recibido y firmado
  2. Notificación al empleado: El empleado debe haber sido informado de la monitorización (art. 87 LOPDGDD, criterios STS 119/2018)
  3. Gravedad del incumplimiento: La violación debe ser grave y culpable (art. 54 ET)
  4. Proporcionalidad: La sanción debe ser proporcionada a la falta cometida
  5. Prueba válida: Las evidencias deben haberse obtenido respetando derechos fundamentales

Sentencias relevantes:

SentenciaAsuntoResultado
STS 119/2018Monitorización de email corporativoProcedente si hay política previa y notificación
STC 170/2013Acceso a ordenador de empleadoNulo si no se respeta proporcionalidad
STSJ Madrid 2024Uso no autorizado de herramientas cloudProcedente con política firmada

Estadísticas y tendencias (2024-2026)

Adopción de Shadow AI en empresas

EstadísticaFuenteAño
75% de empleados usan IA generativa en el trabajoGartner2025
40% lo hacen sin aprobación de TIGartner2025
55% de empresas no tienen política de IAMcKinsey2025
11% de datos en prompts son confidencialesCyberhaven2024
27% de empleados usan ChatGPT diariamenteSalesforce2025
68% de CISOs consideran Shadow AI su mayor preocupaciónISACA2025
300+ nuevas herramientas de IA por mesCB Insights2025
83% de empresas han detectado uso no autorizado de IANetskope2025
$4.45M coste medio de brecha de datos (global)IBM2024

Tendencias 2026

  1. Proliferación imparable: El número de herramientas de IA disponibles crece exponencialmente, haciendo imposible el bloqueo manual por dominio
  2. IA en el dispositivo: Modelos locales (Ollama, LM Studio) eliminan la necesidad de conexión a servidores externos, dificultando la detección por red
  3. IA embebida en todo: Cada aplicación SaaS integra funciones de IA, diluyendo la línea entre uso autorizado y Shadow AI
  4. Regulación en vigor: Con el AI Act plenamente aplicable en agosto de 2026, las empresas se enfrentan a sanciones reales por falta de gobernanza
  5. Mercado de gobernanza de IA: Surge un nuevo mercado de herramientas específicas para gestionar y gobernar el uso de IA en la empresa

Papel del perito informático forense

Servicios periciales relacionados con Shadow AI

El perito informático forense puede intervenir en casos de Shadow AI en múltiples escenarios:

EscenarioIntervención del perito
Investigación empresarial internaAnálisis de endpoints y red para identificar qué datos se filtraron y a través de qué herramientas
Despido disciplinarioInforme pericial que documente la violación de la política de seguridad con evidencias técnicas sólidas
Brecha de datos RGPDAnálisis forense para determinar el alcance de la exposición de datos personales y apoyar la notificación a la AEPD
Litigio de propiedad intelectualDemostrar que un secreto comercial fue expuesto a un servicio de IA, cuantificar el impacto
Auditoría de cumplimientoEvaluar el nivel de Shadow AI en la organización y recomendar controles técnicos
Procedimiento penalDocumentar la revelación de secretos (art. 197 CP) o el daño a sistemas (art. 264 CP)

Metodología pericial para Shadow AI

  1. Encargo pericial: Recibir el encargo del cliente (empresa, abogado, juzgado) con la definición clara del objeto de la pericia. Verificar que la investigación respeta los derechos fundamentales del empleado investigado.

  2. Preservación de evidencias: Adquisición forense de los dispositivos del empleado (clonado bit a bit), exportación de logs de red, proxy, firewall y DLP. Todo con cadena de custodia documentada y hashes SHA-256 de verificación.

  3. Análisis de navegación: Examinar el historial del navegador, cookies, localStorage e IndexedDB en busca de accesos a servicios de IA. Recuperar conversaciones almacenadas localmente en el navegador.

  4. Análisis de red: Correlacionar los accesos a servicios de IA con los logs de proxy/firewall. Cuantificar el volumen de datos enviados. Identificar patrones temporales (fecha, hora, frecuencia).

  5. Identificación de datos expuestos: Determinar qué datos específicos fueron introducidos en las herramientas de IA. Clasificar los datos por sensibilidad y normativa aplicable.

  6. Evaluación del impacto: Analizar los términos de servicio del proveedor de IA para determinar si los datos pudieron ser usados para entrenamiento, almacenados, o accedidos por terceros.

  7. Emisión del informe pericial: Redactar un informe pericial completo con metodología, hallazgos, conclusiones y recomendaciones. El informe debe ser comprensible para un tribunal no técnico.

Herramientas forenses específicas

HerramientaUso en Shadow AI
Autopsy / Sleuth KitAnálisis de sistema de archivos, recuperación de datos eliminados
Volatility 3Análisis de memoria RAM (prompts en memoria del navegador)
DB Browser for SQLiteExaminar bases de datos del navegador (historial, cookies)
Wireshark / NetworkMinerAnálisis de capturas de tráfico de red
Hindsight (Chrome forensics)Análisis específico de artefactos de Google Chrome
AXIOM Cyber (Magnet)Adquisición y análisis integral de endpoints y cloud
X-Ways ForensicsAnálisis forense avanzado de discos y sistemas de archivos
Plaso / log2timelineCreación de supertimeline con todos los artefactos

Prevención y mejores prácticas

Para empresas

Nivel organizativo:

  • Crear un comité de gobernanza de IA con representantes de TI, legal, RRHH y negocio
  • Desarrollar y comunicar una política de uso aceptable de IA
  • Incluir la política de IA en el onboarding de nuevos empleados
  • Realizar auditorías periódicas de Shadow AI (trimestral recomendado)
  • Designar “AI Champions” en cada departamento para canalizar necesidades

Nivel técnico:

  • Implementar CASB con categoría específica de IA generativa
  • Configurar DLP para detectar envío de datos sensibles a servicios de IA
  • Desplegar proxy con inspección SSL y categorización de dominios de IA
  • Habilitar SSO corporativo para herramientas de IA aprobadas
  • Monitorizar la instalación de extensiones de navegador

Nivel formativo:

  • Formación obligatoria sobre riesgos de Shadow AI (anual)
  • Simulaciones prácticas (como las simulaciones de phishing, pero para IA)
  • Comunicación regular sobre herramientas aprobadas y sus límites
  • Canal de consulta para empleados que necesiten usar IA

Para empleados

  • Verificar siempre que la herramienta de IA esté aprobada por la empresa
  • No introducir datos personales de clientes, compañeros o proveedores
  • No pegar código fuente de producción ni documentos clasificados
  • Usar únicamente la cuenta corporativa (nunca la personal) para herramientas aprobadas
  • Reportar necesidades de herramientas de IA al departamento correspondiente
  • Anonimizar o pseudonimizar datos antes de usar IA cuando sea posible
  • Los abogados deben verificar que los bufetes tienen políticas de IA para datos de clientes
  • El secreto profesional del abogado (art. 542.3 LOPJ) prohíbe revelar datos del cliente a servicios de IA
  • Los despachos deben evaluar si sus proveedores SaaS han activado funciones de IA sin consentimiento
  • Incluir cláusulas de IA en los contratos de servicios y encargos de tratamiento

Impacto del Shadow AI por sector en España

Sector financiero

RiesgoImpactoEjemplo
Datos de clientes en promptsBrecha RGPD + pérdida de confianzaAnalista que sube carteras de inversión a ChatGPT
Modelos de riesgo generados por IADecisiones de crédito no auditablesUso de IA para scoring sin validación del regulador
Información privilegiadaDelito de abuso de mercado (MAR)Analista que introduce datos no públicos de empresas cotizadas
Incumplimiento DORASanción regulatoriaUso de IA no registrada como proveedor TIC crítico

Sector sanitario

RiesgoImpactoEjemplo
Datos de pacientesBrecha de datos de categoría especial (art. 9 RGPD)Médico que sube historial clínico a IA para diagnóstico diferencial
Decisiones clínicas con IA no validadaResponsabilidad médicaProfesional que sigue recomendación de ChatGPT sin verificar
Datos de ensayos clínicosPérdida de IP + incumplimiento regulatorioInvestigador que analiza datos experimentales con IA externa

Sector educativo

RiesgoImpactoEjemplo
Datos de menoresProtección especial LOPDGDD + RGPDProfesor que sube trabajos de alumnos menores a IA para corrección
Evaluaciones generadas por IAResponsabilidad académicaNotas basadas en análisis de IA no validado
Investigación académicaPlagio, integridad científicaInvestigador que genera contenido con IA sin declararlo

Sector público

RiesgoImpactoEjemplo
Datos de ciudadanosBrecha RGPD + ENSFuncionario que usa ChatGPT para redactar resoluciones con datos personales
Decisiones administrativasNulidad del acto administrativoUso de IA para resolver expedientes sin supervisión humana
Información clasificadaRiesgo para la seguridad nacionalPersonal de defensa que usa IA externa con información reservada

Comparativa internacional de regulación del Shadow AI

País/RegiónEnfoque regulatorioEstado
UE (AI Act + RGPD)Regulación integral por riesgo + protección de datosEn vigor (escalonado hasta ago 2026)
España (AESIA)Supervisión nacional del AI Act + LOPDGDDAESIA operativa en A Coruña
EE.UU.Orden ejecutiva Biden (revocada por Trump) + regulación estatalFragmentada; sin ley federal
Reino UnidoEnfoque pro-innovación, regulación sectorialMás flexible que la UE
ChinaRegulación estricta de IA generativa (obligación de registro)Aplicación activa
JapónGuidelines no vinculantes + APPIEnfoque flexible
BrasilLGPD + Marco Civil da Internet + proyecto de ley IAEn tramitación

Glosario de términos relacionados

TérminoDefinición
CASBCloud Access Security Broker — intermediario de seguridad para servicios cloud
DLPData Loss Prevention — prevención de fuga de datos
UEBAUser Entity Behavior Analytics — análisis de comportamiento de usuarios
DPIAData Protection Impact Assessment — evaluación de impacto en protección de datos
AUPAcceptable Use Policy — política de uso aceptable
BYODBring Your Own Device — uso de dispositivos personales en el trabajo
SSOSingle Sign-On — inicio de sesión único
EDREndpoint Detection and Response — detección y respuesta en endpoints
IA generativaInteligencia artificial capaz de crear contenido nuevo (texto, imagen, código)
LLMLarge Language Model — modelo de lenguaje de gran escala
PromptInstrucción o consulta enviada a un modelo de IA
RAGRetrieval-Augmented Generation — generación aumentada con recuperación

Preguntas frecuentes adicionales

¿Puede un empleado ser despedido por usar ChatGPT en el trabajo?

Sí, si la empresa tiene una política clara que prohíbe o restringe el uso de herramientas de IA no autorizadas, y el empleado la incumple de forma grave. El despido disciplinario estaría amparado por el artículo 54.2.d) del Estatuto de los Trabajadores (transgresión de la buena fe contractual) o el artículo 54.2.b) (indisciplina o desobediencia). Es imprescindible que la política exista previamente, que el empleado la conozca y que la infracción sea grave.

¿Qué ocurre si un empleado filtra datos de clientes a ChatGPT sin darse cuenta?

Aunque la intención no sea maliciosa, la empresa sigue siendo responsable ante el RGPD. Debe evaluar si la filtración constituye una brecha de seguridad notificable a la AEPD (artículo 33 RGPD) y, en caso afirmativo, notificar en un plazo de 72 horas. La empresa puede reclamar internamente al empleado, pero frente a la AEPD y los afectados, la responsabilidad es de la organización.

¿Pueden los datos introducidos en ChatGPT ser eliminados?

Depende del plan y del proveedor. OpenAI permite solicitar la eliminación de datos en planes de pago, y ChatGPT Enterprise no utiliza datos para entrenamiento. Sin embargo, en planes gratuitos, los datos pueden haber sido ya procesados para entrenamiento antes de la solicitud de eliminación, lo que hace la recuperación efectivamente imposible.

¿El uso de modelos de IA locales (Ollama, LM Studio) elimina el riesgo de Shadow AI?

Reduce el riesgo de transferencia de datos a terceros, pero no elimina otros riesgos: los modelos locales consumen recursos corporativos, pueden contener vulnerabilidades, generan salidas no gobernadas, y el empleado sigue operando fuera del marco de gobernanza de la empresa. Además, la descarga de modelos de gran tamaño puede violar políticas de uso de ancho de banda y almacenamiento.

¿Cómo afecta el Shadow AI a las certificaciones ISO 27001 y ENS?

El uso no controlado de IA generativa puede suponer un incumplimiento de varios controles de ISO 27001:2022 (A.5.10 Uso aceptable de información, A.5.12 Clasificación de información, A.8.11 Enmascaramiento de datos) y del ENS (medidas de protección de la información). En una auditoría de certificación, la falta de gobernanza de IA podría resultar en no conformidades mayores.

Casos prácticos de investigación forense de Shadow AI

Caso 1: Empresa tecnológica — fuga de código fuente

Escenario: Una empresa de desarrollo de software de Barcelona detecta que fragmentos de su código fuente propietario aparecen en respuestas de ChatGPT a usuarios externos. La empresa contrata a un perito informático forense para investigar.

Investigación:

FaseHallazgo
Análisis de proxy3 desarrolladores accedieron a chat.openai.com más de 200 veces en 2 meses
Volumen de datosSe enviaron más de 15 MB de datos (upload) a OpenAI — equivalente a miles de líneas de código
Análisis de endpointEl localStorage del navegador de un desarrollador contenía conversaciones con fragmentos de código del repositorio privado
Correlación temporalLos accesos a ChatGPT coincidían con commits en el repositorio interno (el desarrollador pedía a ChatGPT que revisara su código antes de subirlo)

Resultado: La empresa pudo documentar la fuga de propiedad intelectual, implementar controles DLP y despedir disciplinariamente a los empleados que violaron la política de seguridad (que habían firmado). El informe pericial fue clave para demostrar la gravedad de la filtración.

Caso 2: Despacho de abogados — datos de clientes en IA

Escenario: Un abogado de un despacho de Madrid utiliza Claude para resumir y analizar documentación de un caso de divorcio con custodia de menores. La documentación contiene datos personales sensibles de ambos cónyuges y de los menores.

Riesgos identificados:

  • Violación del secreto profesional del abogado (art. 542.3 LOPJ)
  • Transferencia internacional de datos personales sensibles sin base legal
  • Datos de menores procesados por un encargado no autorizado
  • Posible sanción de la AEPD por brecha de datos personales

Intervención pericial: El perito documentó los accesos a servicios de IA desde el equipo del abogado, identificó los datos concretos que fueron introducidos (mediante análisis del localStorage del navegador), y emitió un informe que sirvió para la notificación preventiva a la AEPD y la implementación de controles en el despacho.

Caso 3: Empresa industrial — secreto comercial comprometido

Escenario: Un ingeniero de una empresa farmacéutica de Valencia introduce en Gemini la fórmula de un medicamento en fase de desarrollo para que la IA le ayude a optimizar el proceso de fabricación.

Consecuencias legales potenciales:

NormativaConsecuencia
Ley de Secretos EmpresarialesPosible extinción de la protección legal del secreto si se considera divulgado
RGPDSi la fórmula se relacionaba con ensayos clínicos con datos de pacientes
Propiedad industrialRiesgo de invalidación de patentes en trámite por divulgación anticipada
Código Penal art. 278Posible delito de revelación de secretos de empresa

Checklist de auditoría de Shadow AI para empresas

Evaluación rápida (30 minutos)

PreguntaSí/NoAcción si “No”
¿Existe una política de uso de IA aprobada?Redactar y aprobar inmediatamente
¿Los empleados han firmado la política?Distribuir y obtener firmas
¿Se monitoriza el tráfico a servicios de IA?Configurar proxy/CASB
¿Se ha realizado una DPIA para herramientas de IA aprobadas?Iniciar DPIA con DPO
¿Existe formación sobre riesgos de Shadow AI?Planificar sesión formativa
¿Hay un proceso de aprobación para nuevas herramientas de IA?Diseñar proceso con TI y Legal
¿Se audita periódicamente el uso de IA no autorizada?Programar auditoría trimestral
¿El DPO está involucrado en la gobernanza de IA?Incluir al DPO en el comité de IA
¿Se registran las herramientas de IA en el RAT (Registro de Actividades de Tratamiento)?Actualizar el RAT
¿Existe un plan de respuesta a incidentes de Shadow AI?Desarrollar playbook específico

Evaluación técnica detallada (1-2 días)

  1. Revisar logs de proxy/firewall de los últimos 90 días en busca de conexiones a dominios de IA
  2. Inventariar extensiones de navegador instaladas en endpoints corporativos
  3. Verificar si hay aplicaciones de IA de escritorio instaladas en equipos corporativos
  4. Analizar el tráfico DNS en busca de consultas a dominios de servicios de IA
  5. Revisar las aplicaciones OAuth autorizadas en Google Workspace o Microsoft 365
  6. Verificar las integraciones de terceros en herramientas SaaS corporativas (Slack, Teams, Notion)
  7. Comprobar si algún empleado ha registrado API keys de servicios de IA con su email corporativo
  8. Evaluar la configuración de DLP para detectar envíos a servicios de IA
  9. Verificar las políticas de Conditional Access para detectar sesiones anómalas
  10. Documentar todos los hallazgos y priorizar las acciones de remediación

Referencias y fuentes

  • Reglamento (UE) 2016/679 (RGPD) — Protección de datos personales en la Unión Europea
  • Reglamento (UE) 2024/1689 (AI Act) — Regulación de la inteligencia artificial en la UE
  • Ley Orgánica 3/2018 (LOPDGDD) — Ley Orgánica de Protección de Datos y garantía de los derechos digitales
  • Ley 1/2019 de Secretos Empresariales — Transposición de la Directiva (UE) 2016/943
  • Código Penal (LO 10/1995) — Artículos 197, 264 y 31 bis
  • Gartner (2025) — “Predicts 2025: AI Governance Will Become a Business Imperative”
  • Cyberhaven Labs (2024) — “How Employees Are Using Generative AI — and What Data They’re Sharing”
  • Netskope Threat Labs (2025) — “Cloud and Threat Report: AI Apps in the Enterprise”
  • Samsung Electronics (2023) — Incidentes de filtración de código fuente a ChatGPT (The Economist Korea, Bloomberg)
  • NIST AI RMF 1.0 (2024) — Marco de gestión de riesgos de inteligencia artificial
  • ISACA (2025) — “State of AI Governance Survey”
  • IBM Security (2024) — “Cost of a Data Breach Report 2024”
  • AEPD — Guía sobre tratamientos de datos y uso de inteligencia artificial

Conclusión

El Shadow AI representa uno de los mayores desafíos de seguridad y cumplimiento normativo para las empresas en 2025-2026. A diferencia del Shadow IT tradicional, donde el riesgo principal era la pérdida de control sobre los datos almacenados, el Shadow AI implica la transferencia activa de datos sensibles a terceros cada vez que un empleado introduce un prompt en un servicio de IA no gobernado.

La combinación del RGPD (con sanciones de hasta el 4% de la facturación global), el AI Act (hasta el 7%) y la Ley de Secretos Empresariales crea un marco legal en el que la falta de gobernanza de la IA puede resultar en pérdidas millonarias — tanto económicas como de propiedad intelectual irrecuperable.

La solución no pasa por prohibir la IA generativa, sino por gobernarla: políticas claras, herramientas técnicas de control, formación continua y un proceso de aprobación ágil que permita a los empleados beneficiarse de la IA sin comprometer los activos de la organización.

Para los casos en que la prevención falla, el perito informático forense es un aliado esencial: puede investigar el alcance de la exposición, documentar las evidencias para procedimientos disciplinarios o judiciales, y asesorar sobre medidas de remediación técnica.

Última actualización: 30 de marzo de 2026 Categoría: Gestión de Riesgos Código: GES-015

Preguntas Frecuentes

¿Qué es Shadow AI y por qué es peligroso para las empresas?

Shadow AI es el uso no autorizado de herramientas de inteligencia artificial (ChatGPT, Claude, Gemini, etc.) por parte de empleados sin conocimiento ni aprobación de la empresa. Es peligroso porque los datos introducidos en estas herramientas pueden incluir código fuente, datos de clientes, estrategias comerciales o información financiera confidencial, exponiéndolos a terceros sin control.

¿Cómo puede un perito informático investigar incidentes de Shadow AI?

El perito analiza logs de navegación (proxy/firewall), registros DNS, historial del navegador, portapapeles del sistema, registros DLP, tráfico de red hacia dominios de servicios de IA, y metadatos de archivos. También puede examinar extensiones de navegador y aplicaciones de escritorio que integren modelos de IA.

¿Es legal que los empleados usen ChatGPT con datos de la empresa?

Depende de la política interna y del tipo de datos. Si se introducen datos personales protegidos por el RGPD, puede constituir una transferencia internacional no autorizada (los servidores de OpenAI están en EE.UU.). La empresa podría enfrentarse a sanciones de la AEPD, y el empleado a responsabilidades disciplinarias y penales según el artículo 197 del Código Penal.

¿Qué medidas técnicas pueden detectar el Shadow AI en una empresa?

Las principales medidas son: sistemas DLP (Data Loss Prevention) configurados para detectar envíos a dominios de IA, CASB (Cloud Access Security Broker) para monitorizar SaaS no aprobados, filtrado DNS/proxy para bloquear o alertar sobre accesos a api.openai.com y similares, y soluciones UEBA (User Entity Behavior Analytics) que detecten patrones anómalos de uso.

¿Qué caso real de filtración de datos por Shadow AI es más conocido?

El caso más documentado es el de Samsung Semiconductor en mayo de 2023, donde ingenieros introdujeron código fuente propietario y actas de reuniones confidenciales en ChatGPT. Samsung descubrió al menos tres incidentes en menos de un mes, lo que llevó a la empresa a prohibir completamente el uso de herramientas de IA generativa y a desarrollar su propia solución interna.

¿Necesitas un peritaje forense?

Si necesitas ayuda profesional con análisis forense digital, estoy aquí para ayudarte.

Solicitar Consulta Gratuita
Jonathan Izquierdo

Jonathan Izquierdo · Perito Forense

+15 años experiencia · AWS Certified

WhatsApp