· Jonathan Izquierdo · Noticias seguridad ·
TikTok como prueba judicial y la prohibición a menores en España (2026)
Cómo se certifica TikTok para un juicio, qué cambia la prohibición de redes sociales a menores de 16 años y los desafíos forenses únicos de ByteDance.

Pedro Sánchez anunció el 3 de febrero de 2026, durante la Cumbre sobre Inteligencia Artificial de Dubái, la prohibición del acceso de menores de 16 años a las redes sociales en España. Como perito informático forense que certifica pruebas de TikTok para procedimientos judiciales, te puedo asegurar una cosa: esta prohibición cambia muchas cosas en el ámbito legal, pero no simplifica en absoluto el trabajo forense. Si acaso, lo complica.
Llevo años analizando contenido de TikTok para juicios: vídeos de ciberacoso entre adolescentes, retos virales que acaban en lesiones, contenido de menores explotado por adultos, difamación empresarial, y un largo etcétera que no deja de crecer. TikTok es, con diferencia, la plataforma más difícil de peritar desde el punto de vista técnico. No es Instagram, no es WhatsApp, y desde luego no es Facebook. Es una criatura completamente distinta, con sus propios desafíos forenses y sus propias trampas legales.
En este artículo voy a explicarte tres cosas: cómo funciona el peritaje forense de TikTok en la práctica real, qué implica la nueva prohibición para los casos judiciales que involucran menores, y por qué ByteDance es la empresa tecnológica más difícil con la que he tenido que lidiar en requerimientos judiciales.
¿Necesitas certificar pruebas de TikTok para un juicio?
Consulta nuestro servicio de peritaje de redes sociales con experiencia específica en TikTok, Instagram y otras plataformas. Consulta gratuita y presupuesto sin compromiso. También disponible para WhatsApp.
TL;DR - Lo esencial en 60 segundos
| Dato clave | Detalle |
|---|---|
| La prohibición | Menores de 16 años no podrán acceder a redes sociales en España (anuncio 3 Feb 2026) |
| Estado legislativo | Proyecto de Ley de Protección de Menores en Entornos Digitales en tramitación |
| Qué se puede certificar en TikTok | Vídeos, duetos, stitches, lives, DMs, perfil, comentarios, likes, compartidos |
| Mayor desafío forense | Datos en servidores de ByteDance (China/Singapur), cooperación limitada con juzgados europeos |
| Requerimiento judicial | Vía formulario Law Enforcement de ByteDance; plazos 60-120 días (más lento que Meta) |
| Precedente Australia | Online Safety Amendment Act 2024: prohibición a menores de 16, en vigor desde noviembre 2025 |
| Precio orientativo | Desde 500 EUR (vídeo simple) hasta 1.500 EUR (perfil completo + DMs + lives) |
| Marco legal | LO 8/2021, RGPD art. 8, Código Penal, AI Act (algoritmos de recomendación) |
La prohibición: qué ha anunciado el Gobierno de España
El anuncio de Dubái (3 de febrero de 2026)
El presidente del Gobierno, Pedro Sánchez, anunció en la Cumbre sobre Inteligencia Artificial de Dubái un paquete de medidas para la protección de los menores en el entorno digital que incluye, como medida estrella, la prohibición del acceso de menores de 16 años a las redes sociales.
Según la información publicada por La Moncloa y recogida por medios como El País, El Mundo y elDiario.es, las medidas anunciadas incluyen:
Prohibición de acceso a redes sociales para menores de 16 años: las plataformas deberán implementar sistemas efectivos de verificación de edad.
Obligación de verificación de edad para las plataformas: TikTok, Instagram, YouTube, Snapchat, Twitch y demás redes sociales deberán verificar la edad real de sus usuarios, no solo una declaración del usuario.
Régimen sancionador reforzado: multas significativas para las plataformas que no cumplan con la verificación de edad.
Educación digital obligatoria: inclusión de contenidos sobre uso seguro de internet y redes sociales en el currículum escolar.
Protocolo de actuación para centros educativos: guía de respuesta ante casos de ciberacoso y uso problemático de redes sociales por menores.
Estado legislativo actual
A fecha de marzo de 2026, el Proyecto de Ley de Protección de Menores en Entornos Digitales se encuentra en tramitación parlamentaria. La LO 8/2021 de protección integral a la infancia y la adolescencia frente a la violencia ya estableció un marco general, pero no incluía una prohibición explícita del acceso a redes sociales.
El RGPD, en su artículo 8, establece que para el tratamiento de datos de menores de 16 años (o 14, según cada Estado miembro) se requiere el consentimiento del titular de la patria potestad. España fijó la edad en 14 años mediante la LOPDGDD (art. 7). El nuevo proyecto de ley eleva efectivamente esta barrera al prohibir directamente el acceso, no solo el tratamiento de datos.
Implicación para el peritaje forense
La prohibición no es retroactiva. Los millones de vídeos, comentarios y mensajes de TikTok generados por menores españoles antes de la entrada en vigor de la ley seguirán existiendo como potenciales pruebas judiciales. Y los menores que vulneren la prohibición (algo inevitable, como demuestra el precedente australiano) seguirán generando contenido que puede ser relevante en procedimientos judiciales.
TikTok como plataforma forense: desafíos únicos
TikTok no es una red social cualquiera. Desde la perspectiva del perito informático forense, presenta características que la hacen singular y, en muchos aspectos, más difícil de analizar que cualquier otra plataforma.
El algoritmo “For You” y la distribución masiva
El algoritmo de recomendación de TikTok es, posiblemente, el más potente y opaco de todas las redes sociales. Un vídeo publicado por una cuenta con cero seguidores puede alcanzar millones de visualizaciones en cuestión de horas si el algoritmo decide promocionarlo. Esto tiene consecuencias forenses directas:
Cuantificación del daño: en casos de difamación o acoso, el alcance del contenido puede ser exponencialmente mayor que en otras plataformas. He certificado vídeos difamatorios en TikTok que acumularon 500.000 visualizaciones en 48 horas, publicados desde cuentas con menos de 100 seguidores.
Viralidad impredecible: un vídeo puede pasar de 50 visualizaciones a 5 millones en cuestión de horas. Esto complica la evaluación del daño porque el impacto crece de forma no lineal.
Efecto amplificador del acoso: cuando un vídeo de ciberacoso se vuelve viral en TikTok, la víctima no solo sufre el acoso del autor original, sino el de miles de desconocidos que se suman. He visto casos donde los comentarios agresivos en un vídeo viral superaban los 10.000, y cada uno de ellos era potencialmente un acto de acoso adicional.
Duetos, stitches y la cadena de derivación
Las funciones de dueto (grabar un vídeo junto al de otro usuario) y stitch (recortar y usar un fragmento del vídeo de otro usuario) crean cadenas de contenido derivado que presentan desafíos forenses particulares:
Atribución de responsabilidad: si el usuario A publica un vídeo y el usuario B hace un dueto añadiendo comentarios difamatorios, ¿quién es responsable del daño? ¿Solo B, o también A si no retira su parte del dueto?
Propagación en cascada: un stitch puede generar otro stitch, que genera otro, creando una cadena de contenido derivado donde el contenido original se descontextualiza progresivamente.
Preservación de la prueba: certificar un dueto o stitch requiere preservar no solo el vídeo derivado, sino también el vídeo original, para demostrar la relación entre ambos y el contexto de la creación.
Lives de TikTok
Los directos de TikTok son otro quebradero de cabeza forense. TikTok permite a los usuarios emitir en directo e interactuar con su audiencia en tiempo real. Los problemas:
- Efímeros por defecto: los lives desaparecen cuando la emisión termina, a menos que el usuario los guarde explícitamente.
- Regalos virtuales y monetización: los espectadores pueden enviar “regalos” virtuales que se convierten en dinero real. He peritado casos donde adultos enviaban regalos a menores que emitían contenido inapropiado, lo que constituye una forma de explotación.
- Interacción en tiempo real: los comentarios durante un live desaparecen con él, lo que dificulta documentar amenazas o acoso que ocurrieron durante la emisión.
El factor China: jurisdicción y acceso a datos
Y aquí llegamos al elefante en la habitación. TikTok es propiedad de ByteDance, una empresa con sede en Pekín (China). Aunque ByteDance ha establecido centros de datos en Irlanda y Singapur para los usuarios europeos (proyecto “Project Clover”), la realidad operativa es que:
- Los datos de usuarios europeos están (o han estado) almacenados parcialmente en servidores en China.
- ByteDance está sujeta a la legislación china de inteligencia nacional, que obliga a las empresas a cooperar con los servicios de inteligencia del gobierno chino.
- La cooperación de ByteDance con requerimientos judiciales europeos es significativamente más lenta y limitada que la de Meta (Instagram/Facebook) o Google (YouTube).
Esto no es teoría. En mi práctica, he experimentado en primera persona la diferencia:
| Aspecto | Meta (Instagram/Facebook) | ByteDance (TikTok) |
|---|---|---|
| Plazo medio de respuesta | 30-60 días | 60-120 días |
| Tasa de cumplimiento | Superior al 80% | Inferior al 60% (según mi experiencia) |
| Datos proporcionados | Completos (cuenta, IPs, contenido, metadatos) | Parciales (a menudo sin IPs o con datos incompletos) |
| Portal de requerimientos | Bien estructurado y funcional | Menos maduro, respuestas genéricas frecuentes |
| Idioma de comunicación | Inglés fluido, respuestas claras | Inglés a veces impreciso, respuestas ambiguas |
| Cooperación en emergencias | Protocolo de emergencia 24h | Protocolo existente pero menos ágil |
Qué se puede certificar en TikTok
Elementos certificables con metodología forense
1. Vídeos publicados
El contenido principal de TikTok. Cada vídeo tiene:
- URL permanente (
tiktok.com/@usuario/video/XXXXXXXXXXX) - Contenido visual y de audio: el vídeo completo con su audio original, música añadida y efectos
- Texto superpuesto: títulos, subtítulos y texto que el usuario añade al vídeo
- Descripción (caption): texto que acompaña al vídeo, incluyendo hashtags y menciones
- Fecha y hora de publicación
- Métricas públicas: visualizaciones, likes, comentarios, compartidos, guardados
2. Duetos y stitches
Los duetos (pantalla dividida con otro vídeo) y los stitches (fragmento del vídeo de otro usuario seguido de contenido propio) son especialmente relevantes en casos de:
- Ciberacoso: ridiculizar o atacar a alguien usando su propio vídeo
- Difamación: añadir comentarios falsos o humillantes a un vídeo ajeno
- Propiedad intelectual: usar contenido de terceros sin autorización
Para certificarlos, preservo tanto el vídeo derivado como el original, documentando la relación entre ambos.
3. Comentarios
Los comentarios en TikTok pueden ser especialmente virulentos debido a la cultura de la plataforma. Certifico:
- El texto del comentario
- El autor (nombre de usuario, perfil vinculado)
- La fecha y hora
- El contexto (a qué vídeo corresponde, si es respuesta a otro comentario)
- Los “likes” del comentario (que indican el grado de apoyo de otros usuarios)
4. Mensajes directos (DMs)
TikTok permite enviar mensajes directos entre usuarios. Los DMs de TikTok presentan las mismas limitaciones que los de Instagram: almacenamiento servidor-side, cifrado, función de eliminación. La metodología de certificación es similar a la descrita para Instagram.
5. Perfiles completos
En casos de suplantación de identidad, cuentas que difunden contenido ilegal o investigaciones sobre la identidad del operador de una cuenta, certifico el perfil completo:
- Nombre de usuario y nombre para mostrar
- Biografía
- Foto/vídeo de perfil
- Número de seguidores, seguidos, likes totales
- Listado de vídeos publicados
- Verificación (si tiene marca azul o no)
6. Lives (si se capturan en tiempo real)
Como ya he explicado, los lives solo pueden certificarse si se capturan durante la emisión. Para clientes que sospechan que van a ser acosados durante un live de otra persona, configuro un sistema de monitorización y captura automática.
Comparativa forense: TikTok vs Instagram vs YouTube Shorts
| Aspecto | TikTok | Instagram Reels | YouTube Shorts |
|---|---|---|---|
| Propietario | ByteDance (China) | Meta (EE.UU./Irlanda) | Google (EE.UU./Irlanda) |
| Cooperación judicial | Limitada, lenta | Buena, estandarizada | Buena, estandarizada |
| API pública | Limitada (solo lectura básica) | Graph API (con restricciones) | YouTube Data API v3 (robusta) |
| Descarga de datos | Sí (Settings → Privacy → Download Data) | Sí (Settings → Download Information) | Sí (Google Takeout) |
| Duración máxima | 10 minutos | 90 segundos | 60 segundos |
| Contenido efímero | Stories (24h, poco usadas) | Stories (24h, muy usadas) | No tiene |
| Extracción forense local | Limitada | Limitada | Limitada |
| Metadatos disponibles | Básicos (fecha, dispositivo) | Moderados (fecha, dispositivo, ubicación) | Completos (fecha, dispositivo, canal, API) |
| Identificación del autor | Difícil sin requerimiento | Moderada (requerimiento a Meta) | Más fácil (cuenta Google vinculada) |
| Jurisdicción de datos | China/Singapur/Irlanda | Irlanda (UE) | Irlanda (UE) |
Proceso forense para certificar pruebas de TikTok
Paso 1: Evaluación y triaje
El primer paso es siempre evaluar qué tipo de contenido necesitamos certificar y su urgencia:
- Urgencia alta: lives en curso, vídeos que pueden ser eliminados inmediatamente, cuentas en riesgo de cierre
- Urgencia media: vídeos publicados recientemente, comentarios activos
- Urgencia baja: perfiles estables, vídeos con semanas o meses de antigüedad
Para TikTok, mi experiencia indica que los vídeos tienden a permanecer publicados más tiempo que en Instagram (donde la cultura de “borrar y resubir” es más común), pero las cuentas tienen una tasa de cierre por violación de normas comunitarias más alta.
Paso 2: Preservación inmediata
Para vídeos públicos:
- Acceso al vídeo desde navegador web (no desde la app, que dificulta la captura de metadatos HTTP)
- Captura completa con herramienta forense: URL, headers HTTP, fecha/hora del servidor, cookies de sesión
- Descarga del vídeo en su calidad original (cuando es posible) usando herramientas autorizadas
- Screenshot del vídeo con contexto: perfil del autor, fecha, métricas, comentarios principales
- Hash SHA-256 de todos los archivos generados
- Registro de cadena de custodia
Para DMs:
- Grabación de pantalla completa del dispositivo mientras se navega por la conversación
- Captura de cada mensaje individualmente con timestamp visible
- Descarga de datos de TikTok (Settings → Privacy → Download Your Data → seleccionar JSON)
- Extracción forense del dispositivo si es necesario (Cellebrite UFED, Oxygen)
Para lives en curso:
- Grabación de pantalla completa con audio
- Captura de screenshots a intervalos regulares
- Documentación de los participantes visibles y los regalos enviados
- Registro de la hora de inicio y fin de la emisión
Paso 3: Descarga de datos de TikTok
TikTok ofrece a los usuarios la posibilidad de descargar sus datos personales. El proceso es:
- Abrir TikTok → Configuración y privacidad → Privacidad → Descargar tus datos
- Seleccionar formato JSON (más completo y analizable que el formato de archivo TXT)
- Seleccionar las categorías de datos a descargar:
- Perfil
- Actividad de publicación (vídeos, comentarios, likes)
- Mensajes directos
- Historial de navegación y búsquedas
- Información de inicio de sesión (dispositivos, IPs)
- Historial de compras y regalos
- TikTok procesa la solicitud en 1-3 días y envía una notificación cuando el archivo está listo
El archivo resultante contiene información valiosa desde el punto de vista forense, especialmente:
- Historial de inicio de sesión: fechas, horas, IPs, dispositivos
- Actividad de vídeos: todos los vídeos publicados con timestamps
- Historial de DMs: mensajes enviados y recibidos con metadatos
- Datos de interacción: likes, comentarios, compartidos
Paso 4: Análisis forense
El análisis depende del tipo de caso, pero los elementos comunes incluyen:
- Verificación de autenticidad: comprobación de que los datos descargados coinciden con el contenido visible en la plataforma, análisis de coherencia temporal, búsqueda de inconsistencias
- Análisis de metadatos: fechas de publicación, dispositivos utilizados, IPs de conexión (cuando están disponibles)
- Análisis de contenido: transcripción de audio, descripción de contenido visual, identificación de personas, lugares y circunstancias
- Correlación temporal: secuenciación de eventos, identificación de patrones de comportamiento
- Análisis de alcance: documentación de visualizaciones, likes, comentarios y compartidos para cuantificar el impacto
Paso 5: Elaboración del informe pericial
El informe pericial para pruebas de TikTok sigue la misma estructura estándar (conforme a la norma UNE 197001), pero con secciones específicas:
- Explicación del funcionamiento de TikTok: para que el juez entienda qué es un dueto, un stitch, el algoritmo For You, etc.
- Análisis de alcance y viralidad: cuantificación del daño basada en métricas de la plataforma
- Limitaciones jurisdiccionales: explicación de las dificultades de obtener datos de ByteDance
- Cadena de custodia: especialmente detallada dada la volatilidad del contenido
Paso 6: Ratificación judicial
Ratificar un informe pericial de TikTok ante el tribunal requiere una preparación adicional respecto a otras plataformas: necesito explicar a jueces y abogados conceptos que muchos desconocen (algoritmo For You, duetos, stitches, regalos virtuales, la estructura corporativa de ByteDance). He aprendido que dedicar los primeros minutos de la ratificación a esta contextualización técnica marca la diferencia en la comprensión del informe.
Requerimiento judicial a ByteDance: la realidad
El proceso formal
ByteDance dispone de un portal de requerimientos legales para autoridades judiciales y fuerzas de seguridad. El proceso teórico es:
- El abogado solicita al juzgado que libre oficio a ByteDance
- El juzgado emite el requerimiento dirigido a:
- TikTok Technology Limited (para usuarios de la UE)
- A través del formulario de Law Enforcement
- ByteDance evalúa la solicitud conforme a su política interna y a la normativa aplicable
- ByteDance entrega los datos o deniega la solicitud
La realidad práctica
En mi experiencia con requerimientos judiciales a ByteDance, la realidad es bastante diferente del proceso teórico:
Plazos: Mientras Meta suele responder en 30-60 días, ByteDance rara vez responde en menos de 60 días. He tenido casos donde la respuesta tardó más de 120 días, lo cual es problemático cuando se está instruyendo un procedimiento penal con plazos procesales.
Calidad de las respuestas: Las respuestas de ByteDance suelen ser menos completas que las de Meta. En varios casos, los datos proporcionados estaban incompletos (faltaban IPs de acceso, datos de dispositivo insuficientes) y las solicitudes de aclaración generaban respuestas genéricas.
Datos de menores: Paradójicamente, ByteDance es más restrictiva en la entrega de datos cuando el usuario investigado es menor de edad, citando protecciones adicionales bajo la legislación de protección de menores. Esto crea situaciones absurdas donde no podemos obtener los datos necesarios para proteger a una víctima menor porque el acosador también es menor.
Jurisdicción: Los datos almacenados en servidores chinos o singapurenses pueden requerir una comisión rogatoria internacional, lo que multiplica los plazos y la complejidad. El MLAT (Mutual Legal Assistance Treaty) entre España y China es limitado y lento.
Consejo práctico para abogados
Siempre que sea posible, combine el requerimiento judicial a ByteDance con la obtención de pruebas por otras vías: descarga de datos del propio cliente, captura certificada de contenido público, análisis OSINT. No dependa exclusivamente de la cooperación de ByteDance porque los plazos y la calidad de la respuesta son impredecibles.
Impacto de la prohibición en el peritaje forense
La prohibición de redes sociales a menores de 16 años tendrá consecuencias directas en mi trabajo como perito. Estas son las que ya anticipo:
1. Pruebas de menores que usaban TikTok “ilegalmente”
Cuando la ley entre en vigor, los menores de 16 años que hayan estado usando TikTok lo habrán hecho en violación de la normativa. Esto plantea preguntas legales interesantes:
- ¿Son admisibles como prueba los vídeos y mensajes de un menor que accedió a TikTok vulnerando la prohibición?
- ¿Puede la defensa alegar que las pruebas se obtuvieron de una actividad ilícita (acceso de un menor a una plataforma prohibida)?
- ¿Afecta la ilicitud del acceso a la validez probatoria del contenido?
Mi interpretación, compartida con abogados penalistas con los que colaboro habitualmente, es que la prohibición afecta al acceso del menor, no a la validez probatoria del contenido generado. Es decir, que un menor accediera ilegalmente a TikTok no invalida las pruebas de que fue acosado a través de esa plataforma, del mismo modo que conducir sin carné no invalida la grabación de una dashcam que documenta un accidente.
2. Verificación de edad como prueba
Los sistemas de verificación de edad que deberán implementar las plataformas generarán nuevos datos forenses:
- Intentos de verificación: registros de intentos fallidos de verificación de edad pueden demostrar que un menor intentó acceder a la plataforma
- Documentos de identidad: si la verificación requiere DNI o pasaporte, los datos de verificación serán una nueva fuente de información forense
- Métodos de elusión: los menores que logren eludir la verificación (usando documentos de un adulto, por ejemplo) habrán cometido una infracción adicional que puede ser relevante en determinados procedimientos
3. Responsabilidad parental
La prohibición refuerza la responsabilidad de los padres y tutores. En el ámbito forense, esto significa:
- Acceso con consentimiento parental: si un menor accede a TikTok con el conocimiento y consentimiento de sus padres (que proporcionaron su identificación para la verificación), la responsabilidad por el uso que haga el menor recae también sobre los padres
- Negligencia parental digital: un menor que accede a TikTok sin supervisión y sufre ciberacoso puede generar una reclamación contra los padres por negligencia, especialmente si la prohibición ya estaba en vigor
4. Contenido histórico
Todo el contenido generado por menores españoles en TikTok antes de la entrada en vigor de la prohibición seguirá existiendo en los servidores de ByteDance. Este contenido puede ser relevante como prueba en procedimientos futuros. La pregunta es: ¿obligará la ley a ByteDance a eliminar retroactivamente los datos de menores españoles?
Según los principios generales del RGPD y la LOPDGDD, los datos de menores tratados sin consentimiento válido (los de menores de 14 años que se registraron sin consentimiento parental) ya son ilegales bajo la normativa actual. La nueva ley elevará esa edad a 16, pero la realidad es que ByteDance no ha eliminado proactivamente esos datos ni bajo la legislación actual.
Casos donde TikTok es prueba clave
Caso 1: Ciberacoso escolar viral
Contexto: Un grupo de alumnos de 14 años grabó un vídeo ridiculizando a una compañera de clase, imitando sus gestos y su forma de hablar. El vídeo se publicó en TikTok y en 48 horas acumuló más de 200.000 visualizaciones. Cientos de comentarios agresivos se sumaron al acoso. La víctima dejó de asistir al centro educativo.
Desafío forense: Cuando me contactaron, el vídeo ya llevaba tres días publicado y tenía más de 3.000 comentarios. TikTok había empezado a limitar su distribución (probablemente por reportes), pero no lo había eliminado.
Metodología:
- Preservación urgente del vídeo completo con todos sus metadatos (visualizaciones, likes, comentarios, compartidos)
- Captura de los 3.000+ comentarios, clasificándolos en: neutros, agresivos, amenazantes
- Identificación de las cuentas participantes: los autores del vídeo, los comentaristas más agresivos
- Documentación de la cadena de viralización: quiénes compartieron el vídeo, a qué hora, desde qué tipo de cuenta
- Descarga de datos de TikTok de la cuenta de la víctima para documentar los DMs amenazantes recibidos
Resultado: Se certificaron el vídeo original, 47 duetos derivados (otros usuarios que hicieron dueto burlándose), 892 comentarios agresivos y 34 mensajes directos amenazantes. El informe pericial fue fundamental para las diligencias de investigación por acoso (art. 172 ter CP) y ciberacoso de menores. Los padres de los menores autores fueron citados conforme al artículo 61.3 de la LO 5/2000 de Responsabilidad Penal del Menor.
Caso 2: Difamación empresarial viral
Contexto: Un ex-empleado descontento de una cadena de restaurantes publicó una serie de vídeos en TikTok acusando a la empresa de fraude fiscal, insalubridad en las cocinas y explotación laboral. Los vídeos incluían imágenes grabadas supuestamente en las cocinas del restaurante durante su empleo. Varios vídeos superaron el millón de visualizaciones.
Desafío forense: Los vídeos mezclaban hechos reales (imágenes genuinas de las cocinas) con afirmaciones falsas y descontextualizadas. El ex-empleado alegaba libertad de expresión y denuncia de irregularidades.
Metodología:
- Certificación de los 12 vídeos publicados con todas sus métricas de alcance
- Análisis de metadatos de las imágenes incluidas en los vídeos (EXIF cuando disponible, análisis de coherencia de iluminación y ambiente)
- Correlación temporal: las imágenes de las cocinas fueron grabadas meses antes de la publicación, durante el período de empleo
- Análisis de los comentarios para documentar el impacto reputacional (muchos usuarios anunciaban que no volverían al restaurante)
- Cuantificación del daño: comparativa de reservas y reseñas antes y después de la publicación de los vídeos
Resultado: El informe pericial documentó un alcance combinado de más de 4 millones de visualizaciones, una caída del 35% en las reservas online del restaurante y más de 200 reseñas negativas en Google directamente vinculadas a los vídeos de TikTok. Se interpuso demanda civil por daños y perjuicios y querella penal por injurias graves (art. 209 CP) con publicidad (art. 211 CP). El ex-empleado fue condenado a indemnizar a la empresa con 75.000 euros.
Caso 3: Reto viral con lesiones a menor
Contexto: Un menor de 13 años resultó gravemente herido al intentar replicar un “reto” viral de TikTok que involucraba el uso de productos químicos domésticos. Los padres querían demandar a TikTok por facilitar la difusión de contenido peligroso y al creador del vídeo original.
Desafío forense: Demostrar que el menor encontró el vídeo a través del algoritmo For You (no por búsqueda activa), que TikTok debería haber bloqueado el contenido por peligroso, y que el creador del vídeo no incluyó advertencias adecuadas.
Metodología:
- Análisis del dispositivo del menor: historial de uso de TikTok, vídeos visualizados, algoritmo de recomendación
- Descarga de datos de TikTok del menor (con consentimiento de los padres como representantes legales)
- Documentación del vídeo original del reto y de los cientos de vídeos derivados que existían en la plataforma
- Análisis de las políticas de contenido de TikTok: ¿existía una política específica sobre contenido peligroso? ¿Se había reportado previamente el vídeo?
- Búsqueda de alertas previas: identificación de otros casos donde el mismo reto había causado lesiones (había 4 documentados en medios)
Resultado: El informe pericial demostró que el algoritmo For You recomendó el vídeo al menor sin que este lo buscase, que el vídeo había sido reportado 23 veces antes del accidente sin que TikTok lo eliminara, y que las políticas de contenido de TikTok clasificaban este tipo de contenido como “no recomendable” pero no como “prohibido”. El caso está todavía en tramitación.
Caso 4: Contenido sexual de menores distribuido por TikTok
Contexto: Una menor de 15 años fue coaccionada por un adulto para grabar vídeos de contenido sexual que el adulto publicó en TikTok desde una cuenta anónima. Los vídeos se distribuyeron también por DMs a otros usuarios.
Desafío forense: Identificar al operador de la cuenta anónima y demostrar la relación de coacción.
Metodología:
- Preservación urgente de todo el contenido antes de que TikTok lo eliminara (la cuenta ya había sido reportada)
- Requerimiento judicial urgente a ByteDance solicitando: datos de registro de la cuenta, IPs de acceso, dispositivos, destinatarios de los DMs
- Análisis OSINT de la cuenta anónima: patrones de publicación, lenguaje utilizado, cuentas seguidas, interacciones
- Análisis del dispositivo de la menor (con autorización judicial y presencia de los padres): mensajes de coacción recibidos por otras plataformas
- Correlación de datos: IP del operador de la cuenta anónima con datos de conexión del sospechoso
Resultado: ByteDance proporcionó datos parciales que, combinados con el análisis OSINT y las pruebas del dispositivo de la menor, permitieron identificar al adulto responsable. Se incoaron diligencias por los artículos 183 bis (grooming) y 189 (pornografía infantil) del Código Penal. El informe pericial fue ratificado en el acto del juicio oral ante la Audiencia Provincial.
Caso 5: Publicidad ilícita de servicios financieros por influencer
Contexto: Un influencer de TikTok con 500.000 seguidores estaba promocionando una plataforma de inversión en criptomonedas no regulada por la CNMV, prometiendo rendimientos del 300% mensual. Varios de sus seguidores invirtieron y perdieron su dinero.
Desafío forense: Documentar la relación comercial entre el influencer y la plataforma, y demostrar que los vídeos constituían publicidad (no opinión personal) y que las promesas de rendimiento eran engañosas.
Metodología:
- Certificación de 28 vídeos promocionales publicados a lo largo de 6 meses
- Análisis del contenido: identificación de frases que constituyen recomendaciones de inversión según la normativa de la CNMV
- Verificación de que el influencer no declaraba la colaboración comercial (ausencia de etiqueta “#publicidad” o “#ad”)
- Documentación del enlace entre el influencer y la plataforma: código de referido personal, pagos recibidos (identificados a través de la descarga de datos del influencer, obtenida por requerimiento judicial)
- Análisis de las víctimas: recogida de testimonios y pruebas de inversiones realizadas tras visualizar los vídeos
Resultado: El informe pericial documentó una relación comercial no declarada con ingresos superiores a 45.000 euros para el influencer, y pérdidas combinadas de más de 200.000 euros para los inversores. Se interpuso querella por estafa (art. 248 CP), publicidad ilícita (art. 282 CP) y contra la CNMV se remitió expediente por la oferta de productos financieros no autorizados.
Australia como precedente: lecciones para España
Australia aprobó en noviembre de 2024 la Online Safety Amendment (Social Media Minimum Age) Act 2024, que prohíbe el acceso de menores de 16 años a las redes sociales. La ley entró en vigor en noviembre de 2025, lo que nos da un año de experiencia real para analizar.
Qué ha pasado en Australia
Según datos del eSafety Commissioner australiano y de investigaciones del Australian Institute of Health and Welfare:
La prohibición no ha eliminado el uso de redes sociales por menores: las estimaciones sugieren que entre el 30% y el 50% de los menores australianos de 14-15 años siguen accediendo a redes sociales, principalmente a través de cuentas con edad falsa o cuentas de adultos (padres, hermanos mayores).
Las plataformas han implementado verificación de edad: TikTok, Instagram y YouTube han desplegado sistemas de verificación basados en IA que analizan rasgos faciales para estimar la edad. La precisión de estos sistemas es objeto de debate.
Nuevos patrones de elusión: los menores australianos han migrado hacia plataformas que no implementan verificación de edad (Discord, Signal, aplicaciones menos conocidas) o usan VPNs para acceder desde otras jurisdicciones.
Impacto en casos judiciales: los tribunales australianos han empezado a enfrentarse a la cuestión de la admisibilidad de pruebas generadas por menores que accedieron ilegalmente a las plataformas. Hasta ahora, los tribunales han admitido las pruebas, distinguiendo entre la ilicitud del acceso y la validez probatoria del contenido.
Lecciones para España
La experiencia australiana nos enseña varias cosas:
- La prohibición no será un muro infranqueable: los menores seguirán accediendo a TikTok y otras redes. El peritaje forense de contenido de menores seguirá siendo necesario.
- La verificación de edad generará nuevas pruebas: los datos de verificación serán una fuente forense adicional.
- La migración a plataformas alternativas creará nuevos desafíos forenses: tendremos que peritar plataformas menos conocidas y con menos cooperación judicial que las grandes redes.
- El marco legal se complicará: las intersecciones entre protección de menores, evidencia digital, privacidad y responsabilidad parental serán cada vez más complejas.
Marco legal completo
Normativa española
| Norma | Relevancia para TikTok |
|---|---|
| LO 8/2021 de protección de la infancia | Marco general de protección de menores en entornos digitales |
| LOPDGDD (LO 3/2018) | Art. 7: consentimiento de menores de 14 años requiere padres/tutores |
| RGPD | Art. 8: tratamiento de datos de menores; Art. 17: derecho de supresión |
| Código Penal (LO 10/1995) | Arts. 172 ter (acoso), 183 bis (grooming), 189 (pornografía infantil), 197 (secretos), 208-210 (injurias/calumnias) |
| LO 5/2000 de Responsabilidad Penal del Menor | Marco penal para menores de 14-18 años |
| LEC (Ley 1/2000) | Arts. 299, 382, 384: admisión de prueba electrónica |
| LSSI-CE (Ley 34/2002) | Obligaciones de TikTok como prestador de servicios |
Normativa europea
| Norma | Relevancia para TikTok |
|---|---|
| AI Act (Reglamento IA) | El algoritmo de recomendación de TikTok es un sistema de IA de alto riesgo cuando afecta a menores |
| Digital Services Act (DSA) | Obligaciones de TikTok como “Very Large Online Platform” (VLOP): transparencia algorítmica, gestión de riesgos |
| Digital Markets Act (DMA) | Potencial designación de TikTok como gatekeeper |
El AI Act y el algoritmo For You
El AI Act europeo, que entró en aplicación escalonada desde febrero de 2025, tiene implicaciones directas para TikTok:
- El algoritmo For You es un sistema de IA que realiza “profiling” de los usuarios para recomendar contenido
- Cuando afecta a menores, puede clasificarse como sistema de alto riesgo (Anexo III del AI Act)
- TikTok debe garantizar la transparencia del funcionamiento del algoritmo y la posibilidad de opt-out
- La AESIA (Agencia Española de Supervisión de la Inteligencia Artificial) tendrá competencia para supervisar el cumplimiento
Desde la perspectiva forense, el AI Act refuerza nuestra capacidad para exigir a TikTok transparencia sobre cómo su algoritmo distribuyó un contenido específico, lo que es crucial para cuantificar el daño en casos de difamación o acoso viral.
Precios del servicio de certificación de TikTok
| Servicio | Precio orientativo | Incluye |
|---|---|---|
| Certificación de vídeo individual | 500-700 EUR | Vídeo completo + metadatos + comentarios + informe pericial |
| Certificación de perfil + vídeos | 700-1.000 EUR | Perfil completo + hasta 30 vídeos + métricas + informe |
| Certificación de DMs | 600-900 EUR | Conversaciones completas + metadatos + informe |
| Paquete completo (perfil + vídeos + DMs) | 1.000-1.500 EUR | Todo lo anterior combinado + ratificación judicial |
| Análisis de viralidad | 800-1.200 EUR | Cuantificación de alcance, propagación y daño reputacional |
| Monitorización continua | Desde 400 EUR/mes | Vigilancia automatizada + captura de contenido nuevo |
| Urgencia (24-48h) | +50% sobre tarifa base | Para contenido en riesgo de eliminación inminente |
Todos los servicios incluyen consulta inicial gratuita, cadena de custodia documentada, hash SHA-256, informe pericial conforme a UNE 197001 y disponibilidad para ratificación judicial.
10 preguntas frecuentes
1. ¿TikTok coopera con los juzgados españoles?
Sí, pero de forma más limitada y lenta que Meta (Instagram/Facebook) o Google (YouTube). ByteDance dispone de un portal de requerimientos legales y un equipo legal en Irlanda para atender solicitudes europeas. El plazo medio de respuesta es de 60-120 días, significativamente más largo que los 30-60 días de Meta. La calidad y completitud de los datos proporcionados también es inferior en mi experiencia. Para casos urgentes, ByteDance tiene un protocolo de emergencia, pero su activación es menos ágil que el de Meta.
2. ¿Se puede identificar al operador de una cuenta anónima de TikTok?
Sí, pero requiere requerimiento judicial a ByteDance para obtener los datos de registro (email, teléfono) e inicio de sesión (IPs, dispositivos). Si los datos proporcionados por ByteDance son suficientes, la identificación es directa. Si son incompletos (algo frecuente), se complementa con análisis OSINT: patrones de publicación, lenguaje, seguidores, contenido que revele información personal. La tasa de identificación exitosa en mis casos ha sido del 70% aproximadamente.
3. ¿Qué pasa con las pruebas de TikTok si la app es prohibida en España?
Si España prohibiera TikTok (no solo para menores, sino completamente, como se ha planteado en EE.UU.), los datos ya generados seguirían existiendo en los servidores de ByteDance y serían accesibles mediante requerimiento judicial. Los vídeos publicados antes de la prohibición no perderían su valor probatorio. Lo que cambiaría es que no se generaría nuevo contenido desde España, y ByteDance podría reducir su cooperación con autoridades españolas si no opera en el país.
4. ¿Puedo usar un vídeo de TikTok como prueba si yo no lo grabé?
Sí, el contenido público de TikTok puede ser utilizado como prueba por cualquier persona que lo haya preservado adecuadamente, no solo por el autor o el destinatario. Lo importante es que la preservación se haya hecho con metodología forense (hash, cadena de custodia, metadatos). Un vídeo público de TikTok tiene la misma consideración que cualquier manifestación pública: su autor no puede alegar privacidad sobre algo que publicó para que lo viera cualquiera.
5. ¿Los comentarios de TikTok tienen valor como prueba?
Absolutamente. Los comentarios en vídeos de TikTok pueden constituir injurias (art. 208 CP), amenazas (art. 169 CP) o acoso (art. 172 ter CP). He certificado comentarios individuales que fueron determinantes para la instrucción de procedimientos penales. La clave es preservarlos correctamente: captura con contexto (a qué vídeo corresponden, quién los escribió, cuándo) y hash de integridad.
6. ¿Cómo afecta el cifrado de extremo a extremo de TikTok al peritaje?
TikTok implementó el cifrado de extremo a extremo en los mensajes directos en 2024. Esto significa que ByteDance no puede acceder al contenido de los DMs cifrados, lo que limita lo que puede entregar ante un requerimiento judicial. Sin embargo, los mensajes siguen estando disponibles en los dispositivos de los interlocutores, y la descarga de datos de TikTok incluye los mensajes del propio usuario. El cifrado complica la obtención de datos del otro interlocutor, pero no imposibilita el peritaje si el cliente conserva su copia de la conversación.
7. ¿Se pueden recuperar vídeos de TikTok eliminados?
Depende del tiempo transcurrido y del método de eliminación. Si el usuario eliminó el vídeo, TikTok lo retiene en sus servidores durante un período limitado (estimado en 30-90 días). Un requerimiento judicial dentro de ese plazo puede recuperarlo. Si TikTok eliminó el vídeo por violación de normas comunitarias, los datos de moderación se conservan más tiempo. A nivel local, los datos caché del dispositivo pueden contener fragmentos del vídeo, recuperables mediante extracción forense. Más allá de 90 días, la probabilidad de recuperación es muy baja.
8. ¿Qué es el “efecto Streisand” en TikTok y cómo afecta al peritaje?
El efecto Streisand ocurre cuando el intento de censurar o eliminar un contenido provoca que se difunda aún más. En TikTok, esto es particularmente agudo: si un usuario reporta un vídeo y TikTok lo elimina, es habitual que otros usuarios que lo descargaron lo resuban, generando decenas de copias. Desde el punto de vista forense, esto complica la cuantificación del daño (el contenido se multiplica) pero facilita la obtención de pruebas (hay más copias disponibles). Recomiendo siempre certificar el contenido ANTES de reportarlo a TikTok para evitar que la eliminación del original deje solo copias de menor calidad forense.
9. ¿TikTok puede ser considerado responsable del contenido que distribuye?
Bajo el Digital Services Act (DSA), TikTok está clasificada como “Very Large Online Platform” (VLOP) y tiene obligaciones reforzadas de gestión de riesgos, transparencia y eliminación de contenido ilegal. El DSA mantiene el principio de exención de responsabilidad del intermediario (art. 6), pero lo condiciona a que la plataforma actúe diligentemente cuando tenga conocimiento de contenido ilegal. Si TikTok no elimina contenido ilegal tras ser notificada, o si su algoritmo promueve activamente contenido peligroso, puede ser considerada corresponsable.
10. ¿La prohibición a menores se aplica también a YouTube Shorts y Twitch?
Sí, el anuncio del Gobierno se refiere a “redes sociales” en general, no solo a TikTok. Esto incluye Instagram, YouTube (incluyendo Shorts), Twitch, Snapchat, Discord y cualquier otra plataforma social. Sin embargo, la implementación práctica será diferente para cada plataforma: YouTube tiene una integración más profunda con las cuentas de Google y herramientas parentales más maduras (Family Link), mientras que plataformas como Discord o Twitch presentan desafíos adicionales de verificación de edad.
6 preguntas relacionadas
¿Cómo denunciar ciberacoso en TikTok ante la Policía Nacional?
Para denunciar ciberacoso en TikTok ante la Policía Nacional, puedes hacerlo presencialmente en comisaría o a través de la Oficina Virtual de Denuncias. Antes de denunciar, preserva todas las pruebas: graba pantalla de los vídeos, captura el perfil del acosador, guarda los DMs amenazantes. La Brigada de Investigación Tecnológica (BITAR) tiene experiencia en requerimientos a ByteDance, aunque los plazos son más largos que con otras plataformas. Un informe pericial previo refuerza enormemente la denuncia y acelera la investigación.
¿Es legal que un menor de 16 años tenga TikTok con permiso de sus padres?
Cuando entre en vigor la nueva ley de protección de menores en entornos digitales, el acceso estará prohibido independientemente del consentimiento parental. Actualmente, la LOPDGDD permite el acceso con consentimiento parental a partir de los 14 años. Los propios términos de servicio de TikTok establecen una edad mínima de 13 años. La nueva ley elevará la prohibición a 16 años sin excepciones de consentimiento parental, siguiendo el modelo australiano.
¿Qué datos guarda TikTok de sus usuarios?
TikTok recopila una cantidad masiva de datos, según su política de privacidad: datos de registro (email, teléfono, fecha de nacimiento), contenido creado y publicado, mensajes directos, contactos del dispositivo, datos de ubicación (GPS, WiFi, torre de celular), identificadores del dispositivo (IMEI, dirección MAC), datos de navegación dentro de la app, datos del portapapeles, datos biométricos (reconocimiento facial para filtros) y patrones de uso (qué vídeos ves, cuánto tiempo, cuándo). Muchos de estos datos son accesibles para el usuario mediante la descarga de datos y, bajo requerimiento judicial, para las autoridades.
¿Puede un juez ordenar a TikTok que no elimine un vídeo como prueba?
Sí. Un juez puede emitir una orden de preservación dirigida a ByteDance/TikTok Technology Limited, ordenando la conservación de contenido específico como prueba en un procedimiento judicial. Esta orden se puede emitir como medida cautelar (art. 727 LEC en procedimientos civiles) o como diligencia de investigación (art. 588 LECrim en procedimientos penales). ByteDance está obligada a cumplir con las órdenes judiciales de los tribunales europeos conforme al DSA y al RGPD.
¿Cómo funciona la verificación de edad en TikTok?
TikTok ha implementado varios sistemas de verificación de edad que se han ido reforzando: declaración del usuario al registrarse (la menos fiable), análisis de IA que estima la edad a partir de rasgos faciales (implementado parcialmente), verificación mediante documento de identidad (DNI, pasaporte) en algunos mercados, y restricciones de funcionalidad para cuentas de menores (sin DMs para menores de 16, sin lives para menores de 18). Con la nueva legislación española, TikTok deberá implementar un sistema de verificación más robusto que los actuales.
¿Es diferente peritar TikTok Lite que TikTok normal?
TikTok Lite es una versión reducida de la aplicación diseñada para dispositivos con recursos limitados y conexiones lentas. Desde el punto de vista forense, los datos generados son idénticos (los vídeos, DMs y perfiles se almacenan en los mismos servidores de ByteDance). La diferencia está en la extracción local: TikTok Lite almacena menos datos en caché en el dispositivo, lo que limita la recuperación de contenido eliminado. A nivel de requerimiento judicial a ByteDance, no hay diferencia entre datos de TikTok y TikTok Lite.
Errores frecuentes en el peritaje de TikTok
En mis años de experiencia peritando contenido de TikTok, he identificado errores recurrentes que cometen víctimas, abogados e incluso otros peritos. Esta lista puede ahorrarte tiempo y disgustos:
Error 1: Grabar el vídeo de TikTok con otro teléfono
Es sorprendentemente habitual que los clientes me traigan un vídeo grabado con su móvil de la pantalla de otro móvil donde se reproduce un TikTok. Este vídeo tiene un valor probatorio casi nulo: no se puede verificar la URL del vídeo original, la fecha de captura del vídeo grabador no prueba la fecha de publicación del original, y la calidad de imagen dificulta la lectura de textos superpuestos y nombres de usuario.
Error 2: Confundir compartidos con publicaciones propias
TikTok permite compartir vídeos de otros usuarios, y en algunos casos los vídeos compartidos aparecen de forma que no es obvia quién es el autor original. He visto informes periciales (de otros peritos) que atribuían un vídeo al usuario que lo compartió, no al que lo creó. Esta confusión puede invalidar un informe completo.
Error 3: No documentar el contexto algorítmico
En TikTok, el contexto algorítmico es parte de la prueba. No es lo mismo que un vídeo tenga 500 visualizaciones (impacto limitado) que 5 millones (impacto masivo). Pero lo más importante es cómo llegó el vídeo a las víctimas: si el algoritmo For You lo promovió activamente, TikTok tiene una corresponsabilidad potencial bajo el DSA. Si el vídeo solo fue visto por seguidores directos, la responsabilidad recae exclusivamente en el autor.
Error 4: Ignorar los duetos y stitches derivados
Un vídeo de TikTok puede generar cientos de duetos y stitches. Si solo certificamos el vídeo original pero ignoramos los derivados, estamos documentando una fracción del daño real. En un caso de difamación, los 47 duetos que otros usuarios hicieron del vídeo difamatorio generaron más visualizaciones que el vídeo original.
Error 5: No solicitar la preservación urgente a ByteDance
A diferencia de Meta, ByteDance tiene plazos de retención más cortos y menos transparentes. Si no se solicita la preservación urgente en los primeros días tras descubrir el contenido problemático, los datos pueden eliminarse antes de que el requerimiento judicial llegue. Siempre recomiendo a los abogados que soliciten la preservación como primera medida, incluso antes de tener el informe pericial completo.
Error 6: Subestimar la complejidad de los lives
Los lives de TikTok que no se graban en tiempo real son irrecuperables en la inmensa mayoría de los casos. He tenido clientes que me dicen “el acosador hace directos todas las noches insultándome” y cuando les pregunto si los han grabado, la respuesta es no. Configurar un sistema de monitorización y captura automática de lives es una inversión que se amortiza en el primer live que se use como prueba.
El papel de la inteligencia artificial en el peritaje de TikTok
La inteligencia artificial está transformando tanto las amenazas como las herramientas de investigación en el ámbito del peritaje de TikTok:
Amenazas potenciadas por IA
Deepfakes en TikTok: Las herramientas de generación de deepfakes (face-swap, voice-clone, lip-sync) son cada vez más accesibles. Hemos pasado de necesitar equipos de producción profesionales a poder generar un deepfake convincente con una app gratuita y una sola foto. En TikTok, esto se traduce en:
- Vídeos donde la cara de la víctima se superpone sobre contenido inapropiado
- Clones de voz que simulan declaraciones que la víctima nunca hizo
- Perfiles falsos con fotos de perfil generadas por IA que son imposibles de rastrear mediante búsqueda inversa de imágenes
Bots y amplificación artificial: Las redes de bots en TikTok pueden amplificar artificialmente el alcance de contenido dañino. Un vídeo de ciberacoso que de forma orgánica tendría 100 visualizaciones puede alcanzar 100.000 si una red de bots lo promueve. Identificar esta amplificación artificial es parte de mi análisis forense.
Texto generado por IA: Los comentarios de acoso o difamación generados por chatbots de IA pueden inundar un vídeo con cientos de mensajes ofensivos en cuestión de minutos. El análisis lingüístico ayuda a identificar estos patrones automatizados.
Herramientas de IA para el perito
Detección de deepfakes: Utilizo herramientas de análisis de vídeo basadas en IA que detectan artefactos propios de las técnicas de face-swap y generación sintética. Estas herramientas analizan inconsistencias en la iluminación facial, los bordes de la cara, el parpadeo y la sincronización labial.
Análisis de sentimiento: Para cuantificar el daño reputacional en casos con miles de comentarios, utilizo herramientas de procesamiento de lenguaje natural que clasifican automáticamente los comentarios en categorías (positivos, negativos, amenazantes, neutros) y generan estadísticas agregadas.
Reconocimiento facial: En casos de suplantación, las herramientas de reconocimiento facial pueden verificar si las fotos del perfil falso corresponden a la víctima o son imágenes de terceros.
TikTok en procedimientos de violencia de género
Un área donde estoy viendo un aumento preocupante de casos es el uso de TikTok en contextos de violencia de género digital. Las particularidades de la plataforma la convierten en un arma particularmente efectiva para los agresores:
Patrones de violencia digital en TikTok
- Control a través de la cuenta: el agresor obliga a la víctima a darle acceso a su cuenta de TikTok o a mostrarle los DMs
- Revenge porn con amplificación algorítmica: el agresor publica contenido íntimo de la víctima y el algoritmo de TikTok lo amplifica masivamente
- Ciberacoso post-separación: el agresor publica vídeos ridiculizando o difamando a la ex-pareja, muchas veces con contenido generado por IA
- Duetos como forma de acoso: el agresor hace duetos con los vídeos de la víctima añadiendo comentarios denigrantes
- Revelación de ubicación: el agresor publica vídeos geolocalizados que revelan la ubicación de la víctima (especialmente grave cuando hay orden de alejamiento)
Marco legal específico
La LO 10/2022 de garantía integral de la libertad sexual y la LO 1/2004 de medidas de protección integral contra la violencia de género proporcionan protección específica:
- Art. 197.7 CP: difusión de imágenes íntimas sin consentimiento (3 meses - 1 año de prisión)
- Art. 172 ter CP: acoso con agravante de género
- Art. 169 CP: amenazas con agravante de género
- Medidas cautelares digitales: el juez puede ordenar la retirada de contenido y la prohibición de contacto digital
Particularidades del peritaje
En casos de violencia de género con componente TikTok, mi trabajo incluye:
- Preservación urgente de todo el contenido dañino (el agresor puede eliminarlo ante una denuncia)
- Documentación del alcance de la difusión (visualizaciones, compartidos)
- Análisis de patrones de control (accesos a la cuenta de la víctima desde dispositivos del agresor)
- Informe de impacto que incluye la especial vulnerabilidad de la víctima en contextos de violencia de género
- Colaboración estrecha con los EMUMES (Equipos Mujer-Menor) de la Guardia Civil y las UFAM (Unidades de Familia y Mujer) de la Policía Nacional
La descarga de datos de TikTok: guía paso a paso
La descarga de datos de TikTok es una herramienta fundamental para el peritaje. A diferencia de Instagram, TikTok ofrece dos formatos de descarga con diferencias significativas:
Cómo solicitar la descarga
- Abre la aplicación de TikTok
- Ve a Configuración y privacidad → Cuenta → Descargar tus datos
- Selecciona el formato: JSON (recomendado para análisis forense) o TXT
- Selecciona las categorías de datos a descargar
- Pulsa Solicitar datos
- TikTok tardará entre 1 y 3 días en preparar el archivo
- Recibirás una notificación cuando esté listo para descargar
Diferencia entre formato JSON y TXT
| Aspecto | JSON | TXT |
|---|---|---|
| Estructura | Datos estructurados en objetos/arrays | Texto plano semiestructurado |
| Análisis automatizado | Fácil de procesar con scripts | Requiere parseo manual |
| Metadatos | Completos (timestamps exactos, IDs) | Parciales |
| Tamaño | Mayor | Menor |
| Recomendación forense | Siempre usar JSON | Solo si JSON no está disponible |
Qué contiene la descarga de TikTok
Perfil y cuenta:
- Nombre de usuario, email, teléfono
- Fecha de creación de la cuenta
- Fecha de nacimiento declarada
- Configuración de privacidad
Actividad de vídeo:
- Lista de vídeos publicados con timestamps y descripciones
- Lista de vídeos eliminados (con fecha de eliminación)
- Historial de edición de vídeos
- Configuración de visibilidad de cada vídeo
Mensajes directos:
- Texto completo de todas las conversaciones
- Metadatos de cada mensaje (fecha, hora, tipo)
- Archivos adjuntos compartidos
Historial de actividad:
- Vídeos que has visto (con timestamps)
- Búsquedas realizadas
- Comentarios realizados
- Likes dados
- Vídeos compartidos
- Efectos utilizados
Datos de sesión (los más valiosos para el peritaje):
- Historial de inicio de sesión con IPs y dispositivos
- Actividad de seguridad
- Dispositivos vinculados
Datos de comercio (si aplica):
- Historial de compras en TikTok Shop
- Regalos enviados y recibidos en lives
- Datos de pago
El dato que falta: el algoritmo
Lo que TikTok NO incluye en la descarga de datos es la información sobre cómo el algoritmo For You decidió distribuir un vídeo específico. Esta información es extremadamente relevante en casos judiciales (¿por qué el algoritmo promovió un vídeo difamatorio?) pero solo es accesible mediante requerimiento judicial o, potencialmente, a través de las obligaciones de transparencia del DSA.
Diferencia con la descarga de Instagram
| Aspecto | Descarga TikTok | Descarga Instagram |
|---|---|---|
| Plazo de preparación | 1-3 días | 24-48 horas |
| Formatos disponibles | JSON, TXT | JSON, HTML |
| Historial de vídeos vistos | Sí (completo) | No |
| Stories archivadas | No aplica (stories poco usadas) | Sí (muy relevante) |
| Datos del algoritmo | No incluidos | No incluidos |
| Historial de IPs | Sí | Sí |
| Datos de regalos/monetización | Sí | No aplica |
El futuro del peritaje de TikTok: tendencias 2026-2027
Basándome en mi experiencia y en las tendencias que observo, anticipo varios cambios significativos en el peritaje de TikTok para los próximos meses:
Verificación de edad obligatoria
Con la implementación de la prohibición a menores de 16 años, TikTok deberá implementar sistemas de verificación de edad robustos. Esto generará nuevas fuentes de datos forenses:
- Registros de verificación de identidad (DNI, pasaporte)
- Datos biométricos de verificación (si se implementa verificación facial)
- Registros de intentos fallidos de verificación
- Datos de elusión (menores que intenten sortear la verificación)
Mayor cooperación judicial forzada
El Digital Services Act (DSA) y la creciente presión regulatoria europea obligarán a ByteDance a mejorar su cooperación con autoridades judiciales europeas. Esperamos:
- Plazos de respuesta más cortos
- Datos más completos y estandarizados
- Un punto de contacto europeo más accesible
- Mayor transparencia sobre las políticas de retención de datos
Deepfakes como vector principal
La generación de deepfakes será el vector de suplantación y difamación principal en TikTok. La facilidad para crear vídeos falsos convincentes con herramientas accesibles democratizará el acceso a esta tecnología. Como peritos, necesitaremos:
- Herramientas de detección de deepfakes cada vez más sofisticadas
- Formación continua en nuevas técnicas de generación sintética
- Colaboración con equipos de investigación en IA
- Actualización constante de la metodología forense
TikTok Shop y fraude comercial
TikTok Shop (la función de comercio electrónico integrada en TikTok) generará un nuevo tipo de caso: fraudes comerciales donde vendedores utilizan vídeos para promocionar productos falsificados o inexistentes. El peritaje de estos casos combinará el análisis de contenido de vídeo con el análisis de transacciones comerciales.
Retos virales y responsabilidad legal
Los retos virales de TikTok (“challenges”) generan un tipo de caso forense particular que merece atención:
Tipos de retos con implicaciones legales
| Tipo de reto | Riesgo | Ejemplo | Implicación legal |
|---|---|---|---|
| Retos de riesgo físico | Lesiones, muerte | Blackout challenge, planking en alturas | Art. 143 CP (inducción al suicidio), art. 195 CP (omisión del deber de socorro) |
| Retos de vandalismo | Daños materiales | Devious licks (robar en colegios) | Art. 263 CP (daños), art. 234 CP (hurto) |
| Retos de acoso | Daño psicológico | Retos que señalan a personas concretas | Art. 172 ter CP (acoso), art. 173 CP (integridad moral) |
| Retos con contenido sexual | Explotación de menores | Retos que implican contenido inapropiado | Art. 189 CP (pornografía infantil) |
| Retos de consumo | Intoxicación, sobredosis | NyQuil chicken, Benadryl challenge | Art. 143 CP si hay resultado de muerte |
El peritaje en casos de retos
Cuando el resultado de un reto viral es una lesión o una muerte, el peritaje se centra en:
- Trazabilidad: demostrar cómo el menor o la víctima descubrió el reto (algoritmo For You vs búsqueda activa)
- Viralidad: cuántos vídeos del reto existían y cuántas visualizaciones acumulaban
- Conocimiento de TikTok: demostrar que TikTok tenía conocimiento del riesgo del reto y no actuó diligentemente para limitarlo
- Cadena de imitación: documentar la cadena de vídeos que motivaron a la víctima a participar
En un caso que perité, un menor resultó con quemaduras graves tras intentar un reto viral. Mi informe documentó que:
- El vídeo original del reto tenía 12 millones de visualizaciones
- Existían más de 300 réplicas del reto en TikTok
- TikTok había recibido más de 150 reportes sobre el peligro del reto en las tres semanas anteriores al accidente
- El algoritmo For You recomendó el vídeo al menor en su feed principal (no lo buscó activamente)
Esta documentación fue determinante para establecer la corresponsabilidad de TikTok bajo el DSA.
La responsabilidad del creador del reto
El creador del vídeo original que inicia un reto peligroso puede ser responsable si:
- Sabía o debía saber que la actividad era peligrosa
- No incluyó advertencias adecuadas
- Incitó activamente a otros a replicar la actividad
- Se beneficiaba económicamente de la viralidad del reto (monetización, sponsorships)
La jurisprudencia española en este ámbito es todavía escasa, pero los tribunales de otros países (especialmente EE.UU. y Reino Unido) ya han establecido precedentes de responsabilidad tanto del creador como de la plataforma.
TikTok en procedimientos mercantiles y de propiedad intelectual
Además de los procedimientos penales, TikTok aparece cada vez más en procedimientos mercantiles:
Propiedad intelectual y derechos de autor
TikTok es un campo de batalla de propiedad intelectual:
- Uso de música sin licencia: los usuarios añaden música con derechos de autor a sus vídeos. Aunque TikTok tiene acuerdos con discográficas, estos no cubren el uso comercial
- Plagio de contenido: vídeos que copian ideas, formatos o guiones de otros creadores
- Uso de marcas registradas: vídeos que muestran o mencionan marcas registradas de forma que puede constituir infracción
El peritaje en estos casos requiere:
- Documentar la anterioridad del contenido original vs la copia
- Analizar si el uso constituye “fair use” o infracción
- Cuantificar el beneficio económico obtenido por el infractor
- Documentar el perjuicio al titular de los derechos
Publicidad encubierta de influencers
La Ley General de Publicidad y el artículo 20 de la Ley de Competencia Desleal obligan a los influencers a declarar las colaboraciones comerciales. En TikTok, la publicidad encubierta es especialmente problemática porque:
- El formato de vídeo corto difumina la línea entre contenido orgánico y patrocinado
- Los creadores suelen integrar los productos en el contenido de forma que no parece publicidad
- La ausencia de etiquetas “#publicidad” o “#ad” es habitual
Mi trabajo en estos casos consiste en certificar los vídeos publicitarios, documentar la ausencia de declaración de colaboración comercial, y cuantificar el alcance y el impacto de la publicidad encubierta.
Guía para padres: qué hacer si tu hijo es víctima de ciberacoso en TikTok
Como padre de familia y como perito informático, sé que el ciberacoso en TikTok es una de las experiencias más angustiantes que puede vivir una familia. Comparto una guía práctica basada en los casos que he peritado:
Actuación inmediata (primeras 24 horas)
- Mantén la calma y escucha a tu hijo: no minimices lo que siente, no le culpes por usar TikTok, y no le quites el móvil (las pruebas están ahí)
- Documenta todo: graba la pantalla del móvil de tu hijo mostrando el contenido acosador (vídeos, comentarios, DMs)
- No interactúes con el acosador: no respondas a los mensajes, no comentes los vídeos, no visites el perfil del acosador desde la cuenta de tu hijo
- Contacta con el centro educativo: si el acosador es un compañero de clase, el centro educativo tiene obligación de activar su protocolo anti-bullying conforme a la LO 8/2021
- Contacta con un perito informático: para certificar las pruebas con validez judicial antes de que el contenido desaparezca
Actuación legal (primera semana)
- Contacta con un abogado especializado en ciberdelitos y protección de menores
- Presenta denuncia ante la Policía Nacional o la Guardia Civil con las pruebas certificadas
- Solicita medidas cautelares si el acoso es grave (orden de alejamiento digital)
- Solicita la preservación de datos a ByteDance a través del juzgado
Recursos disponibles
- INCIBE - Línea de Atención 017: atención gratuita y confidencial sobre ciberseguridad para familias
- AEPD - Canal prioritario: para retirada urgente de contenido que afecte a menores
- Fundación ANAR - Teléfono 900 20 20 10: atención a menores víctimas de violencia
- Policía Nacional - @polaboralES: cuenta de Twitter de la Policía para temas de ciberacoso
Glosario técnico para abogados: términos específicos de TikTok
| Término | Definición |
|---|---|
| For You Page (FYP) | Página principal de TikTok donde el algoritmo recomienda vídeos personalizados para cada usuario |
| Dueto | Función que permite grabar un vídeo junto al de otro usuario (pantalla dividida) |
| Stitch | Función que permite usar un fragmento del vídeo de otro usuario como inicio del propio |
| Live | Transmisión en directo dentro de TikTok. Requiere 1.000+ seguidores para activarse |
| Regalos | Moneda virtual que los espectadores envían durante lives. Se convierten en dinero real para el creador |
| Diamantes | Moneda virtual que recibe el creador al recibir regalos. Se pueden canjear por dinero |
| Shadowban | Restricción no declarada del alcance de una cuenta por parte del algoritmo |
| Sound | Audio asociado a un vídeo que otros usuarios pueden reutilizar en sus propios vídeos |
| Creator Fund | Programa de monetización de TikTok para creadores con cierto volumen de seguidores |
| TikTok Shop | Función de comercio electrónico integrada en la plataforma |
| Green Screen | Efecto que permite superponer al usuario sobre un fondo personalizado (imagen o vídeo) |
| POV | ”Point of view” - formato de vídeo donde el creador actúa como si el espectador estuviera en la escena |
| ByteDance | Empresa china propietaria de TikTok, con sede en Pekín |
| Project Clover | Iniciativa de ByteDance para almacenar datos de usuarios europeos exclusivamente en la UE |
| VLOP | Very Large Online Platform - clasificación del DSA para plataformas con más de 45 millones de usuarios en la UE |
| Hashtag challenge | Reto promocionado a través de un hashtag específico, a menudo patrocinado por marcas |
| E2E | End-to-End encryption (cifrado de extremo a extremo) - implementado en DMs desde 2024 |
| Face swap | Técnica que intercambia el rostro de una persona por el de otra en un vídeo o imagen |
| MLAT | Mutual Legal Assistance Treaty - tratado de asistencia judicial mutua entre países |
| Algoritmo de recomendación | Sistema de IA que decide qué contenido muestra a cada usuario en su feed |
| Moderación de contenido | Proceso (humano o automatizado) de revisión y eliminación de contenido que viola las normas |
| API | Application Programming Interface - interfaz técnica para acceder a datos de la plataforma de forma programática |
| Preservación de datos | Solicitud a la plataforma para que conserve datos específicos que podrían ser eliminados |
| Hash SHA-256 | Huella digital criptográfica que garantiza que un archivo no ha sido modificado |
| Cadena de custodia | Registro documentado de cada persona que ha tenido acceso a la evidencia digital |
| NTP | Network Time Protocol - protocolo de sincronización horaria utilizado para certificar la hora exacta de las capturas |
| OSINT | Open Source Intelligence - técnicas de investigación basadas en fuentes de información públicas |
Conclusiones: TikTok y la prohibición cambian las reglas, pero no el juego
La prohibición de redes sociales a menores de 16 años en España es una medida necesaria, pero no va a eliminar ni el uso de TikTok por menores ni la necesidad de peritar contenido de esta plataforma en procedimientos judiciales. La experiencia australiana nos lo demuestra con claridad: un porcentaje significativo de menores sigue accediendo a las plataformas a pesar de la prohibición.
Lo que sí va a cambiar es la complejidad legal de los casos. La intersección entre la prohibición, el RGPD, el DSA, el AI Act, la protección de menores y la normativa penal creará un entramado jurídico que requerirá una colaboración aún más estrecha entre abogados y peritos informáticos forenses.
Desde mi perspectiva como perito, lo que no va a cambiar es lo fundamental: la diferencia entre un caso ganado y un caso perdido con pruebas de TikTok sigue estando en la velocidad de reacción y la calidad de la certificación forense. Un vídeo viral de TikTok que documenta un acoso puede tener 10 millones de visualizaciones, pero si no se preservó correctamente, ante el juez no vale nada.
En mi práctica diaria, TikTok genera más consultas que cualquier otra plataforma excepto WhatsApp. Los padres preocupados por el ciberacoso, las empresas afectadas por difamación viral, los profesionales suplantados por competidores desleales: todos tienen en común que llegaron tarde a la preservación de pruebas o que subestimaron la velocidad a la que el daño se amplifica cuando el algoritmo For You decide promover un contenido.
La prohibición a menores creará un nuevo ecosistema legal donde la ilicitud del acceso del menor, la responsabilidad parental, la verificación de edad y la cooperación (o falta de cooperación) de ByteDance se entrelazarán en cada caso. Los peritos y abogados que no se adapten a esta nueva realidad quedarán obsoletos.
Mi consejo para abogados y particulares que se enfrentan a un caso que involucra TikTok:
- Actúen rápido: TikTok elimina contenido con frecuencia por violación de normas comunitarias. Si esperan, el contenido puede desaparecer.
- No se fíen de los screenshots: al igual que con Instagram, una captura de pantalla sin certificación forense es fácilmente impugnable.
- Tengan en cuenta los plazos de ByteDance: si van a necesitar datos de ByteDance, planifiquen con antelación. Los 60-120 días de respuesta pueden alargar significativamente el procedimiento.
- No olviden el contexto algorítmico: en TikTok, demostrar cómo el algoritmo distribuyó el contenido puede ser tan importante como el contenido mismo.
- Cuenten con un perito especializado en redes sociales que conozca las particularidades de TikTok y pueda defender el informe ante el tribunal.
- Documenten el impacto desde el primer día: visualizaciones, comentarios, mensajes recibidos, clientes perdidos. Todo suma para la cuantificación del daño.
- No subestimen la viralidad: un vídeo que hoy tiene 500 visualizaciones puede tener 5 millones mañana. Certifiquen las pruebas aunque el alcance parezca limitado.
- Consideren la vía civil además de la penal: la indemnización por daños y perjuicios puede ser significativa, especialmente si el contenido se hizo viral y el daño es cuantificable.
La combinación de la prohibición a menores, el AI Act, el DSA y la creciente conciencia judicial sobre la prueba digital está configurando un nuevo panorama para el peritaje de TikTok. Los profesionales que se adapten a esta realidad —peritos, abogados, fiscales, jueces— serán los que marquen la diferencia en los próximos años.
Referencias y fuentes
- La Moncloa - Anuncio prohibición redes sociales menores (3 Feb 2026)
- LO 8/2021 de protección integral a la infancia y la adolescencia
- RGPD - Reglamento (UE) 2016/679 - Art. 8: condiciones para el consentimiento de menores
- LOPDGDD - LO 3/2018 - Art. 7: consentimiento de menores
- Código Penal - LO 10/1995 - Arts. 172 ter, 183 bis, 189, 197, 208-211
- LO 5/2000 de Responsabilidad Penal del Menor
- LEC - Ley 1/2000 - Arts. 299, 382, 384
- LSSI-CE - Ley 34/2002
- AI Act - Reglamento (UE) 2024/1689 - Sistemas de IA de alto riesgo
- Digital Services Act - Reglamento (UE) 2022/2065 - Obligaciones VLOP
- Australia - Online Safety Amendment (Social Media Minimum Age) Act 2024
- eSafety Commissioner (Australia) - Informes sobre implementación de la prohibición
- CNMV - Comisión Nacional del Mercado de Valores - Regulación de servicios financieros
- TikTok Privacy Policy for EEA - Datos recopilados
- TikTok Law Enforcement Guidelines - Proceso para requerimientos judiciales
- INCIBE - Guía para familias sobre TikTok - Protección de menores
- AEPD - Guía sobre protección de datos de menores - Tratamiento de datos de menores
- Norma UNE 197001 - Informes periciales
- LO 1/2004 de medidas de protección contra la violencia de género
- Ley General de Publicidad - Ley 34/1988 - Publicidad engañosa
- Ley 3/1991 de Competencia Desleal - Art. 20: publicidad encubierta
- Fundación ANAR - Atención a menores víctimas - Teléfono 900 20 20 10





