· Jonathan Izquierdo · Noticias seguridad ·
Estafas deepfake en España: 929 millones de euros, Guardia Civil suplantada y famosos como cebo
929 millones de euros robados con deepfakes en 2025. En febrero de 2026, suplantan a la Guardia Civil y a Pablo Motos con IA. Análisis forense y cómo protegerte.

En 2025, los fraudes con deepfakes generaron pérdidas de 929 millones de euros a nivel global, el triple que en 2024 (EscudoDigital, 15 Feb 2026). En las últimas 48 horas, la Guardia Civil ha alertado de perfiles falsos creados con IA que suplantan a agentes reales, y Google ha tenido que retirar un anuncio fraudulento que usaba la imagen de Pablo Motos para promocionar inversiones ficticias.
No son casos aislados. Es una oleada que combina inteligencia artificial generativa, redes sociales y urgencia emocional para robar a ciudadanos españoles. Como perito informático forense, analizo qué está ocurriendo, cómo detectar estas estafas y qué puedes hacer si ya has sido víctima.
TL;DR: lo que necesitas saber en 30 segundos
| Aspecto | Detalle |
|---|---|
| Pérdidas 2025 | 929 millones de euros en fraudes con deepfakes a nivel global (x3 vs 2024) |
| Plataforma principal | Facebook concentra el 44,6% de las pérdidas (414 millones de euros) |
| Tipo de estafa dominante | Inversiones falsas con famosos suplantados (80% del total) |
| Último caso España | Guardia Civil denuncia perfiles IA que suplantan a agentes (15 Feb 2026) |
| Marco legal | Arts. 248, 401 y 197 bis del Código Penal |
| Qué hacer si eres víctima | Preservar evidencia digital + denuncia ante Policía/Guardia Civil + peritaje forense |
La Guardia Civil suplantada por IA: lo que ha ocurrido
El 15 de febrero de 2026, varios medios recogieron la alerta de la Guardia Civil sobre una nueva modalidad de estafa que utiliza inteligencia artificial para crear perfiles falsos de agentes en redes sociales (Menorca.info, 15 Feb 2026).
Los estafadores generan con IA:
- Fotografías y vídeos realistas con uniformes, insignias y contextos que imitan comunicaciones oficiales
- Perfiles completos en redes sociales que replican el tono formal y la estética institucional de cuentas verificadas
- Mensajes directos solicitando datos personales bajo pretexto de investigaciones o trámites administrativos ficticios
La Guardia Civil advierte
«Llevamos tiempo detectando perfiles que utilizan inteligencia artificial para simular ser miembros de la Guardia Civil. La calidad de estas falsificaciones ha mejorado exponencialmente. Hace apenas dos años presentaban imperfecciones evidentes; las versiones actuales resultan prácticamente imperceptibles para el ojo no entrenado.»
Cómo funciona la estafa paso a paso
Creación del perfil falso: el estafador genera con IA fotos de un agente con uniforme oficial, insignias y fondo institucional. En minutos tiene un perfil completo e indistinguible de uno real
Contacto con la víctima: envía un mensaje directo haciéndose pasar por un agente que investiga un supuesto fraude bancario o problema administrativo que afecta a la víctima
Solicitud de datos sensibles: pide DNI, datos bancarios o acceso a cuentas «para verificar la situación» o «proteger tus fondos»
Vaciado de cuentas: con los datos obtenidos, accede a las cuentas bancarias o utiliza la información para nuevas estafas de suplantación de identidad
Pablo Motos y El Hormiguero: el deepfake que Google tuvo que eliminar
El 14 de febrero de 2026, Google retiró anuncios fraudulentos que usaban la imagen manipulada de Pablo Motos y la marca El Hormiguero para promocionar esquemas de inversión inexistentes (El Confidencial Digital, 14 Feb 2026).
Las últimas versiones incorporaban:
- Vídeo deepfake de Pablo Motos recomendando una plataforma de inversión
- Audio generado con IA que replica la voz del presentador con precisión
- Redireccionamiento a plataformas que exigen un depósito inicial irrecuperable
No es la primera vez: ya en septiembre de 2023, Motos alertó en televisión de una estafa similar que afirmaba que había sido «detenido por descubrir un método de ganar dinero con criptomonedas».
Dato clave
Google declaró haber «invertido significativamente en sistemas avanzados de inteligencia artificial para mejorar la detección y combatir las estafas deepfake». Pero los estafadores generan nuevas variantes más rápido de lo que las plataformas pueden eliminarlas.
Los números del fraude deepfake: 929 millones en 2025
Según el análisis publicado por EscudoDigital el 15 de febrero de 2026, las pérdidas globales por fraude con manipulación audiovisual alcanzaron los 929 millones de euros en 2025: el triple que en 2024 y nueve veces más que el acumulado de 2020 a 2023.
Distribución por plataforma
| Plataforma | Pérdidas (€) | % del total redes sociales |
|---|---|---|
| 414 millones | 44,6% | |
| 168 millones | 18,0% | |
| Telegram | 141 millones | 15,2% |
| TikTok, Instagram, Threads | 206 millones | 22,2% |
Facebook, WhatsApp y Telegram concentran el 93% de las pérdidas por fraude deepfake en redes sociales.
Tipos de estafa deepfake
| Tipo | % de pérdidas | Importe estimado |
|---|---|---|
| Inversiones falsas con famosos | 80% | 748 millones de euros |
| Estafas románticas | ~1% | 8+ millones de euros |
| Suplantación de autoridades | ~19% | 173 millones de euros |
El 80% de las pérdidas corresponde a estafas de inversión que utilizan vídeos deepfake de famosos y figuras públicas para dar credibilidad a plataformas de trading fraudulentas.
Contexto global
| Dato | Fuente |
|---|---|
| 12.500 millones de dólares en fraude al consumidor (EE.UU., 2024) | FTC vía Experian/Fortune, Ene 2026 |
| 72% de directivos prevé que el fraude con IA será su mayor reto operativo en 2026 | Experian Fraud Forecast 2026 |
| Las pérdidas por deepfakes podrían alcanzar 16.000 millones de dólares a finales de 2026 | Moneywise, Feb 2026 |
| De 12.300 millones en 2024 a 40.000 millones en 2027 (32% CAGR) | DeepStrike, 2025 |
También en España: cinco detenidos por estafa con criptomonedas en Palencia
El 13 de febrero de 2026, la Guardia Civil investigó a cinco personas en Palencia por estafar 6.000 euros mediante falsas inversiones en criptomonedas (Noticias Palencia, 13 Feb 2026). Los investigados utilizaban perfiles falsos y webs que simulaban ser asesores financieros especializados para convencer a la víctima de realizar transferencias bajo la promesa de beneficios rápidos.
España en el punto de mira
| Dato España | Detalle |
|---|---|
| 122.223 ciberincidentes gestionados por INCIBE en 2025 | +26% respecto a 2024 (INCIBE Balance 2025) |
| 142.767 consultas al servicio Tu Ayuda en Ciberseguridad | +44,9% vs 2024 |
| 48 millones de llamadas fraudulentas bloqueadas solo en enero 2026 | +340% en fraude de grabación de voz vs diciembre 2025 |
| 28% de consultas fueron por phishing (email, vishing, smishing) | INCIBE 2025 |
Cómo detectar un deepfake: guía práctica en 5 puntos
Verifica la fuente: ninguna autoridad te pedirá datos bancarios por mensaje directo en redes sociales. La Guardia Civil, Policía Nacional y Hacienda tienen canales oficiales verificados con insignia azul
Examina los detalles del vídeo: busca parpadeo irregular, bordes difusos en la mandíbula o el pelo, textura de piel demasiado uniforme, o movimientos labiales que no sincronizan al 100% con el audio
Desconfía de rendimientos garantizados: ninguna inversión legítima promete rentabilidades fijas del 10-50% diario. Si un famoso «recomienda» una plataforma desconocida, es casi seguro falso
Comprueba la URL: las plataformas de inversión fraudulentas usan dominios recién registrados, sin política de privacidad y con datos de contacto falsos. Busca el nombre de la plataforma + «estafa» en Google antes de depositar nada
Usa herramientas de verificación: plataformas como INCIBE o el 017 ofrecen asistencia gratuita para verificar posibles fraudes
Regla de oro
Si alguien te contacta por redes sociales pidiendo datos personales, dinero o acceso a tus cuentas —da igual quién diga ser— la respuesta siempre es NO. Cuelga, no respondas, y verifica por el canal oficial.
Marco legal: qué delitos se cometen con deepfakes en España
La creación y uso de deepfakes con fines fraudulentos activa varios artículos del Código Penal español:
| Delito | Artículo CP | Pena | Cuándo aplica |
|---|---|---|---|
| Estafa | Art. 248-250 | 6 meses a 6 años de prisión + multa | Cuando el deepfake se usa para obtener un beneficio económico engañando a terceros |
| Usurpación de identidad | Art. 401 | 6 meses a 3 años de prisión | Cuando se suplanta la identidad de una persona real (agente, famoso, etc.) |
| Acceso ilícito a sistemas | Art. 197 bis | 6 meses a 2 años de prisión | Si la estafa incluye acceso no autorizado a cuentas o sistemas |
| Daño a la integridad moral | Art. 173 | 6 meses a 2 años de prisión | Cuando el deepfake atenta contra la dignidad de la víctima |
Además, la reforma penal de 2025 castiga expresamente la creación, difusión o uso de imágenes, vídeos o audios falsos generados con IA, especialmente cuando afectan a la dignidad, privacidad o libertad sexual de la víctima (Ampuero Blanco Abogados).
Para abogados
La prueba pericial es determinante en estos casos. Un informe forense que demuestre que el contenido es un deepfake puede ser la diferencia entre una sentencia condenatoria o un sobreseimiento. Sin peritaje, los tribunales carecen de base técnica para valorar la autenticidad del material.
Qué puede hacer un perito informático forense
Si has sido víctima de una estafa con deepfakes, un perito informático forense puede:
| Servicio | Qué incluye |
|---|---|
| Análisis forense del deepfake | Examen de metadatos, análisis de frecuencias, detección de artefactos GAN, comparación con material original |
| Preservación de evidencia digital | Certificación con hash SHA-256 del contenido fraudulento antes de que sea eliminado de redes sociales |
| Rastreo del origen | Análisis de la infraestructura del fraude: dominios, servidores, wallets de criptomonedas, perfiles utilizados |
| Informe pericial para juzgado | Documento con validez probatoria para procedimientos penales, con ratificación ante el juez si es necesario |
| Cuantificación del daño | Valoración económica del perjuicio para la reclamación civil |
El tiempo es crítico
Los estafadores eliminan perfiles y plataformas en cuestión de horas. Si sospechas que has sido víctima:
No borres nada: capturas de pantalla, conversaciones, emails de confirmación de transferencias, URLs visitadas. Todo es evidencia
Haz capturas con metadatos: usa herramientas como eGarante o la función de captura certificada de tu navegador para que tengan validez legal
Denuncia inmediatamente: ante la Policía Nacional (comisaría o denuncia online) o Guardia Civil. Aporta toda la documentación que hayas preservado
Contacta con tu banco: si has realizado transferencias, solicita la retrocesión inmediata. Las primeras 24 horas son determinantes
Solicita un peritaje forense: un informe técnico independiente refuerza tu denuncia y puede ser decisivo para recuperar el dinero
Preguntas frecuentes
¿Pueden suplantar mi voz con IA con solo 3 segundos de audio?
Sí. Según alertas de INCIBE, las herramientas actuales de clonación de voz necesitan tan solo 3 segundos de muestra para generar réplicas convincentes. Este audio puede obtenerse de buzones de voz, vídeos en redes sociales o grabaciones de llamadas. El resultado es un clon de voz capaz de engañar tanto a personas como a sistemas de verificación automatizados.
¿Qué hago si encuentro un deepfake con mi imagen?
Preserva la evidencia (capturas certificadas con fecha y hora), denuncia ante la Policía Nacional o Guardia Civil aportando el material, y contacta con un perito informático forense para elaborar un informe que acredite la manipulación. En casos de deepfakes sexuales no consentidos, se aplican agravantes penales específicos tras la reforma de 2025.
¿Cuánto cuesta un peritaje forense de un deepfake?
El análisis forense de un deepfake tiene un coste orientativo de 400 a 1.200 euros dependiendo de la complejidad (un vídeo breve en redes sociales vs. una cadena de estafa con múltiples perfiles y plataformas). Incluye análisis técnico completo, informe pericial con validez judicial y disponibilidad para ratificación ante el juzgado.
¿Has sido víctima de una estafa con deepfakes?
Consulta gratuita por videollamada. Preservamos la evidencia digital y elaboramos el informe pericial que necesitas para tu denuncia.
Solicitar consulta gratuitaConclusión: la IA como arma y como escudo
Los deepfakes han dejado de ser una curiosidad tecnológica para convertirse en la herramienta de estafa de mayor crecimiento en Europa. Los 929 millones de euros robados en 2025 son solo el principio: las proyecciones apuntan a 16.000 millones de dólares a finales de 2026.
La buena noticia es que la misma tecnología que permite crear deepfakes también permite detectarlos. El análisis forense de metadatos, frecuencias y artefactos de generación puede demostrar de forma objetiva si un contenido ha sido manipulado.
Si sospechas de cualquier comunicación que recibas —sea de un supuesto agente de la Guardia Civil, un famoso que recomienda invertir, o un conocido que te pide dinero con urgencia— para, verifica y denuncia. Tu mejor defensa es la desconfianza informada.
Fuentes consultadas: EscudoDigital (15 Feb 2026), Menorca.info (15 Feb 2026), El Confidencial Digital (14 Feb 2026), Fortune/Experian (Ene 2026), Noticias Palencia (13 Feb 2026), DeepStrike (2025), INCIBE Balance 2025, Moneywise (Feb 2026), Diario de Tarragona (Feb 2026), Ampuero Blanco Abogados (2025)
Sobre el autor: Jonathan Izquierdo es perito informático forense, ex-CTO y 5x AWS Certified, especializado en evidencia digital y análisis forense con metodología ISO 27037.
Última actualización: Febrero 2026





