· Jonathan Izquierdo · Noticias seguridad  ·

10 min de lectura

Estafas deepfake en España: 929 millones de euros, Guardia Civil suplantada y famosos como cebo

929 millones de euros robados con deepfakes en 2025. En febrero de 2026, suplantan a la Guardia Civil y a Pablo Motos con IA. Análisis forense y cómo protegerte.

929 millones de euros robados con deepfakes en 2025. En febrero de 2026, suplantan a la Guardia Civil y a Pablo Motos con IA. Análisis forense y cómo protegerte.

En 2025, los fraudes con deepfakes generaron pérdidas de 929 millones de euros a nivel global, el triple que en 2024 (EscudoDigital, 15 Feb 2026). En las últimas 48 horas, la Guardia Civil ha alertado de perfiles falsos creados con IA que suplantan a agentes reales, y Google ha tenido que retirar un anuncio fraudulento que usaba la imagen de Pablo Motos para promocionar inversiones ficticias.

No son casos aislados. Es una oleada que combina inteligencia artificial generativa, redes sociales y urgencia emocional para robar a ciudadanos españoles. Como perito informático forense, analizo qué está ocurriendo, cómo detectar estas estafas y qué puedes hacer si ya has sido víctima.

TL;DR: lo que necesitas saber en 30 segundos

AspectoDetalle
Pérdidas 2025929 millones de euros en fraudes con deepfakes a nivel global (x3 vs 2024)
Plataforma principalFacebook concentra el 44,6% de las pérdidas (414 millones de euros)
Tipo de estafa dominanteInversiones falsas con famosos suplantados (80% del total)
Último caso EspañaGuardia Civil denuncia perfiles IA que suplantan a agentes (15 Feb 2026)
Marco legalArts. 248, 401 y 197 bis del Código Penal
Qué hacer si eres víctimaPreservar evidencia digital + denuncia ante Policía/Guardia Civil + peritaje forense

La Guardia Civil suplantada por IA: lo que ha ocurrido

El 15 de febrero de 2026, varios medios recogieron la alerta de la Guardia Civil sobre una nueva modalidad de estafa que utiliza inteligencia artificial para crear perfiles falsos de agentes en redes sociales (Menorca.info, 15 Feb 2026).

Los estafadores generan con IA:

  • Fotografías y vídeos realistas con uniformes, insignias y contextos que imitan comunicaciones oficiales
  • Perfiles completos en redes sociales que replican el tono formal y la estética institucional de cuentas verificadas
  • Mensajes directos solicitando datos personales bajo pretexto de investigaciones o trámites administrativos ficticios
La Guardia Civil advierte

«Llevamos tiempo detectando perfiles que utilizan inteligencia artificial para simular ser miembros de la Guardia Civil. La calidad de estas falsificaciones ha mejorado exponencialmente. Hace apenas dos años presentaban imperfecciones evidentes; las versiones actuales resultan prácticamente imperceptibles para el ojo no entrenado.»

Cómo funciona la estafa paso a paso

  1. Creación del perfil falso: el estafador genera con IA fotos de un agente con uniforme oficial, insignias y fondo institucional. En minutos tiene un perfil completo e indistinguible de uno real

  2. Contacto con la víctima: envía un mensaje directo haciéndose pasar por un agente que investiga un supuesto fraude bancario o problema administrativo que afecta a la víctima

  3. Solicitud de datos sensibles: pide DNI, datos bancarios o acceso a cuentas «para verificar la situación» o «proteger tus fondos»

  4. Vaciado de cuentas: con los datos obtenidos, accede a las cuentas bancarias o utiliza la información para nuevas estafas de suplantación de identidad

Pablo Motos y El Hormiguero: el deepfake que Google tuvo que eliminar

El 14 de febrero de 2026, Google retiró anuncios fraudulentos que usaban la imagen manipulada de Pablo Motos y la marca El Hormiguero para promocionar esquemas de inversión inexistentes (El Confidencial Digital, 14 Feb 2026).

Las últimas versiones incorporaban:

  • Vídeo deepfake de Pablo Motos recomendando una plataforma de inversión
  • Audio generado con IA que replica la voz del presentador con precisión
  • Redireccionamiento a plataformas que exigen un depósito inicial irrecuperable

No es la primera vez: ya en septiembre de 2023, Motos alertó en televisión de una estafa similar que afirmaba que había sido «detenido por descubrir un método de ganar dinero con criptomonedas».

Dato clave

Google declaró haber «invertido significativamente en sistemas avanzados de inteligencia artificial para mejorar la detección y combatir las estafas deepfake». Pero los estafadores generan nuevas variantes más rápido de lo que las plataformas pueden eliminarlas.

Los números del fraude deepfake: 929 millones en 2025

Según el análisis publicado por EscudoDigital el 15 de febrero de 2026, las pérdidas globales por fraude con manipulación audiovisual alcanzaron los 929 millones de euros en 2025: el triple que en 2024 y nueve veces más que el acumulado de 2020 a 2023.

Distribución por plataforma

PlataformaPérdidas (€)% del total redes sociales
Facebook414 millones44,6%
WhatsApp168 millones18,0%
Telegram141 millones15,2%
TikTok, Instagram, Threads206 millones22,2%

Facebook, WhatsApp y Telegram concentran el 93% de las pérdidas por fraude deepfake en redes sociales.

Tipos de estafa deepfake

Tipo% de pérdidasImporte estimado
Inversiones falsas con famosos80%748 millones de euros
Estafas románticas~1%8+ millones de euros
Suplantación de autoridades~19%173 millones de euros

El 80% de las pérdidas corresponde a estafas de inversión que utilizan vídeos deepfake de famosos y figuras públicas para dar credibilidad a plataformas de trading fraudulentas.

Contexto global

DatoFuente
12.500 millones de dólares en fraude al consumidor (EE.UU., 2024)FTC vía Experian/Fortune, Ene 2026
72% de directivos prevé que el fraude con IA será su mayor reto operativo en 2026Experian Fraud Forecast 2026
Las pérdidas por deepfakes podrían alcanzar 16.000 millones de dólares a finales de 2026Moneywise, Feb 2026
De 12.300 millones en 2024 a 40.000 millones en 2027 (32% CAGR)DeepStrike, 2025

También en España: cinco detenidos por estafa con criptomonedas en Palencia

El 13 de febrero de 2026, la Guardia Civil investigó a cinco personas en Palencia por estafar 6.000 euros mediante falsas inversiones en criptomonedas (Noticias Palencia, 13 Feb 2026). Los investigados utilizaban perfiles falsos y webs que simulaban ser asesores financieros especializados para convencer a la víctima de realizar transferencias bajo la promesa de beneficios rápidos.

España en el punto de mira

Dato EspañaDetalle
122.223 ciberincidentes gestionados por INCIBE en 2025+26% respecto a 2024 (INCIBE Balance 2025)
142.767 consultas al servicio Tu Ayuda en Ciberseguridad+44,9% vs 2024
48 millones de llamadas fraudulentas bloqueadas solo en enero 2026+340% en fraude de grabación de voz vs diciembre 2025
28% de consultas fueron por phishing (email, vishing, smishing)INCIBE 2025

Cómo detectar un deepfake: guía práctica en 5 puntos

  1. Verifica la fuente: ninguna autoridad te pedirá datos bancarios por mensaje directo en redes sociales. La Guardia Civil, Policía Nacional y Hacienda tienen canales oficiales verificados con insignia azul

  2. Examina los detalles del vídeo: busca parpadeo irregular, bordes difusos en la mandíbula o el pelo, textura de piel demasiado uniforme, o movimientos labiales que no sincronizan al 100% con el audio

  3. Desconfía de rendimientos garantizados: ninguna inversión legítima promete rentabilidades fijas del 10-50% diario. Si un famoso «recomienda» una plataforma desconocida, es casi seguro falso

  4. Comprueba la URL: las plataformas de inversión fraudulentas usan dominios recién registrados, sin política de privacidad y con datos de contacto falsos. Busca el nombre de la plataforma + «estafa» en Google antes de depositar nada

  5. Usa herramientas de verificación: plataformas como INCIBE o el 017 ofrecen asistencia gratuita para verificar posibles fraudes

Regla de oro

Si alguien te contacta por redes sociales pidiendo datos personales, dinero o acceso a tus cuentas —da igual quién diga ser— la respuesta siempre es NO. Cuelga, no respondas, y verifica por el canal oficial.

La creación y uso de deepfakes con fines fraudulentos activa varios artículos del Código Penal español:

DelitoArtículo CPPenaCuándo aplica
EstafaArt. 248-2506 meses a 6 años de prisión + multaCuando el deepfake se usa para obtener un beneficio económico engañando a terceros
Usurpación de identidadArt. 4016 meses a 3 años de prisiónCuando se suplanta la identidad de una persona real (agente, famoso, etc.)
Acceso ilícito a sistemasArt. 197 bis6 meses a 2 años de prisiónSi la estafa incluye acceso no autorizado a cuentas o sistemas
Daño a la integridad moralArt. 1736 meses a 2 años de prisiónCuando el deepfake atenta contra la dignidad de la víctima

Además, la reforma penal de 2025 castiga expresamente la creación, difusión o uso de imágenes, vídeos o audios falsos generados con IA, especialmente cuando afectan a la dignidad, privacidad o libertad sexual de la víctima (Ampuero Blanco Abogados).

Para abogados

La prueba pericial es determinante en estos casos. Un informe forense que demuestre que el contenido es un deepfake puede ser la diferencia entre una sentencia condenatoria o un sobreseimiento. Sin peritaje, los tribunales carecen de base técnica para valorar la autenticidad del material.

Qué puede hacer un perito informático forense

Si has sido víctima de una estafa con deepfakes, un perito informático forense puede:

ServicioQué incluye
Análisis forense del deepfakeExamen de metadatos, análisis de frecuencias, detección de artefactos GAN, comparación con material original
Preservación de evidencia digitalCertificación con hash SHA-256 del contenido fraudulento antes de que sea eliminado de redes sociales
Rastreo del origenAnálisis de la infraestructura del fraude: dominios, servidores, wallets de criptomonedas, perfiles utilizados
Informe pericial para juzgadoDocumento con validez probatoria para procedimientos penales, con ratificación ante el juez si es necesario
Cuantificación del dañoValoración económica del perjuicio para la reclamación civil

El tiempo es crítico

Los estafadores eliminan perfiles y plataformas en cuestión de horas. Si sospechas que has sido víctima:

  1. No borres nada: capturas de pantalla, conversaciones, emails de confirmación de transferencias, URLs visitadas. Todo es evidencia

  2. Haz capturas con metadatos: usa herramientas como eGarante o la función de captura certificada de tu navegador para que tengan validez legal

  3. Denuncia inmediatamente: ante la Policía Nacional (comisaría o denuncia online) o Guardia Civil. Aporta toda la documentación que hayas preservado

  4. Contacta con tu banco: si has realizado transferencias, solicita la retrocesión inmediata. Las primeras 24 horas son determinantes

  5. Solicita un peritaje forense: un informe técnico independiente refuerza tu denuncia y puede ser decisivo para recuperar el dinero

Preguntas frecuentes

¿Pueden suplantar mi voz con IA con solo 3 segundos de audio?

Sí. Según alertas de INCIBE, las herramientas actuales de clonación de voz necesitan tan solo 3 segundos de muestra para generar réplicas convincentes. Este audio puede obtenerse de buzones de voz, vídeos en redes sociales o grabaciones de llamadas. El resultado es un clon de voz capaz de engañar tanto a personas como a sistemas de verificación automatizados.

¿Qué hago si encuentro un deepfake con mi imagen?

Preserva la evidencia (capturas certificadas con fecha y hora), denuncia ante la Policía Nacional o Guardia Civil aportando el material, y contacta con un perito informático forense para elaborar un informe que acredite la manipulación. En casos de deepfakes sexuales no consentidos, se aplican agravantes penales específicos tras la reforma de 2025.

¿Cuánto cuesta un peritaje forense de un deepfake?

El análisis forense de un deepfake tiene un coste orientativo de 400 a 1.200 euros dependiendo de la complejidad (un vídeo breve en redes sociales vs. una cadena de estafa con múltiples perfiles y plataformas). Incluye análisis técnico completo, informe pericial con validez judicial y disponibilidad para ratificación ante el juzgado.

¿Has sido víctima de una estafa con deepfakes?

Consulta gratuita por videollamada. Preservamos la evidencia digital y elaboramos el informe pericial que necesitas para tu denuncia.

Solicitar consulta gratuita

Conclusión: la IA como arma y como escudo

Los deepfakes han dejado de ser una curiosidad tecnológica para convertirse en la herramienta de estafa de mayor crecimiento en Europa. Los 929 millones de euros robados en 2025 son solo el principio: las proyecciones apuntan a 16.000 millones de dólares a finales de 2026.

La buena noticia es que la misma tecnología que permite crear deepfakes también permite detectarlos. El análisis forense de metadatos, frecuencias y artefactos de generación puede demostrar de forma objetiva si un contenido ha sido manipulado.

Si sospechas de cualquier comunicación que recibas —sea de un supuesto agente de la Guardia Civil, un famoso que recomienda invertir, o un conocido que te pide dinero con urgencia— para, verifica y denuncia. Tu mejor defensa es la desconfianza informada.


Fuentes consultadas: EscudoDigital (15 Feb 2026), Menorca.info (15 Feb 2026), El Confidencial Digital (14 Feb 2026), Fortune/Experian (Ene 2026), Noticias Palencia (13 Feb 2026), DeepStrike (2025), INCIBE Balance 2025, Moneywise (Feb 2026), Diario de Tarragona (Feb 2026), Ampuero Blanco Abogados (2025)

Sobre el autor: Jonathan Izquierdo es perito informático forense, ex-CTO y 5x AWS Certified, especializado en evidencia digital y análisis forense con metodología ISO 27037.

Última actualización: Febrero 2026

Sobre el autor

Jonathan Izquierdo es perito informático forense especializado en Noticias seguridad con conocimientos en blockchain, criptomonedas, AWS Cloud, desarrollo de software y seguridad. Experiencia tecnológica de más de 20 años al servicio de la justicia digital, liderando equipos de desarrollo de software en ámbitos internacionales.

Ver más sobre mí

Volver al Blog

Posts Relacionados

Ver Todos los Posts »
Jonathan Izquierdo

Jonathan Izquierdo · Perito Forense

+15 años experiencia · AWS Certified

WhatsApp