“Mamá, ayúdame”: la nueva estafa con IA que clona voces y roba dinero
Las estafas digitales dieron un salto alarmante en 2026. Delincuentes están utilizando inteligencia artificial para clonar voces reales y simular llamadas de familiares en emergencia, logrando engañar a víctimas en cuestión de minutos mediante presión emocional y mensajes falsos en WhatsApp.

Las llamadas desesperadas de un supuesto hijo accidentado, una pareja pidiendo ayuda urgente o un jefe solicitando dinero ya no siempre son reales. En distintos países de Latinoamérica y Europa comenzó a expandirse una peligrosa modalidad de fraude basada en clonación de voz con inteligencia artificial, una técnica que utiliza pequeños fragmentos de audio para crear imitaciones casi perfectas de cualquier persona.
Expertos en ciberseguridad advierten que los delincuentes obtienen estas muestras desde videos públicos en redes sociales, notas de voz enviadas por WhatsApp o incluso llamadas falsas disfrazadas de encuestas. Con apenas unos segundos de grabación, programas de inteligencia artificial pueden reproducir una voz con una similitud sorprendente, capaz de generar confusión y pánico en familiares y amigos.
La estrategia combina manipulación emocional y urgencia extrema. Primero, la víctima recibe un mensaje alarmante sobre un accidente, un bloqueo bancario o una situación crítica. Poco después llega una llamada donde escucha la voz aparentemente real de un ser querido suplicando ayuda económica inmediata. Panorama del San Jorge conoció que algunos delincuentes incluso agregan sonidos de ambulancias, llanto o tráfico para hacer más creíble la escena y evitar que la persona piense con calma.
Según especialistas, este tipo de fraude funciona porque el miedo desactiva el análisis racional. Muchas personas reaccionan impulsivamente al escuchar una voz conocida en peligro. Por eso, expertos recomiendan aplicar lo que llaman “el derecho a la pausa”: detenerse unos segundos antes de transferir dinero o compartir información personal. La recomendación principal es colgar inmediatamente y comunicarse directamente con el familiar a través de su número habitual o mediante videollamada.
Otra medida que gana fuerza en 2026 es la creación de una “palabra de seguridad” entre familiares cercanos. Se trata de una frase secreta que solo conocen las personas de confianza y que sirve para confirmar si realmente están hablando con quien dicen ser. En medio del crecimiento de estafas digitales con inteligencia artificial, la prevención y la verificación se han convertido en la mejor defensa frente a una tecnología cada vez más difícil de detectar.


