sábado, 19 abril 2025

La voz suena igual, pero el timo es real: así estafan ahora por WhatsApp

El mundo digital de whatsApp evoluciona a pasos agigantados y con él las técnicas que los ciberdelincuentes emplean para acceder a nuestros datos y nuestro dinero. Los estafadores han perfeccionado sus métodos hasta límites insospechados, aprovechando las últimas tecnologías para diseñar engaños cada vez más sofisticados y difíciles de detectar. En España, miles de usuarios han sido víctimas de estas prácticas fraudulentas durante los últimos meses, con pérdidas económicas que superan ya los dos millones de euros según datos de la Policía Nacional.

Publicidad

La última modalidad de fraude que está causando estragos entre los usuarios de aplicaciones de mensajería instantánea utiliza la inteligencia artificial para clonar voces. Con apenas unos segundos de audio, estos delincuentes estafan a familiares y amigos de la víctima haciéndose pasar por ella a través de llamadas o mensajes de voz en WhatsApp. Esta técnica resulta especialmente efectiva porque elimina una de nuestras principales defensas frente al engaño: la capacidad de reconocer la voz de nuestros seres queridos. La suplantación es tan perfecta que incluso personas precavidas y familiarizadas con los métodos tradicionales de estafa acaban cayendo en la trampa.

3
INTELIGENCIA ARTIFICIAL AL SERVICIO DEL ENGAÑO: SOLO SEGUNDOS PARA CLONARTE

YouTube video

La democratización de las herramientas de inteligencia artificial ha puesto al alcance de cualquiera tecnologías que hace apenas unos años eran exclusivas de laboratorios de investigación avanzada. Actualmente existen decenas de aplicaciones y servicios en línea que permiten clonar voces con una calidad sorprendente utilizando muestras de audio relativamente breves. Algunas de estas plataformas estafan incluso a expertos en verificación de audio, pues generan voces sintéticas que reproducen no solo el timbre y entonación del original sino también patrones de respiración, microexpresiones vocales y modismos específicos del hablante.

Publicidad

El problema se agrava por la facilidad con que estos delincuentes pueden obtener muestras de audio. Mensajes de voz en grupos de WhatsApp, audios compartidos en redes sociales como Instagram o TikTok, o incluso llamadas telefónicas grabadas sin consentimiento proporcionan el material necesario. La tecnología ha avanzado tanto que con apenas 30 segundos de audio original, estos sistemas pueden generar conversaciones completas que resultan prácticamente indistinguibles incluso para familiares directos de la persona suplantada. Este avance tecnológico, combinado con técnicas de ingeniería social para identificar a las víctimas más vulnerables, ha creado un escenario particularmente peligroso que requiere nuevos mecanismos de protección.

Publicidad
Publicidad