Protégete de las llamadas con voces clonadas por IA usadas por los estafadores para robarte el dinero

Los ciberdelincuentes siguen buscando fórmulas para engañar a nuevas víctimas y así poder hacerse con sus datos personales y bancarios. Para ello recurren a métodos muy diversos, que van desde hacerse pasar por «falsos brokers» hasta cometer fraudes a través de plataformas de alquiler turístico como Airbnb o Booking. Para ello se valen en muchas ocasiones de las nuevas tecnologías, y ahora los estafadores ya usan las voces clonadas por IA para robar tu dinero.

6
LA IA PERMITE CREAR VOCES CLONADAS QUE PARECEN REALES

LA IA PERMITE CREAR VOCES CLONADAS QUE PARECEN REALES

A través de la inteligencia artificial, los delincuentes tienen la posibilidad de crear voces clonadas que parecen reales. Los avances de la IA han hecho que sea posible crear audios convincentes con la voz de una persona con solo unos pocos segundos de grabación.

Este tipo de fraude, que se conoce como vishing, que es el phishing por voz, usa tecnología de clonación de voz para engañar a las víctimas, haciéndoles creer que están hablando con un ser querido o una persona de confianza, tratando así de lograr a través de esta estrategia información sensible.