Peligro de Extorsión: Usan Inteligencia Artificial para Reproducir tu Voz
De forma inevitable, los avances tecnológicos a veces conllevan nuevas modalidades de delitos, tales como la extorsión apoyada con lo nuevo en inteligencia artificial, en los que los criminales intentan aprovechar las herramientas para sorprender a sus víctimas.
Empleando pequeños audios compartidos por redes sociales y aplicaciones como WhatsApp, los criminales son capaces de crear archivos creíbles para extorsionar
La Fiscalía General del Estado de Guanajuato alertó sobre una nueva modalidad en el delito de extorsión donde, empleando herramientas de inteligencia artificial, los ciberdelincuentes clonan tu voz para pedir dinero a familiares y amigos. A continuación, te explicamos cómo funciona.
Según la dependencia guanajuatense, bastan solo unos cuantos segundos de grabación para poder poner en marcha este nuevo tipo de crimen el cual, por su novedad, es especialmente riesgoso.
Para evitar ser víctima de los delincuentes, quienes se han mostrado especialmente activos durante el fin de año, los expertos de la Fiscalía te recomiendan seguir estos sencillos pasos y compartirlos con tus familiares.
¿Cómo evitar ser víctima de la extorsión por clonación de voz?
La dependencia propone tres sencillos pasos para disminuir los riesgos de ser víctima de este delito:- Evita compartir archivos de audio de larga duración en WhatsApp y redes sociales
- Configura los ajustes de privacidad en tus redes sociales, agrega solo a gente que conozcas
- Ten una palabra clave para usar solo entre tus familiares y seres queridos