Las estafas son cada día más frecuentes y los ciberdelincuentes siguen desarrollando nuevos métodos de fraude. En esta ocasión, se reportaron casos en los que utilizaron inteligencia artificial (IA) para clonar voces de familiares y hacer videollamadas falsas con el objetivo de vaciar tu cuenta bancaria.
Según informó el sitio Xataka, especializado en tecnología, se reportó un nuevo caso de fraude en el que utilizaron IA para hacer una videollamada falsa. Esta fue la historia de Ruth Card, de 73 años, que recibió una llamada del que parecía ser su nieto Brandon, pero que en realidad era un grupo de estafadores: "Abuela, estoy en la cárcel, sin cartera, sin teléfono. Necesito dinero para la fianza", fue el pedido de los ciberdelincuentes.
El fraude se concretó utilizando un deepfake, es decir, una técnica de IA que permite editar videos falsos de personas que aparentemente son reales. Además, estas estafas ganan credibilidad debido a que, además de la clonación de voz, usan el video de un familiar de la víctima para brindar mayor credibilidad.
Según informó The Washington Post con datos de la Comisión Federal de Comercio estadounidense (FTC por sus siglas en inglés), aseguran que, en 2022, hubo más 36.000 denuncias de gente que fue engañada por otros que simulaban ser amigos o familiares.
¿Cómo funcionan las estafas con inteligencia artificial?
Actualmente, la IA permite replicar una voz con una muestra de audio con pocas frases. El software de generación de voz analiza lo que hace que la voz de una persona sea única (edad, género o acento), y busca en una amplia base de datos de voces para encontrar voces similares y predecir patrones. De este modo, el estafador puede decir lo que quiera con esa voz e inventar alguna excusa creíble para que su víctima caiga.
Empresas como ElevenLabs, una startup de síntesis de voz con IA, transforma una muestra vocal en una voz generada sintéticamente por precios entre los U$S 5 y 300 mensuales.