Bandidos roban 243.000 dólares con audio imitando la voz de un CEO.
En marzo de este año, el director de una empresa de energía alemana ubicada en el Reino Unido recibió una llamada que le sorprendió. En un tono enérgico y apresurado, el CEO de la compañía ordenó una transferencia inmediata de 243.000 dólares a una cuenta corriente en Hungría. La razón, argumentó, era el plazo para pagar una cuota de última hora.
Debido al tono de voz urgente, el director hizo la transferencia. Unos momentos más tarde, su teléfono suena de nuevo y el CEO le pide que envíe otro. Sospechoso, colgó el teléfono y se puso en contacto directamente con el número personal del ejecutivo, que negó haber hecho la solicitud. Mientras estaba en la llamada, recibió otra llamada del "falso jefe", lo que confirmó la sospecha: la voz del profesional había sido manipulada digitalmente.
Uso creciente
El caso salió a finales de agosto y fue presentado por la francesa Euler Hermes, compañía de seguros contratada por la compañía alemana (que no fue identificada) responsable de cubrir todos los costos perdidos con la estafa. El caso muestra lo avanzada que está la tecnología de simulación de voz. Eso, al igual que las deepfakes (una técnica que utiliza la inteligencia artificial para combinar un determinado discurso con un vídeo existente) preocupa a las empresas por el tema de la seguridad.
Y la firma alemana no está sola: investigadores de la compañía de tecnología Symantec dijeron al Washington Post que habían encontrado al menos otros tres casos en los que la voz de los ejecutivos fue imitada para engañar a las empresas, lo que resultó en pérdidas de millones de dólares.
Técnicas de persuasión
Esta simulación se puede realizar cuando, después de recibir una grabación de la voz de una persona, el sistema "rompe" el sonido en pequeñas piezas y sílabas, que se pueden reorganizar para formar frases al mismo ritmo del habla y el tono. En la actualidad, este es un mercado en el que están trabajando varias empresas, especialmente Lyrebird, una startup enfocada a la producción de voces artificiales.
Al principio, el objetivo de la tecnología es ayudar a humanizar los sistemas de voz de los servicios o la creación de mecanismos que mejoren la vida de las personas con dificultades del habla. Pero el desarrollo de este recurso está en la mira de las empresas de seguridad, que creen que debería ser más restringido.
Sin embargo, los expertos dicen que el sistema está lejos de ser perfecto y que las "voces falsas" no engañarían a un oyente en condiciones normales. Lo que sucede, en los casos de estafa, es el uso de otras técnicas de intimidación, como la presión o la posición jerárquica, para evitar que los oyentes presten atención al sonido de fondo, las respuestas lentas y los ruidos metálicos.
Reproducido de: https://computerworld.com.br/2019/09/06/bandidos-roubam-us-243-mil-com-audio-deepfake-imitando-voz-de-ceo/
Traducido de: https://www.perallis.com/news/bandidos-roubam-us-243-mil-com-audio-deepfake-imitando-voz-de-ceo