Bandidos roubam US$ 243 mil com áudio deepfake imitando voz de CEO
Em março deste ano, o diretor de uma empresa de energia alemã baseada no Reino Unido recebeu uma ligação que o pegou de surpresa. Em um tom enérgico e apressado, o CEO da companhia ordenava uma transferência imediata de US$ 243 mil para uma conta corrente na Hungria. O motivo, argumentou, seria por conta do prazo para o pagamento de uma taxa de última hora.
Por conta do tom de urgência na voz, o diretor fez a transferência. Instantes depois, seu telefone toca novamente e o CEO pede que ele realize outro envio. Desconfiado, desligou o telefone e entrou em contato diretamente com o número pessoal do executivo, que negou ter feito o pedido. Enquanto estava na ligação, recebeu outro chamado do “falso chefe”, o que confirmou a suspeita: a voz do profissional havia sido manipulada digitalmente.
Uso crescente
O caso veio a público no final de agosto e apresentado pela francesa Euler Hermes, seguradora contratada pela empresa alemã (que não foi identificada) responsável por cobrir todos os custos perdidos com o golpe. O caso mostra o quão avançada está a tecnologia de simulação de voz. Que, tal qual os deepfakes (técnica que usa inteligência artificial para combinar uma determinada fala com um vídeo já existente) preocupam as empresas por conta da questão de segurança.
E a firma alemã não está sozinha: pesquisadores da companhia de tecnologia Symantec afirmaram ao Washington Post terem encontrado ao menos outros três casos em que a voz de executivos foram imitadas para enganar empresas, resultando em perdas de milhões de dólares.
Táticas de persuasão
Essa simulação consegue ser feita quando, após receber uma gravação da voz de uma pessoa, o sistema “quebra” o som em pequenos pedaços e sílabas, que podem ser reorganizados para a formação de frases no mesmo ritmo de fala e tonalidade. Atualmente, esse é um mercado no qual diversas empresas estão trabalhando, com destaque para Lyrebird, startup focada na produção de vozes artificiais.
A princípio, o objetivo da tecnologia é auxiliar na humanização dos sistemas de voz de serviços ou a criação de mecanismos que melhorem a vida de pessoas com dificuldades de fala. Mas o desenvolvimento desse recurso está na mira de empresas de segurança, que acreditam que ele deveria ser mais restrito.
Porém, especialistas dizem que o sistema está longe de ser perfeito e que as “vozes fake” não enganariam um ouvinte em condições normais. O que acontece, nos casos de golpe, é o uso de outras técnicas de intimidação, como pressão ou posição hierárquica, para fazer com que os ouvintes não prestem atenção no som ao fundo, respostas lentas e barulhos metalizados.
Reprodução de: https://computerworld.com.br/2019/09/06/bandidos-roubam-us-243-mil-com-audio-deepfake-imitando-voz-de-ceo/