Deepfake leva a roubo de 25 milhões de dólares em empresa de Hong Kong

Deepfake leva a roubo de 25 milhões de dólares em empresa de Hong Kong

A Inteligência Artificial encontra-se cada vez mais avançada, o que certamente coloca alguns benefícios para a humanidade. Mas, ao mesmo tempo, também abre portas para que novos esquemas comecem a surgir no mercado, e com potencial de enganar até grandes empresas.

As autoridades em Hong Kong revelaram um caso interessante, em como a IA e tecnologias de deepfake foram usadas para criar um esquema bastante convincente, que viria a levar ao roubo de milhares de dólares da entidade visada.

O esquema começa quando um funcionário da empresa terá recebido um email de phishing, aparentemente enviado pelo CFO da entidade. O email direcionava o trabalhador para uma reunião, onde supostamente se encontravam outros funcionários e colegas na empresa.

No entanto, esta reunião não seria propriamente verdadeira, e invés disso, todos os participantes teriam sido criados por IA, usando tecnologias de deepfake para criar versões realistas dos mesmos.

O esquema terá sido o suficiente para enganar este funcionário, e levar o mesmo a transferir 25.6 milhões de dólares para os criminosos. As autoridades afirmam que este não é também o primeiro caso deste género, embora tenha sido um dos que registou um valor mais avultado do roubo.

O esquema em questão apenas foi descoberto quando o funcionário terá confirmado a transação com os departamentos corretos da empresa, os quais indicaram que não teriam requerido qualquer transferência de fundos.

Em parte, o esquema tornou-se bastante convincente por contar com uma reunião onde estariam vários funcionários da empresa, e que aparentavam todos ser reais. No entanto, este terá sido o ponto onde a tecnologia deepfake foi usada para criar a ilusão.

Este género de esquemas são consideravelmente difíceis de identificar, mas os utilizadores devem ficar sempre atentos a qualquer espécie de erro na representação das pessoas ou de mensagens suspeitas, e sempre que possível, analisar os factos com pessoas reais – não apenas usando tecnologias de videochamada e similares.