As chamadas telefónicas fraudulentas estão a tornar-se cada vez mais sofisticadas. A empresa de cibersegurança ESET alerta para o crescimento de esquemas que utilizam vozes geradas por inteligência artificial para se fazerem passar por executivos, colegas de trabalho ou fornecedores.
Graças aos avanços da inteligência artificial generativa, criar áudio sintético convincente está hoje ao alcance de muitas pessoas. Em vários casos, bastam alguns segundos de gravação disponíveis online para reproduzir o tom e o estilo de fala de alguém.
Entrevistas, vídeos nas redes sociais ou apresentações públicas podem fornecer material suficiente para treinar ferramentas capazes de imitar vozes humanas com grande precisão. Esta facilidade tem contribuído para a rápida expansão deste tipo de fraude digital.
Como os criminosos preparam este tipo de ataque
Segundo especialistas da ESET, os ataques costumam começar com a escolha de uma pessoa influente dentro de uma empresa, por exemplo, um diretor ou responsável financeiro.
Depois de recolherem gravações públicas dessa pessoa, os atacantes utilizam software de clonagem de voz para criar uma versão artificial. O passo seguinte é identificar um colaborador que possa ter acesso a informação sensível ou capacidade para realizar pagamentos.
Em alguns casos, os criminosos enviam primeiro uma mensagem ou e-mail para preparar o cenário. A chamada surge depois, com um pedido urgente que pode envolver transferências bancárias, alterações de dados de pagamento ou acesso a sistemas internos.
Porque estas chamadas parecem tão reais
As tecnologias atuais conseguem reproduzir vários elementos da comunicação humana, como pausas naturais, variações de tom e até certas expressões características da pessoa imitada.
Como a interação acontece apenas por telefone, torna-se mais difícil confirmar a identidade do interlocutor. A pressão para agir rapidamente, muitas vezes invocando urgência ou confidencialidade, também aumenta a probabilidade de a vítima cumprir o pedido sem questionar.
Pistas que podem denunciar uma voz clonada
Apesar de muito convincentes, estas chamadas podem apresentar alguns sinais de alerta. Entre eles estão entonções pouco naturais, respostas vagas a perguntas inesperadas ou um áudio demasiado uniforme.
Por isso, especialistas recomendam que as empresas adotem medidas preventivas, como verificação adicional antes de transferências financeiras, autenticação multifator e formação dos colaboradores para reconhecer tentativas de manipulação.
De acordo com a ESET, este tipo de fraude tende a crescer, uma vez que as ferramentas de criação de áudio artificial são cada vez mais acessíveis e fáceis de usar.










