Você já deve ter recebido uma ligação de um número desconhecido no meio do dia e, ao atender, notou que não havia resposta do outro lado, nem mesmo ao “alô”. É aí que mora o perigo: segundo um alerta da Polícia Civil de São Paulo, criminosos estão fazendo ligações de curta duração para captar a voz das vítimas, fazer modificações com Inteligência Artificial (IA) e aplicar golpes.
Este tipo de golpe não é novidade, mas ganhou um novo potencial com o uso da Inteligência Artificial. É o que explica o especialista em Cibersegurança da PierSec, Alex Vieira: “Os golpistas fazem o uso de deepfakes, uma técnica que permite alterar um vídeo, foto ou áudio e modificar seu conteúdo ou mensagem. Ou seja, com isso, eles captam a voz da pessoa que atendeu, ainda que ela responda poucas palavras e em poucos segundos, e modificam o conteúdo. A IA então imita a entonação, timbre, as características da voz”, diz.
Com isso, os criminosos podem usar o conteúdo para aplicar golpes de engenharia social nos amigos e familiares da vítima, e até mesmo em desconhecidos. Engenharia social esta, que se caracteriza por manipular pessoas utilizando táticas psicológicas ou explorando vulnerabilidades delas.
Por isso, o especialista recomenda ficar em silêncio ao receber esse tipo de ligação (evitar dizer alô ou sim), bloquear e denunciar o número. E caso caia em um golpe ou seja vítima de um deepfake, registrar um boletim de ocorrência. “Os criminosos podem utilizar até mesmo conteúdo das redes sociais das vítimas, como fotos e vídeos, para treinar a IA, por isso, é preciso cautela com o que compartilha nas redes sociais”, alerta Alex.
Confira as notícias do Boqnews no Google News e fique bem informado.