Golpe da falsa voz com uso de inteligência artificial, engana vítimas no Paraná

Foto: Arquivo/ Beltrão Agora

Criminosos usam inteligência artificial para imitar a voz e até a imagem de familiares, amigos ou pessoas conhecidas com o objetivo de pedir dinheiro. O golpe, conhecido como "Falsa Voz", já fez vítimas no Paraná, segundo o delegado da Polícia Civil, Dr. Emmanoel David.

Ele explicou que, no passado, os golpes aconteciam por mensagens escritas. "Antes da pandemia, o criminoso mandava uma mensagem se passando por um familiar e a pessoa fazia a transferência. Era um texto", afirmou. Agora, a tecnologia evoluiu. "Hoje a vítima recebe uma ligação por voz, muito parecida com a do ente querido pedindo dinheiro."

O delegado destacou que há casos ainda mais graves. "Temos vários boletins de ocorrência em que os criminosos usam deepfake, com rosto e voz de pessoas famosas, de filhos ou até de apresentadores de jornal pedindo valores para doações, campanhas ou situações pessoais."

Segundo Dr. Emmanoel, os golpistas conseguem esses dados principalmente pelas redes sociais. "A tecnologia está aberta para todos, para o bem ou para o crime. Temos muitos dados disponíveis, inclusive voz e vídeo. Com um aplicativo, o criminoso cria um avatar rapidamente. Não precisa ser especialista."

Sobre como agir, o delegado reforçou que nenhuma transferência deve ser feita sem confirmação. "Quando o golpe envolve familiares, o telefone usado costuma ser diferente do número verdadeiro." A orientação é desligar, ligar diretamente para o familiar no número correto ou ir até ele pessoalmente. Em casos bancários, a recomendação é ir até a agência e falar com o gerente. "Presencialmente não existe esse tipo de golpe."

A prática de aplicar golpes por meio de voz falsa, uso de imagem ou deepfake configura crime de estelionato, previsto no artigo 171 do Código Penal, além de outros delitos.

Em caso de suspeita ou prejuízo, a orientação é registrar boletim de ocorrência na Polícia Civil ou acionar o 190.

Fonte: CATVE