Serviços de inteligência artificial que imitam o rosto e a voz de pessoas têm se tornado mais acessíveis e favorecido ações criminosas no mundo, mostra pesquisa da empresa de cibersegurança Kapersky.
O que aconteceu
Serviços de vídeos que imitam rostos e feições de pessoas são anunciados por US$ 50 (equivalente a R$ 267) na deep web, valor quase 400 vezes mais barato do que em 2023. A pesquisa monitorou que, em 2023, um minuto de um vídeo deepfake poderia custar até US$ 20 mil (equivalente a R$ 106 mil).
Quando o deepfake imita somente de voz, o valor é ainda mais barato. Segundo a pesquisa, há anúncios pedindo US$ 30 (R$ 160) por mensagens de voz manipuladas na deep web, que ajustam tom e timbre de voz para transmitir emoções específicas.
Maioria dos anúncios são em inglês ou em russo e, por serem oferecidos em plataformas ilegais, não têm garantia de
funcionamento. Entre as promessas dos serviços oferecidos estão a disponibilização de softwares que sincronizam expressões
faciais e ferramentas de clonagem de voz.
Ainda assim, facilidade do uso do IA já mudou o mundo dos “crimes comuns” e levantou o alerta da polícia. A Polícia
Civil de São Paulo emitiu, no começo do mês, um aviso sobre o perigo de ligações mudas, que antes eram feitas para verificar se
números estavam ativos, e agora são usadas para captar a voz de vítimas e replicá-las em outros golpes.
Como se proteger de golpes com deepfake?
Para evitar deepfakes de áudio, é possível programar o aparelho para receber somente ligações de números
conhecidos. A funcionalidade está disponível em androids e em iPhones. Veja como bloquear ligações de desconhecidos aqui.
Para não ter a voz clonada, uma das dicas é atender ligações em silêncio. A orientação da Polícia Civil de São Paulo é de
que o usuário não fale nem “alô” nem “sim”, aguardando que o outro lado se pronuncie. Em caso de ligações suspeitas, nenhuma
informação sensível deve ser passada.
Números que façam ligações mudas devem ser bloqueados e denunciados, diz polícia. A Polícia Civil também afirma que
orientar amigos e familiares sobre golpes do tipo é essencial e, caso seja vítima de um crime envolvendo deepfake, um boletim de
ocorrência deve ser registrado.
Mesmo se não receber ligações mudas, lembrar sempre de preservar seus dados é importante. “É importante ter cuidado
com o que compartilha publicamente, inclusive áudios e vídeos em redes sociais, pois podem ser usados para treinar modelos de
clonagem de voz”, afirmou Anderson Leite.