Em 2023, houve um recorde de quase 5 milhões de casos de conteúdos falsos usados para golpes, um aumento em relação aos 4,7 milhões de 2022, segundo o Anti-Phishing Working Group. A inteligência artificial está facilitando a criação de mensagens de phishing mais convincentes e com menos erros.
Além disso, na "deep web", existe uma versão do ChatGPT chamada FraudGPT, que ajuda estelionatários. A Polícia Civil ainda enfrenta dificuldades para identificar o uso da IA em fraudes. Entre 2018 e 2022, houve um aumento de 326,2% nos casos de fraude eletrônica no Brasil, e a tendência de crescimento continuou em 2023. Veja como se proteger.
SITES FALSOS
Durante uma pesquisa por sites de arrecadação para vítimas no Rio Grande do Sul, a reportagem encontrou um site falso, "doacoes-rs.vercel.app", agora fora do ar. O site usava a plataforma Vercel para criar páginas rapidamente e pedia doações via Pix para uma conta suspeita. Apesar de apresentar vídeos e imagens da tragédia, não fornecia informações sobre os responsáveis pela arrecadação, como nomes ou contatos.
A chave Pix estava registrada em nome de um microempresário, mas isso não garantia a legitimidade. Para evitar fraudes, é importante verificar detalhes do endereço e evitar clicar em links patrocinados no Google ou redes sociais, que podem ser fraudulentos.
FAKES DO TINDER
O golpe do Tinder, que utiliza perfis falsos para sequestros relâmpagos, agora inclui uma variante com IA, usando imagens geradas artificialmente em vez de fotos reais. Para identificar essas imagens falsas, observe defeitos nas mãos, sombras estranhas ou a ausência de marcas de expressão.
A Social Catfish recomenda buscar imagens reversas e verificar informações como nome e telefone. Os principais apps de relacionamento, como Tinder, Bumble e Grindr, empregam moderação humana e IA para detectar perfis falsos e oferecem opções de verificação de perfil. Manter contato com perfis verificados é mais seguro.
CLONES VIRTUAIS GOLPISTAS
Elias Alves, servidor público de Goiás, foi vítima de um golpe ao acreditar em uma promoção falsa de um restaurante. Criminosos usaram uma foto sua para criar um vídeo fraudulento com uma proposta de investimento, levando à invasão de suas contas no WhatsApp e Instagram e ao roubo de sua identidade.
Apesar de ter prevenido amigos e familiares e não ter sofrido perdas materiais, Alves não registrou um boletim de ocorrência. O golpe, noticiado pela Folha de S.Paulo, usa deepfakes para criar vídeos falsos de famosos e enganar vítimas com promessas de altos retornos financeiros. Para se proteger, o especialista em cibersegurança Lincoln Mattos recomenda restringir a circulação de imagens e áudios pessoais e manter contas privadas.
LIGAÇÃO FALSA
A tecnologia de deepfakes também é usada em chamadas falsas com vozes clonadas. Em Hong Kong, uma empresa multinacional perdeu 200 milhões de dólares (R$ 126,5 milhões) após estelionatários criarem uma chamada de vídeo falsa com imagens geradas por IA, fazendo-se passar pelo diretor financeiro e outros funcionários.
A empresa foi enganada a fazer 15 transferências para cinco contas em Hong Kong. Em resposta ao aumento do risco de roubo de identidade com IA, bancos estão substituindo a segurança biométrica por análises comportamentais, observando hábitos pessoais dos clientes para prevenir fraudes.
MENSAGENS E EMAILS FALSOS EM MASSA
O Grupo de Trabalho Anti-Phishing relatou que, no ano passado, redes sociais e plataformas de email foram os principais canais para mensagens golpistas, com 43% dos golpes ocorrendo em redes sociais e 15% em emails. A inteligência artificial ajuda criminosos a automatizar a criação de conteúdo sem erros gramaticais, tornando os golpes mais convincentes.
Fabio Assolini, da Kaspersky, apontou que os golpistas têm usado textos fraudulentos para desviar doações via Pix, mencionando entidades legítimas e usando chaves falsas. Para evitar prejuízos, é crucial verificar o destinatário da transferência e o CNPJ da empresa, já que os golpistas frequentemente fracionam e movimentam valores em várias contas para dificultar o rastreamento.
(Com informações da FolhaPress - Pedro S. Teixeira)