O rosto que você vê na tela pode não ser real. O Brasil virou o epicentro das fraudes deepfakes Brasil na América Latina, com criminosos usando inteligência artificial para criar pessoas falsas e enganar bancos, fintechs, cripto e qualquer plataforma que dependa de KYC (Know Your Customer) e prova de vida. O alerta vem do 5º Sumsub Identity Fraud Report 2025-2026, que analisou milhões de verificações e mais de 4 milhões de tentativas de fraude registradas entre 2024 e 2025.
O dado mais explosivo está no recorte nacional: entre 2024 e 2025, o uso de deepfakes e identidade sintética cresceu 126% no Brasil. Ao mesmo tempo, o país concentra quase 39% de todos os deepfakes detectados na América Latina. Não é só um aumento de volume. É uma troca de “tipo de ameaça”, como se o crime tivesse migrado da falsificação artesanal para uma linha de montagem automatizada.
O salto dos deepfakes e a mudança de ciclo
O relatório descreve um cenário que engana quem olha apenas para o número “seco” de ocorrências. Globalmente, a taxa de fraude variou entre 2,0% e 2,6% em 2023–2024 e caiu ligeiramente para 2,2% em 2025, sugerindo uma transição de ciclo. Só que, no mesmo período, a proporção de ataques complexos disparou: em 2025, a participação de fraudes altamente sofisticadas chegou a cerca de 28%, contra 10% em 2024, com um crescimento global de 180% em ataques complexos na comparação anual.
É a velha história de segurança digital: menos “tentativas barulhentas”, mais golpes silenciosos e eficientes. Quando o fraudador acerta um método que funciona, ele não precisa atacar milhões de vezes. Ele precisa atacar do jeito certo, com alta taxa de sucesso, e repetir em escala.
A era da fraude sintética
Antigamente, fraudar uma identidade exigia roubar uma carteira e colar uma foto 3×4 num documento falso. Hoje, o criminoso cria um boneco digital perfeito no computador. Ele fala, pisca e mexe a cabeça como você, atravessando verificações de segurança como se fosse uma pessoa real. Isso é identidade sintética (Synthetic Identity): uma “pessoa” montada peça por peça, com rosto, nome, histórico e comportamento coerentes o suficiente para enganar sistemas automatizados e, em muitos casos, também equipes humanas.
O papel da inteligência artificial é dar escala e acabamento a esse boneco. O relatório aponta um marco que muda o jogo: em 2025, 1 em cada 50 documentos falsificados já teria sido gerado por IA usando ferramentas populares como ChatGPT, Grok e Gemini. Na prática, isso significa que não se trata apenas de “documento fake”. Trata-se de documento com aparência plausível, variações, consistência visual e, muitas vezes, alinhamento com o contexto do golpe.
Esse ponto é crucial para entender por que a detecção manual fica cada vez menos útil. Quando o golpe parece “bom demais”, o olho humano perde o referencial. E quando o golpe vem acompanhado de sinais técnicos manipulados, o problema deixa de ser estético e vira sistêmico.
Brasil: a liderança negativa na América Latina
No Brasil, há um contraste que ajuda a dimensionar a ameaça. A fraude de identidade “tradicional” teria caído 10% entre 2024 e 2025. Isso poderia parecer uma boa notícia, se não viesse acompanhada do salto de 126% em deepfakes e identidade sintética. O recado é direto: o crime não recuou, ele evoluiu.
Na América Latina e Caribe como um todo, a taxa de fraude aumentou 13,3% entre 2024 e 2025, e 86% dos entrevistados disseram que os golpes estão se tornando mais sofisticados e cada vez mais impulsionados por IA. E o Brasil ocupa um lugar central nessa escalada, respondendo por quase 39% de todos os deepfakes detectados na região.
Para dar perspectiva regional, o relatório também observa que países como Guatemala, México, Panamá e Suriname registraram crescimentos explosivos de 400% a 500% em deepfakes. O quadro não é um problema isolado de um único país. É uma onda. O que muda no Brasil é a combinação de escala, maturidade do ecossistema digital e atratividade econômica para fraudadores.
A sofisticação real: quando o golpe falsifica o “contexto”
Se deepfake fosse apenas um vídeo bem feito, ainda haveria espaço para “pegar no detalhe”. Só que os ataques evoluíram. Hoje, o pacote inclui Telemetry Manipulation (manipulação de telemetria), uma técnica em que, em vez de forjar apenas documentos, os fraudadores falsificam o contexto inteiro: dados do dispositivo, fluxo da câmera, metadados, chamadas de API, características do navegador e sinais de rede usados por sistemas antifraude para medir risco.
Uma analogia útil é a inspeção de um carro. Antes, o fraudador adulterava o chassi. Agora, ele adulteraria os sensores, o painel e até a central eletrônica para que a máquina de diagnóstico “enxergue” tudo como normal. Na verificação digital, a telemetria é esse diagnóstico. Se o criminoso consegue falsificar o que o sistema lê, ele não está só “passando” na prova de vida. Ele está enganando o fiscal, a catraca e o leitor ao mesmo tempo.
O efeito prático é duro: equipes de revisão manual, por melhores que sejam, ficam quase cegas. O que parece um usuário legítimo em vídeo, com um documento visualmente plausível, pode ser um boneco digital alimentado por sinais técnicos falsificados, projetados para neutralizar as heurísticas de detecção.
O impacto: 68% dos usuários vítimas e o efeito dominó
O relatório quantifica o impacto humano da crise. Em 2025, 68% dos usuários na região relataram ter sido vítimas de fraude. O número, por si só, já é alarmante. Mas os recortes mostram o efeito dominó:
- 63% tiveram suas contas de redes sociais hackeadas, um motor comum de golpes de engenharia social, clonagens e “provas” falsas.
- 10% perderam acesso a logins governamentais, elevando o risco de fraudes com identidade e benefícios.
- 31% foram abordados para atuar como Money Mules (mulas de dinheiro), virando peça operacional da lavagem e da circulação de valores, muitas vezes sem entender o tamanho do crime.
Para empresas, o impacto é igualmente corrosivo. Na região, 43% das empresas sofreram fraude em 2025. Entre as afetadas, 100% foram alvo de Phishing. E um dado que denuncia a subnotificação: apenas 43% relataram fraude de identidade às autoridades, o que ajuda a explicar por que o problema parece, às vezes, menor do que é.
A guerra de IA: defender com IA, supervisionar com humanos
O relatório descreve uma batalha tecnológica explícita. Pavel Goldman-Kalaydin, Head de AI/ML na Sumsub, resume a tensão: a IA está fortalecendo os fraudadores, ao mesmo tempo em que oferece aos defensores mais capacidade de detecção. Já Georgia Sanches, Líder de Negócios da Sumsub no Brasil, aponta que a América Latina entrou numa era em que deepfakes e identidades sintéticas remodelam o cenário, exigindo que organizações deixem de depender de controles manuais e adotem estratégias adaptativas impulsionadas por IA.
Aqui entra a lógica de “IA contra IA”. Não como slogan, mas como necessidade operacional. Quando o golpe opera em escala, em tempo real, e com camadas de falsificação, o único jeito de responder no mesmo ritmo é automatizar a defesa sem abrir mão de supervisão humana.
Na prática, isso costuma significar uma arquitetura em camadas:
- Prova de vida multimodal, com análise de sinais além de “rosto em movimento”.
- Detecção de Telemetry Manipulation com análise de sessão, consistência do dispositivo e indicadores de adulteração.
- Biometria comportamental, observando padrões de navegação, cadência de interação, indicadores de automação e coerência do uso.
- Monitoramento contínuo, porque confiança não é um carimbo. Ela precisa ser construída e reavaliada a cada interação.
- Inteligência compartilhada entre empresas e fornecedores, para transformar padrões emergentes em bloqueios rápidos.
O paradoxo das defesas e o gargalo humano
Um ponto que o relatório destaca na região é um paradoxo que trava a reação: 71% das empresas usam um modelo híbrido de prevenção, combinando equipes internas e fornecedores externos para equilibrar controle, expertise e escala. Mas os mesmos 71% ainda dependem de processos manuais.
Isso cria um atraso estrutural. A empresa percebe que precisa de camadas e parceiros, porém continua aplicando decisões críticas no ritmo humano, enquanto o fraudador opera no ritmo da automação. O resultado é um “gap de velocidade”: o ataque aprende, se adapta e repete antes que a defesa atualize regras, treine times e refine fluxos.
2026: agentes de fraude por IA e golpes de ponta a ponta
O relatório projeta que, em 2026, veremos a ascensão de “agentes de fraude de IA” capazes de executar golpes de ponta a ponta: criar identidades falsas, gerar documentos, conduzir interações em tempo real e responder a desafios dinâmicos durante verificações e contatos com suporte. É uma mudança de patamar. O criminoso não precisa mais de um operador humano por conta fraudada. Ele precisa de um sistema que multiplica operadores.
Nesse cenário, o recado para plataformas financeiras, e-commerce, cripto, iGaming e qualquer serviço que onborde usuários é objetivo: a defesa precisa ser adaptativa, com controles que aprendem, que correlacionam sinais e que reagem com rapidez. O humano continua essencial, mas como auditor e estrategista, não como “filtro manual” do que a IA criminosa produz.
Como se proteger agora (e o que muda para o usuário)
Para empresas, o caminho é abandonar a ideia de que “um bom KYC na entrada resolve tudo”. Golpistas miram a jornada inteira: onboarding, redefinição de senha, suporte, troca de dispositivo, saque e alteração de dados. Políticas de AML (Anti-Money Laundering) e KYC mais fortes ajudam, mas não são um escudo automático quando o adversário manipula sinais e simula pessoas.
Para usuários, a proteção passa a incluir uma postura de desconfiança ativa em situações “perfeitas demais”: vídeos com urgência emocional pedindo dinheiro, solicitações inesperadas de selfie e documento, e abordagens para “trabalho fácil” envolvendo movimentação de valores (um caminho clássico para Money Mules). Em 2025, o golpe não quer apenas seus dados. Ele quer o seu “você digital”.
