Deepfake e voz clonada: o golpe com inteligência artificial que engana qualquer um

·8 min de leitura

A explosão dos golpes com inteligência artificial

Em 2025, os golpes financeiros envolvendo deepfakes cresceram 148%. O número de deepfakes em circulação saltou de 500 mil em 2023 para 8 milhões em 2025, impulsionado pela popularização de ferramentas de IA generativa gratuitas ou de baixo custo. O Brasil, com sua enorme base de usuários de redes sociais e aplicativos de mensagem, é um dos mercados mais afetados. Para o panorama completo, confira nosso artigo sobre golpes digitais no Brasil.

Os dados são alarmantes: ocorre uma tentativa de fraude com voz clonada a cada 2,3 segundos no mundo, totalizando 700 milhões de tentativas por ano. Além disso, 53% das vítimas de golpes digitais têm mais de 50 anos, faixa etária que tende a confiar mais em chamadas telefônicas e mensagens de voz.

+148%

Crescimento de golpes com deepfake em 2025

8 mi

Deepfakes em circulação em 2025

2,3s

Uma fraude com voz clonada a cada 2,3 segundos

Como funciona a clonagem de voz

Ferramentas modernas de síntese de voz precisam de apenas 15 segundos de áudio para criar uma réplica convincente. Uma mensagem de voz no WhatsApp, um story no Instagram ou um vídeo no TikTok pode fornecer material suficiente. A IA analisa entonação, ritmo, timbre, pausas e até padrões de respiração para gerar um modelo de voz sintética que engana até familiares próximos.

As fontes de áudio mais exploradas são redes sociais: vídeos no Instagram, transmissões ao vivo, podcasts e áudios públicos em grupos de WhatsApp. Perfis públicos são particularmente vulneráveis, pois qualquer pessoa pode acessar o conteúdo sem autorização.

⚠️ Atenção

Mensagens de voz no WhatsApp, stories no Instagram e vídeos no TikTok são as fontes mais comuns de áudio usadas por criminosos para clonar vozes. Apenas 15 segundos de gravação são suficientes. Considere restringir o acesso ao seu perfil e evitar enviar áudios para grupos grandes.

Deepfakes de vídeo em tempo real

A tecnologia já permite que criminosos realizem videochamadas usando o rosto de outra pessoa em tempo real. O golpista alimenta o sistema com fotos e vídeos da vítima, obtidos em redes sociais, e a IA cria uma sobreposição que acompanha os movimentos faciais durante a chamada.

Criminosos ligam por vídeo para pais e avós se passando por filhos e netos, simulando emergências que exigem transferências imediatas. A combinação de rosto e voz clonados cria uma ilusão extremamente convincente, especialmente em chamadas curtas com qualidade de vídeo reduzida. Não é mais possível confiar exclusivamente no que se vê e ouve em uma videochamada.

Como os golpistas usam deepfakes

Os criminosos desenvolveram estratégias específicas para explorar deepfakes em golpes financeiros, sempre combinando confiança e urgência emocional.

Falsa emergência familiar

O cenário mais devastador. O criminoso clona a voz de um filho ou neto e liga simulando um acidente, internação ou dívida urgente, pressionando para transferências via Pix imediatas. O impacto emocional supera qualquer cautela racional, e muitos só percebem o golpe após a transferência.

Falso chefe pedindo transferência

O golpista clona a voz de um CEO ou diretor financeiro e liga para funcionários responsáveis por pagamentos, solicitando transferências urgentes. A autoridade hierárquica faz com que muitos executem sem questionar. A proteção exige protocolos de autorização dupla para transferências, independentemente de quem solicite.

Validação de identidade falsa

Criminosos usam deepfakes de vídeo para burlar verificações de identidade em bancos e fintechs, abrindo contas fantasma para lavagem de dinheiro. As instituições estão investindo em detecção de deepfake, mas a corrida entre detecção e geração continua.

Desinformação e eleições 2026

Com as eleições de 2026, cresce a preocupação com vídeos e áudios falsos de candidatos circulando em redes sociais e aplicativos de mensagem. Um vídeo falsificado pode ser compartilhado milhões de vezes antes da verificação, causando danos irreversíveis à reputação.

CenárioMétodoAlvo principal
Emergência familiarVoz clonada + ligaçãoPais e avós (53% das vítimas têm mais de 50 anos)
Falso chefeVoz clonada + contexto corporativoFuncionários financeiros de empresas
Identidade falsaDeepfake de vídeoProcessos de verificação bancária
DesinformaçãoVídeo e áudio fabricadosOpinião pública e eleitores

Recebeu um áudio ou mensagem suspeita?

Use o Vigarista.com para analisar mensagens e identificar sinais de golpe antes de agir.

Verificar agora

Como identificar um deepfake

Embora os deepfakes estejam mais sofisticados, existem sinais que ajudam a identificar uma fraude.

  • Micro-pausas robóticas entre frases ou palavras, que não são naturais na fala humana
  • Dessincronização labial em videochamadas, com lábios não acompanhando o áudio perfeitamente
  • Respostas genéricas a perguntas específicas, indicando que a IA não tem contexto real
  • Dificuldade com perguntas inesperadas que fogem do roteiro preparado pelo golpista
  • Iluminação inconsistente no rosto durante videochamadas, com sombras que não correspondem ao ambiente
  • Urgência extrema para transferir dinheiro, sem permitir tempo para verificação
  • Pedido para não contar a ninguém sobre a situação até que o dinheiro seja transferido

A técnica mais eficaz para desmascarar um deepfake é fazer perguntas inesperadas: mencione um evento recente entre vocês, use um nome fictício para ver se a pessoa concorda, ou peça detalhes que só a pessoa real saberia. Se alguém pedir dinheiro com urgência e insistir para que você não fale com outros antes, isso é sinal claro de fraude.

Como se proteger contra golpes com deepfake

Crie uma palavra-chave com sua família. Combine uma palavra secreta que só os membros conheçam. Se alguém ligar pedindo dinheiro, peça a palavra-chave antes de qualquer transferência. Troque-a periodicamente.

Verifique sempre por um canal alternativo. Se receber uma ligação pedindo dinheiro, desligue e ligue de volta para o número salvo na sua agenda. Nunca confie em um único canal para autorizar transferências.

Limite a exposição de áudios e vídeos. Configure redes sociais como privadas, evite áudios para grupos grandes no WhatsApp e pense antes de publicar vídeos com sua voz em perfis públicos.

💡 Dica

Converse com seus pais e avós sobre golpes com voz clonada. Como 53% das vítimas têm mais de 50 anos, a conscientização familiar é uma das defesas mais importantes. Explique que hoje é possível clonar a voz de qualquer pessoa e que nunca devem transferir dinheiro baseando-se apenas em uma ligação.

Desconfie de urgência extrema. Qualquer pedido de dinheiro com frases como "preciso agora" ou "não conte para ninguém" deve ser tratado com extrema desconfiança. Diga que vai verificar e desligue. Para mais estratégias, confira nosso guia sobre como não cair em golpes e nosso artigo sobre WhatsApp clonado.

A conexão entre deepfakes e golpes financeiros

A combinação de deepfakes com a instantaneidade do Pix criou uma tempestade perfeita. Em 2025, as fraudes com Pix totalizaram 28 milhões de casos e R$ 4,9 bilhões em perdas. O golpe do Pix ganhou uma nova dimensão com deepfakes: a voz de um filho pedindo ajuda ou o rosto de um gerente solicitando uma transferência têm um poder de persuasão que mensagens de texto não conseguem igualar.

A partir de fevereiro de 2026, o Mecanismo Especial de Devolução (MED) do Banco Central tornou-se obrigatório. No entanto, os criminosos transferem os valores para múltiplas contas em minutos, dificultando a recuperação. A prevenção continua sendo muito mais eficaz.

Desconfia de uma mensagem ou link?

Cole o conteúdo no Vigarista.com e nossa IA analisa em segundos se é um golpe.

Verificar agora

O futuro dos golpes com inteligência artificial

As ferramentas de deepfake continuam evoluindo mais rápido que a capacidade de detecção. No nível individual, protocolos de verificação como palavras-chave e confirmação por canais alternativos continuam sendo a defesa mais eficaz. No nível institucional, empresas e bancos precisam investir em detecção baseada em IA. Ferramentas como o Vigarista.com oferecem análise de mensagens e links acessível a qualquer pessoa.

A educação digital da população é a defesa mais poderosa. Compartilhe este artigo com familiares, especialmente pessoas acima de 50 anos. Confira também nossa página de dicas de segurança e conheça nossas soluções na página para empresas.

Perguntas frequentes

É possível clonar a voz de uma pessoa com apenas 15 segundos de áudio?

Sim. As ferramentas atuais de inteligência artificial conseguem criar uma réplica convincente da voz de qualquer pessoa usando apenas 15 segundos de gravação. Áudios de redes sociais, mensagens de voz no WhatsApp e vídeos públicos são as fontes mais utilizadas pelos criminosos.

Como identificar um deepfake durante uma ligação?

Fique atento a micro-pausas robóticas entre frases, respostas genéricas a perguntas específicas, dificuldade em responder perguntas inesperadas e leve dessincronização labial em videochamadas. A melhor defesa é combinar uma palavra-chave secreta com familiares para confirmar identidade.

Como me proteger contra golpes com voz clonada?

Combine uma palavra-chave secreta com familiares e amigos próximos. Sempre verifique pedidos de dinheiro por um canal alternativo, como uma ligação para o número salvo na sua agenda. Limite a exposição de áudios e vídeos em redes sociais públicas e desconfie de qualquer pedido urgente de transferência financeira.