A IA está clonando vozes e rostos. E seu app de mensagens não sabe a diferença.

Nos posts anteriores, mostramos como as plataformas estrangeiras falham na segurança, como o governo está agindo, como a fragmentação digital expõe o brasileiro e como seus dados viram lucro para quem não deve nada ao país. Hoje vamos falar sobre a ameaça que está tornando tudo isso ainda mais perigoso: a inteligência artificial nas mãos dos golpistas.

15 segundos de áudio. É tudo o que precisam.

A tecnologia de clonagem de voz por IA evoluiu a um ponto que assusta até os especialistas. Hoje, sistemas de text-to-speech conseguem replicar a voz de qualquer pessoa a partir de apenas 15 segundos de áudio. Um áudio de WhatsApp que você mandou para um grupo. Um story no Instagram. Uma entrevista no YouTube. Qualquer fragmento público da sua voz é matéria-prima suficiente para criar uma cópia quase perfeita.

Em dezembro de 2025, a Fortune publicou que pesquisadores consideram que a clonagem de voz cruzou o que chamam de “limiar da indistinguibilidade”: o ponto em que o ouvido humano não consegue mais separar o real do sintético. A voz clonada captura ritmo, emoção, sotaque e até aquelas pausas que fazem parte do jeito de cada pessoa falar.

O golpe do Pix por deepfake cresceu 148% em 2025. O criminoso clona a voz de um familiar, liga para a vítima simulando uma emergência e pede uma transferência imediata. A vítima ouve a voz do filho, da mãe, do irmão. E transfere.

308% mais conteúdos falsos em um ano

Os números do Observatório Lupa são alarmantes. Entre 2024 e 2025, conteúdos falsos gerados por inteligência artificial cresceram 308% no Brasil. São vídeos, áudios e imagens manipuladas que circulam por WhatsApp e Telegram com uma sofisticação que torna a detecção praticamente impossível para o usuário comum.

Segundo o relatório Identity Fraud Report 2025-2026 da Sumsub, fraudes com deepfakes cresceram 126% no Brasil em 2025. O país concentra quase 39% de todos os deepfakes detectados na América Latina. E a projeção é que, até o fim de 2026, mais de 70% das tentativas de fraude online usem algum nível de inteligência artificial.

O vishing, golpe por chamada de voz usando IA, cresceu 442% globalmente em 2025, causando US$ 40 bilhões em prejuízos. No Brasil, onde 94% das pessoas relatam tentativas de golpe mensais, a combinação de dados vazados com deepfakes criou uma tempestade perfeita.

A IA sabe mais sobre você do que você imagina

O que torna esses golpes tão eficazes não é apenas a tecnologia de clonagem. É a quantidade de dados que os criminosos já têm sobre você. Lembra dos 416 milhões de contas expostas que mencionamos no post anterior? Lembra dos 206 milhões de números vazados pelo WhatsApp?

Esses dados são o combustível. O golpista não liga com uma voz clonada aleatória pedindo dinheiro. Ele liga com a voz do seu filho, chamando pelo apelido correto, mencionando detalhes reais da sua vida, porque essas informações já estão disponíveis. A IA de clonagem é a arma. Os dados vazados são a munição.

E aqui está a falha estrutural: as mesmas plataformas que permitiram os vazamentos são as mesmas por onde circulam os golpes. O WhatsApp não verifica quem está mandando a mensagem. O Telegram não confirma se aquele áudio é real. Nenhum desses apps foi construído para um mundo onde a IA pode replicar qualquer pessoa em segundos.

Verificação de identidade não é mais luxo. É sobrevivência.

A única defesa real contra deepfakes em larga escala não é tecnológica no sentido de detector. Detectores de deepfake existem, mas estão sempre um passo atrás dos geradores. A cada detector novo, surge um gerador melhor. É uma corrida armamentista que o usuário final sempre perde.

A defesa real é arquitetural. É construir uma plataforma onde a identidade de cada pessoa é verificada na entrada. Onde não importa o quão perfeita seja a clonagem de voz, porque o sistema confirma quem está falando antes de a mensagem chegar.

O PhizChat foi projetado exatamente para isso. Cada usuário passa por verificação de identidade. Cada contato é aprovado. Quando alguém te manda uma mensagem, você sabe que é aquela pessoa, não uma IA imitando aquela pessoa. O conceito de “conversa de verdade” ganha uma urgência nova em 2026: não é mais apenas sobre evitar spam ou contas falsas. É sobre garantir que o ser humano do outro lado é real.

O WeChat resolveu isso. O Brasil também pode.

Na China, o WeChat vincula cada conta a uma identidade real. O resultado é que golpes por impersonação são drasticamente menores do que nas plataformas ocidentais. Não é coincidência. É design.

O modelo de identidade verificada não elimina todos os crimes digitais. Mas elimina a principal ferramenta dos golpistas: o anonimato. Quando cada pessoa na plataforma é quem diz ser, o deepfake perde seu poder. Porque não adianta clonar a voz de alguém se o sistema já sabe que quem está ligando não é aquela pessoa.

O PhizChat traz essa mesma lógica para o Brasil. Identidade verificada, dados armazenados no país, sob a LGPD com jurisdição plena. Um ecossistema onde a segurança não é um recurso opcional adicionado depois, é a fundação sobre a qual tudo é construído.

A janela está se fechando

Existe um intervalo de tempo entre o momento em que uma nova tecnologia de ataque surge e o momento em que a sociedade desenvolve defesas adequadas. Com deepfakes, estamos exatamente nessa janela. A tecnologia de clonagem já é sofisticada o suficiente para enganar qualquer pessoa. Mas a infraestrutura de proteção ainda não existe na maioria das plataformas.

Enquanto o WhatsApp e o Telegram tentam adaptar sistemas que foram construídos para um mundo pré-IA, o PhizChat está sendo construído para o mundo real de 2026: um mundo onde qualquer voz pode ser clonada, qualquer rosto pode ser replicado e a única certeza é a identidade verificada.

A cada mês que passa sem uma alternativa segura, mais brasileiros são vítimas de golpes cada vez mais impossíveis de detectar. Os R$ 4,9 bilhões perdidos com fraudes via Pix em 2025 são apenas o começo. Com a IA acelerando, 2026 promete ser pior, a menos que a resposta seja construída agora.

A pergunta agora é outra

Nos posts anteriores, perguntamos quanto mais vamos esperar. Hoje, a pergunta muda: quando não dá mais para confiar nos próprios olhos e ouvidos, em que você vai confiar?

A resposta do PhizChat é simples: em identidade verificada, em um sistema brasileiro, com dados brasileiros, construído para proteger brasileiros. Conversa de verdade. Porque em 2026, “de verdade” é a única coisa que importa.


Acompanhe o PhizChat e faça parte da construção do maior SuperApp brasileiro. Num mundo de deepfakes, conversa de verdade é a última linha de defesa.

Deixe um comentário