Você se considera capaz de distinguir um vídeo com deepfake de um vídeo real? No Brasil, cerca de metade dos usuários da internet acredita que sim. No entanto, essa confiança não se confirma na prática. Um levantamento conduzido pela empresa de verificação de identidade digital Veriff em parceria com a Kantar mostra que a capacidade média de identificação de conteúdos manipulados por inteligência artificial no país está próxima do acaso, ou seja, pouco difere de um palpite aleatório, mesmo em um cenário de alta exposição a esse tipo de material..jpg)
IA ou real? (Foto: Divulgação)
A pesquisa, parte de um estudo global que também incluiu Estados Unidos e Reino Unido, foi realizada em fevereiro de 2026 com mil entrevistados no Brasil, em uma amostra representativa por idade, gênero e região. Além de perguntas sobre percepção e comportamento, os participantes foram submetidos a um teste prático, no qual avaliaram 16 conteúdos, entre imagens e vídeos reais e manipulados, apresentados em ordem aleatória.
Segundo o levantamento, 80% dos brasileiros afirmam já ter se deparado com deepfakes online, um índice significativamente superior ao observado em outros países, onde essa exposição gira em torno de 60%. Ainda assim, essa familiaridade não se traduz em entendimento. 67% dizem conhecer o termo “deepfake”, resultado intermediário na comparação internacional, indicando que o contato com esse tipo de conteúdo nem sempre vem acompanhado de reconhecimento claro do que está sendo visto.
O contraste se aprofunda nos resultados do teste prático. O desempenho médio registrado foi de 0,08 em uma escala que vai de -1 a 1. Na prática, isso significa que uma parcela relevante dos participantes não conseguiu distinguir conteúdos reais de manipulados com consistência. Cerca de 32% tiveram desempenho equivalente ou inferior ao acaso, enquanto apenas 20% atingiram os níveis mais altos de acerto.
Os erros se tornam ainda mais evidentes em conteúdos em vídeo. Em um dos testes, apenas 29% dos participantes identificaram corretamente um vídeo manipulado, enquanto um vídeo real foi reconhecido como autêntico por apenas 35% dos entrevistados. Imagens seguem padrão semelhante sobretudo em casos de geração por IA ou uso de faceswap, em que rostos são sobrepostos com alto grau de realismo.
Os critérios utilizados pelos brasileiros para identificar fraudes permanecem essencialmente visuais e pouco sofisticados. Os sinais mais citados incluem pele com aparência artificial (64%), movimentos ou expressões estranhas em vídeos (63%) e detalhes inconsistentes em elementos como cabelo, dentes e olhos (57%). Também aparecem fatores como cenários incoerentes (50%) e iluminação ou sombras pouco naturais (49%). Para Gabriel Barbabela, lead product Manager da Veriff, à medida que o conteúdo gerado por IA se torna indistinguível da realidade, o olho humano por si só já não é uma linha de defesa confiável. “A sensibilização continua a ser um primeiro passo fundamental, mas as empresas que operam no Brasil precisam investir simultaneamente em tecnologias de verificação automatizadas capazes de detectar o que os humanos simplesmente não conseguem.”
O levantamento também mostra que usuários com melhor desempenho e aqueles mais ativos em redes sociais tendem a considerar um número maior desses sinais, ainda que esse comportamento não se traduza em ganhos significativos de precisão.
Entre os critérios declarados, 34% dos entrevistados afirmam recorrer à “intuição” para avaliar a autenticidade de um conteúdo, enquanto uma parcela residual diz não observar nenhum aspecto específico. Ainda assim, há pouca diferenciação entre os critérios utilizados, o que indica a ausência de uma estratégia clara de verificação.
“Um ponto que chama atenção no Brasil é a diferença entre confiança e acerto. Cerca de metade das pessoas acredita que consegue identificar deepfakes, um nível semelhante ao dos Estados Unidos e superior ao do Reino Unido. Mas, na prática, essa confiança não se traduz em melhores resultados. Aqui, ao contrário de outros países, sentir-se capaz não significa acertar mais”, afirma Andrea Rozenberg, diretora de Mercados Emergentes da Veriff.
Uso disseminado de IA e preocupação elevada
O levantamento mostra ainda que o Brasil não se destaca apenas pelo consumo, mas também pela produção de conteúdo gerado por inteligência artificial. Segundo a pesquisa, 59% dos entrevistados afirmam já ter criado imagens ou vídeos com uso de IA, índice superior ao observado nos Estados Unidos (49%) e no Reino Unido (38%). Ainda assim, essa familiaridade prática tem impacto limitado na capacidade de identificação. A experiência com ferramentas de geração de conteúdo melhora a precisão apenas de forma marginal, em torno de 5%.
A percepção de risco acompanha esse cenário. O Brasil registra os níveis mais altos de preocupação entre os países analisados. A possibilidade de fraudes e golpes de identidade acende um sinal de alerta para 87% dos entrevistados, enquanto 82% demonstram preocupação com a perda de confiança nas interações digitais e 81% com a disseminação de desinformação política. Ao mesmo tempo, há um ceticismo relevante em relação à capacidade das plataformas digitais de identificar conteúdos manipulados, o que reforça a sensação de vulnerabilidade.
O avanço dos deepfakes tem ampliado a demanda por soluções de verificação de identidade digital. Para empresas que operam no mercado brasileiro, as implicações são imediatas e relevantes, e as perdas relacionadas a fraudes com identidades sintéticas já representam bilhões de dólares anualmente. Diante da dificuldade de distinção visual, empresas e plataformas tendem a recorrer a tecnologias capazes de validar autenticidade com base em sinais que escapam à análise humana, como padrões biométricos, microvariações em expressões e inconsistências na composição da imagem. “A defesa mais eficaz é aquela que mantém o fator humano no processo, apoiados por sistemas de IA que detectam o que o olho não consegue ver, assinalam o que a intuição não percebe e verificam a identidade com um nível de precisão que nenhum indivíduo consegue manter sozinho. Em última análise, manter a confiança nas interações digitais dependerá da criação de sistemas que reconheçam essa nova realidade onde ver já não pode ser o mesmo de acreditar. As empresas que hoje estabelecem uma parceria entre a supervisão humana e a verificação automatizada serão as que conquistarão e manterão a confiança dos seus clientes amanhã”, destaca Andrea Rozenberg.