Nos últimos anos, a tecnologia tem avançado de forma exponencial, permitindo a criação de vídeos manipulados que reproduzem de maneira impressionante rostos, vozes e gestos humanos. Este fenômeno se torna especialmente preocupante em um contexto onde a verificação de informações tende a ocorrer apenas após o compartilhamento. Por isso, o ambiente digital atual se transformou em um terreno fértil para a desinformação.
Eventos recentes exemplificam essa questão: durante o conflito militar entre Rússia e Ucrânia, um vídeo distorcido que apresentava o presidente ucraniano, Volodymyr Zelensky, supostamente convocando seus soldados à rendição se espalhou rapidamente antes de ser desmentido. Em outra ocasião, um deepfake do CEO da Nvidia, Jensen Huang, foi utilizado em uma transmissão fraudulenta para enganar os usuários com um esquema de criptomoedas.
A situação é ainda mais alarmante em cenários de tensão geopolítica envolvendo nações como Irã, Israel e Estados Unidos, onde a percepção pública pode ser manipulada por meio de vídeos falsos, alimentando narrativas políticas específicas. Dados indicam que o número de deepfakes na internet saltou de aproximadamente 500 mil em 2023 para uma previsão de mais de 8 milhões em 2025, com um aumento dramático de 3.000% em fraudes associadas a essa tecnologia. Uma pesquisa revela que apenas cerca de 24,5% das pessoas conseguem identificar corretamente vídeos falsos de qualidade elevada.
Diante desse cenário, experts como Náthan Ximenes, diretor criativo e estrategista digital, alertam sobre a importância de uma postura crítica em relação às imagens que circulam online. A crença de que vídeos são indiscutíveis como provas já não se sustenta, e o público precisa aprender a reconhecer sinais de manipulação. Há diversos indícios técnicos que podem ajudar a identificar esses conteúdos artificiais, como a sincronia entre a fala e o movimento labial. Muitas vezes, os lábios não coincidem perfeitamente com as palavras ou apresentam atrasos sutis. Detalhes como a expressão facial rigidificada, olhos repetitivos e iluminação irregular também são pistas. Além disso, a qualidade do áudio pode levantar suspeitas, já que vozes geradas por IA costumam ter uma entonação monótona, sem variações naturais.
Portanto, buscar a origem do conteúdo é fundamental. Vídeos de perfis desconhecidos e sem informações claras precisam ser tratados com cautela. Uma verificação rápida em fontes confiáveis pode muitas vezes confirmar a veracidade do conteúdo.
Em um mundo onde a criação de imagens se tornou incrivelmente simples, a alfabetização midiática se torna uma habilidade tão essencial quanto saber usar tecnologia. Com isso, a ideia de que um vídeo pode ser a prova irrefutável de um fato já não pode ser tomada como garantida. Como bem coloca Ximenes: “Antes de acreditar em um vídeo, precisamos aprender a questionar se ele realmente ocorreu”.





