O papel dos deeepfakes na guerra de perceções
A evolução da tecnologia tem proporcionado avanços notáveis, mas também nos colocou diante de desafios sem precedentes. Entre eles, os deepfakes — manipulações digitais extremamente sofisticadas de áudio e vídeo, criadas por Inteligência Artificial (IA) — emergem como uma das ameaças mais inquietantes, especialmente no contexto da comunicação de crise e da gestão reputacional.
Ao longo dos últimos anos, tenho dedicado atenção especial a este tema, que me preocupa. Não é exagero dizer que as crises estão cada vez mais criativas e eficazes em manipular perceções humanas. Como especialistas e orientadores nesse cenário complexo, temos a responsabilidade de partilhar conhecimento baseado em evidências.
O alerta dos estudos científicos
Pesquisas recentes lançam luz sobre o impacto crescente dos deepfakes e a limitada capacidade humana de detetá-los. Um estudo da University College of London revelou que apenas 73% dos deepfakes de voz são identificados corretamente. Mais alarmante ainda, muitas vezes vozes reais são erroneamente classificadas como falsas. Parece um bom índice? Não para mim. Imagine o dano que os 37% de falhas podem causar à reputação ou aos recursos financeiros de uma organização.
Outro estudo, realizado pela University of Amsterdam em parceria com a Sungkyunkwan University, aponta um problema ainda mais profundo. Pessoas que atribuem alta relevância a temas de saúde são mais propensas a verificar informações textuais, mas não mantêm o mesmo nível de atenção para vídeos manipulados. Isso demonstra que mesmo os mais cautelosos não estão imunes.
Se esses dados não servirem como um sinal de alerta, considere o impacto no setor da saúde. Deepfakes têm o potencial de deslegitimar especialistas confiáveis e disseminar crenças falsas, como tratamentos ineficazes, afetando não apenas a saúde pública, mas também a confiança coletiva.
O cenário de risco: memórias coletivas falsas
Ao nível da Guerra Cognitiva, os deepfakes não apenas comprometem a confiança imediata em informações visuais e auditivas, mas também moldam perceções erradas que podem se consolidar como memórias coletivas falsas. Explorando o que os especialistas chamam de heurísticas de realismo, estas ferramentas ativam de forma quase automática a impressão de autenticidade em vídeos e áudios manipulados.
No contexto dos deepfakes, as heurísticas de realismo ocorrem porque os conteúdos multimodais (como vídeos ou áudios manipulados) fornecem sinais que remetem à realidade, como aparência visual convincente, vozes familiares ou cenários aparentemente reais. Esses elementos ativam a percepção de “isto é verdadeiro” de forma automática, sem que a pessoa questione a veracidade do que está a ver ou ouvir.
Exemplos práticos já são conhecidos. No setor da saúde, onde a confiança em especialistas é essencial, deepfakes têm o potencial de deslegitimar vozes confiáveis e introduzir crenças prejudiciais, como tratamentos médicos falsos, gerando impactos severos na saúde pública e na percepção da realidade.
Nos Emirados Árabes Unidos, criminosos usaram deepfakes de voz para simular autoridades e roubar impressionantes 35 milhões de dólares. Este não é apenas um problema tecnológico, mas uma ameaça direta à segurança organizacional e à confiança em sistemas globais.
Frente a essa ameaça, algumas iniciativas estão já em período experimental, como o desenvolvimento de microfones que validam a autenticidade da voz na origem ou ferramentas baseadas em IA adversarial para dificultar a clonagem de vozes.
Como responder a estas ameaças?
É imperativo que empresas de todos os tamanhos comecem a preparar-se agora. Aqui estão algumas medidas essenciais:
- Simulações de Crise com Deepfakes: Incorpore cenários específicos em planos de gestão de crise. Exercícios de engenharia social, como vhishing (phishing por voz), podem treinar equipas para reconhecer sinais de manipulação.
- Adoção de Tecnologias Avançadas: Ferramentas emergentes baseadas em IA já estão em desenvolvimento para autenticar vozes e dificultar a clonagem. Embora ainda não sejam amplamente disponíveis, representam um passo promissor.
- Educação e Literacia Digital: Capacitar colaboradores e o público em geral para identificar inconsistências em conteúdos manipulados é uma estratégia defensiva vital.
- Respostas Ágeis e Estratégicas: Quando uma organização é alvo, uma resposta clara e rápida, acompanhada de evidências, pode prevenir a disseminação de narrativas falsas.
- Apoio à Regulação e Ética: Trabalhar com reguladores para fortalecer políticas contra deepfakes maliciosos e promover um uso ético da IA é essencial para mitigar riscos futuros.
Qual é a ação imediata a implementar?
Se ainda não incluiu cenários envolvendo deepfakes no seu plano de gestão e comunicação de crises, é hora de agir. Este é um risco com elevada probabilidade e impacto significativo nos próximos anos.
Para reforçar essa urgência, dados da McAfee indicam que, na Índia, mais de 75% dos utilizadores online já se depararam com deepfakes, e 83% das vítimas de fraude relataram perdas financeiras. Esse é um problema global que exige soluções locais e internacionais.
Estamos preparados para enfrentar esta nova era de desinformação? A resposta deve começar hoje, com ação informada, tecnologias robustas e compromisso ético.
(*) Elsa Lemos é Especialista em Comunicação de Crise e Mestre em Guerra de Informação.
Os artigos publicados com assinatura não traduzem necessariamente a opinião do portal. A publicação tem como propósito estimular o debate e provocar a reflexão sobre os problemas brasileiros.