ACOMPANHE-NOS     Campo Grande News no Facebook Campo Grande News no X Campo Grande News no Instagram
ABRIL, SEGUNDA  28    CAMPO GRANDE 22º

Artigos

O papel dos deeepfakes na guerra de perceções

Por Elsa Lemos (*) | 28/04/2025 08:35

A evolução da tecnologia tem proporcionado avanços notáveis, mas também nos colocou diante de desafios sem precedentes. Entre eles, os deepfakes — manipulações digitais extremamente sofisticadas de áudio e vídeo, criadas por Inteligência Artificial (IA) — emergem como uma das ameaças mais inquietantes, especialmente no contexto da comunicação de crise e da gestão reputacional.

Ao longo dos últimos anos, tenho dedicado atenção especial a este tema, que me preocupa. Não é exagero dizer que as crises estão cada vez mais criativas e eficazes em manipular perceções humanas. Como especialistas e orientadores nesse cenário complexo, temos a responsabilidade de partilhar conhecimento baseado em evidências.

O alerta dos estudos científicos

Pesquisas recentes lançam luz sobre o impacto crescente dos deepfakes e a limitada capacidade humana de detetá-los. Um estudo da University College of London revelou que apenas 73% dos deepfakes de voz são identificados corretamente. Mais alarmante ainda, muitas vezes vozes reais são erroneamente classificadas como falsas. Parece um bom índice? Não para mim. Imagine o dano que os 37% de falhas podem causar à reputação ou aos recursos financeiros de uma organização.

Outro estudo, realizado pela University of Amsterdam em parceria com a Sungkyunkwan University, aponta um problema ainda mais profundo. Pessoas que atribuem alta relevância a temas de saúde são mais propensas a verificar informações textuais, mas não mantêm o mesmo nível de atenção para vídeos manipulados. Isso demonstra que mesmo os mais cautelosos não estão imunes.

Se esses dados não servirem como um sinal de alerta, considere o impacto no setor da saúde. Deepfakes têm o potencial de deslegitimar especialistas confiáveis e disseminar crenças falsas, como tratamentos ineficazes, afetando não apenas a saúde pública, mas também a confiança coletiva.

O cenário de risco: memórias coletivas falsas

Ao nível da Guerra Cognitiva, os deepfakes não apenas comprometem a confiança imediata em informações visuais e auditivas, mas também moldam perceções erradas que podem se consolidar como memórias coletivas falsas. Explorando o que os especialistas chamam de heurísticas de realismo, estas ferramentas ativam de forma quase automática a impressão de autenticidade em vídeos e áudios manipulados.

No contexto dos deepfakes, as heurísticas de realismo ocorrem porque os conteúdos multimodais (como vídeos ou áudios manipulados) fornecem sinais que remetem à realidade, como aparência visual convincente, vozes familiares ou cenários aparentemente reais. Esses elementos ativam a percepção de “isto é verdadeiro” de forma automática, sem que a pessoa questione a veracidade do que está a ver ou ouvir.

Exemplos práticos já são conhecidos. No setor da saúde, onde a confiança em especialistas é essencial, deepfakes têm o potencial de deslegitimar vozes confiáveis e introduzir crenças prejudiciais, como tratamentos médicos falsos, gerando impactos severos na saúde pública e na percepção da realidade.

Nos Emirados Árabes Unidos, criminosos usaram deepfakes de voz para simular autoridades e roubar impressionantes 35 milhões de dólares. Este não é apenas um problema tecnológico, mas uma ameaça direta à segurança organizacional e à confiança em sistemas globais.

Frente a essa ameaça, algumas iniciativas estão já em período experimental, como o desenvolvimento de microfones que validam a autenticidade da voz na origem ou ferramentas baseadas em IA adversarial para dificultar a clonagem de vozes.

Como responder a estas ameaças?

É imperativo que empresas de todos os tamanhos comecem a preparar-se agora. Aqui estão algumas medidas essenciais:

  1. Simulações de Crise com Deepfakes: Incorpore cenários específicos em planos de gestão de crise. Exercícios de engenharia social, como vhishing (phishing por voz), podem treinar equipas para reconhecer sinais de manipulação.
  2. Adoção de Tecnologias Avançadas: Ferramentas emergentes baseadas em IA já estão em desenvolvimento para autenticar vozes e dificultar a clonagem. Embora ainda não sejam amplamente disponíveis, representam um passo promissor.
  3. Educação e Literacia Digital: Capacitar colaboradores e o público em geral para identificar inconsistências em conteúdos manipulados é uma estratégia defensiva vital.
  4. Respostas Ágeis e Estratégicas: Quando uma organização é alvo, uma resposta clara e rápida, acompanhada de evidências, pode prevenir a disseminação de narrativas falsas.
  5. Apoio à Regulação e Ética: Trabalhar com reguladores para fortalecer políticas contra deepfakes maliciosos e promover um uso ético da IA é essencial para mitigar riscos futuros.

Qual é a ação imediata a implementar?

Se ainda não incluiu cenários envolvendo deepfakes no seu plano de gestão e comunicação de crises, é hora de agir. Este é um risco com elevada probabilidade e impacto significativo nos próximos anos.

Para reforçar essa urgência, dados da McAfee indicam que, na Índia, mais de 75% dos utilizadores online já se depararam com deepfakes, e 83% das vítimas de fraude relataram perdas financeiras. Esse é um problema global que exige soluções locais e internacionais.

Estamos preparados para enfrentar esta nova era de desinformação? A resposta deve começar hoje, com ação informada, tecnologias robustas e compromisso ético.

(*) Elsa Lemos é Especialista em Comunicação de Crise e Mestre em Guerra de Informação.

 

Os artigos publicados com assinatura não traduzem necessariamente a opinião do portal. A publicação tem como propósito estimular o debate e provocar a reflexão sobre os problemas brasileiros.

Nos siga no Google Notícias