O que sabemos do impacto das Deepfakes?
Com a multiplicação dos meios de disseminação de notícias falsas, cresce a preocupação sobre o uso de tecnologias emergentes para amplificar a desinformação
A desinformação — práticas e técnicas de comunicação com o intuito de influenciar a opinião pública por meio de informações falsas, distorcidas ou tendenciosas — não é um fenômeno novo. Todavia, o aprimoramento das técnicas de estruturação e difusão dessas informações é o que tem gerado um debate mais amplo. Esse fenômeno ganhou maior relevância global durante a pandemia de Covid-19, cujas medidas de saúde foram amplamente debatidas, e a desinformação tornou sua implementação mais difícil.
Nesse contexto, há um amplo entendimento de que as TICs (Tecnologias da Informação e Comunicação) são ferramentas versáteis, capazes de servir tanto para educar, informar e organizar dados essenciais sobre saúde, educação e trabalho, entre outras áreas, quanto para fomentar externalidades negativas, como discursos de ódio, desinformação e a articulação de atos políticos antidemocráticos. Assim, o problema não está na capacidade de difusão e alcance proporcionada por essas tecnologias, mas no uso que se faz delas para enfraquecer seu potencial positivo.
A nível nacional, encontramos o Supremo Tribunal Federal com um programa de combate à desinformação, o qual já resultou na publicação de dois livros. O mais recente conta com pesquisas de vários acadêmicos acerca das implicações do uso da inteligência artificial no processo de desinformação. Um deles aborda justamente os impactos das chamadas deepfakes: imagens, vídeos e áudios alterados por meio de ferramentas de IA, consideradas mídias sintéticas, com alta capacidade de gerar acontecimentos fictícios.

Um exemplo notório disso foi a circulação de imagens e vídeos deepfakes durante o incêndio devastador em Los Angeles, mostrando o letreiro de Hollywood em chamas. Isso, por sua vez, revela como essas práticas desinformativas, cada vez mais aperfeiçoadas para se tornarem realistas, são preocupantes em diversas esferas — especialmente em casos de catástrofe, que aumentam a insegurança das pessoas em contextos de evacuação, preocupadas em como encontrar um local seguro para permanecer. Além disso, grande parte desses materiais vem acompanhado de legendas e comentários que estimulam a desconfiança ou a descrença no papel das instituições responsáveis pelo problema em questão.
Diante desse cenário, diversos desafios se impõem aos agentes responsáveis pela checagem de informações, atividade frequentemente referida como fact-checking. O processo tem sido amplamente associado à censura e acabou servindo de base para a justificativa da mudança na política de moderação de conteúdo da Meta. No entanto, a checagem de fatos se limita à verificação de informações e à emissão de alertas para usuários que compartilham conteúdos potencialmente imprecisos, sem excluir publicações falsas. Além disso, o tema também está na pauta do Departamento de Segurança Interna dos Estados Unidos, que elaborou um documento detalhando mecanismos para a detecção de deepfakes.
Outro fator que intensifica o uso da inteligência artificial na disseminação de desinformação são os períodos eleitorais. Segundo a Freedom House, em 2023, a IA foi utilizada para semear dúvidas, difamar oponentes e influenciar o debate público em 16 países, especialmente durante eleições. A crescente sofisticação e acessibilidade dessas ferramentas, capazes de gerar textos, áudios e imagens, tornam essa realidade ainda mais preocupante, impulsionando a propagação da desinformação em larga escala.
Diante desse cenário, a preocupação com os impactos da inteligência artificial se acentua, sobretudo à medida que a distinção entre suas produções visuais fictícias e a realidade se torna cada vez mais desafiadora. Um estudo analisou os efeitos da IA na percepção de vídeos sobre mudanças climáticas, aplicando questionários a estudantes do ensino fundamental, médio, graduação e pós-graduação, além de professores e adultos sem formação acadêmica. Os resultados revelaram que os deepfakes atingiram um nível de qualidade suficiente para gerar confusão significativa, tornando todos os participantes vulneráveis à desinformação. De forma alarmante, entre 27% e mais da metade dos entrevistados não conseguiram distinguir vídeos autênticos de deepfakes, com essa dificuldade sendo ainda mais acentuada entre pessoas mais velhas e com menor nível de escolaridade.
À luz desse cenário, outro estudo aponta que as organizações de verificação de fatos enfrentam desafios significativos para identificar e notificar a imprecisão dos conteúdos disseminados, especialmente quando circulam em aplicativos de mensagens instantâneas. Diferentemente das redes sociais abertas, onde a checagem de informações pode ocorrer de maneira mais ampla e acessível, esses aplicativos dificultam a atuação dos verificadores. Esse contexto é especialmente preocupante no Brasil, onde o WhatsApp é amplamente utilizado e supera em alcance plataformas como o X (antigo Twitter). Diante disso, torna-se fundamental o desenvolvimento de estratégias eficazes para identificar e combater a desinformação diretamente nessas plataformas fechadas.
O debate sobre os mecanismos de checagem de desinformação torna-se ainda mais preocupante diante do seu alcance limitado na população. Segundo a pesquisa TIC Domicílios 2022, realizada pelo CGI.br (Comitê Gestor da Internet no Brasil), apenas 51% dos usuários da internet verificam se uma informação encontrada online é verdadeira. Já o estudo Iceberg Digital, desenvolvido pela Kaspersky, revela que 62% dos brasileiros têm dificuldades para diferenciar informações verdadeiras de falsas, enquanto 2% afirmam nunca ter ouvido falar no termo “fake news”.
Esses dados se conectam a outro levantamento relevante: o estudo Panorama Político 2023, conduzido pelo Instituto de Pesquisa DataSenado, aponta que cerca de 76% da população brasileira foi exposta a possíveis informações falsas sobre política no segundo semestre de 2022 – um período eleitoral marcado por intensa polarização.
Com a multiplicação dos meios de disseminação de notícias falsas, cresce a preocupação sobre o uso de tecnologias emergentes para amplificar a desinformação. Nesse cenário, a inteligência artificial se apresenta como um desafio significativo devido à sua capacidade de gerar deepfakes cada vez mais sofisticados. O avanço dessas técnicas torna a verificação de conteúdo enganoso ainda mais complexa, uma vez que os deepfakes vêm se tornando mais precisos e realistas.
No entanto, o problema central reside no uso mal-intencionado dessa tecnologia para produzir fake news altamente convincentes. Isso é especialmente alarmante em um país onde grande parte da população ainda não tem o hábito de checar a veracidade das informações que consome. Quanto maior o número de pessoas vulneráveis à desinformação, maior será o impacto da manipulação de imagens, vídeos e áudios gerados por IA.
Lauro Accioly Filho é doutorando no Programa de Pós-Graduação Interinstitucional em Relações Internacionais – San Tiago Dantas e Pesquisador Visitante na American University (Washington, D.C.).