A evolução das tecnologias de inteligência artificial (IA) tem transformado diversos setores e, ao mesmo tempo, ampliado a criação e disseminação de conteúdos manipulados, como vídeos, áudios e imagens falsas. Entre esses conteúdos, os deepfakes — materiais gerados por IA que alteram informações visuais e sonoras de maneira convincente — se tornaram um dos maiores desafios no combate à desinformação. Casos recentes envolvendo figuras públicas reforçam a urgência de um olhar mais crítico e de medidas de proteção eficazes diante dessa nova realidade.
Segundo Alan Camillo, Chairman & Founder da BlueShift, “A inteligência artificial alcançou um nível de sofisticação capaz de criar materiais extremamente convincentes. Por isso, mais do que nunca, é essencial que as pessoas aprendam a validar informações com fontes confiáveis e adotem uma postura mais criteriosa em relação ao conteúdo que consomem. Embora existam softwares que ajudem a identificar, especialmente em imagens e vídeos, quando um conteúdo foi gerado por IA, isso não impede sua disseminação. Portanto, o investimento em educação e o desenvolvimento de um pensamento crítico permanecem sendo as melhores soluções para enfrentar esse desafio”.
No início de 2025, uma cantora brasileira chamou atenção ao expressar sua indignação, nas redes sociais, após utilizar um aplicativo de inteligência artificial que reproduzia sua voz e personalidade. Em uma série de vídeos publicados nos stories do Instagram, a artista confrontou uma versão digital de si mesma, gerada pela tecnologia, destacando seu descontentamento com o uso não autorizado de sua imagem. A iniciativa teve como propósito criticar o avanço descontrolado da ferramenta e denunciar a violação de seus direitos autorais e intelectuais, levantando um alerta sobre os limites éticos da IA, especialmente no meio artístico.
Embora os deepfakes estejam se tornando mais sofisticados, ainda é possível identificar falsificações ao observar alguns detalhes específicos:
1- Expressões faciais e movimentos: Movimentos rígidos ou bruscos, assim como expressões faciais que não acompanham a naturalidade da fala, podem indicar manipulação.
2- Sincronia labial: Lábios que não se movimentam de forma sincronizada com o áudio são um dos sinais mais comuns de edições em vídeos.
3- Textura da pele: Brilhos incomuns, borrões ou ausência de marcas naturais, como rugas e poros, podem evidenciar alterações feitas por IA.
4- Sinais auditivos: Flutuações na voz, mudanças bruscas de tom ou cortes no áudio também podem ser indícios de manipulação sonora.
“Observar esses detalhes é essencial para identificar conteúdos falsos e evitar sua disseminação. Tecnologias de verificação de autenticidade desempenham um papel crucial nesse processo, garantindo mais segurança na identificação de fraudes digitais, porém não bastam”, comenta Alan Camillo.
Para enfrentar o desafio dos deepfakes, plataformas digitais têm investido em ferramentas que analisam metadados e padrões visuais e sonoros para detectar possíveis edições. Redes sociais como Instagram e Facebook também têm implementado mecanismos de alerta que ajudam os usuários a identificar conteúdos suspeitos.
A seguir, confira um guia prático sobre como proceder diante de possíveis deepfakes:
1- Verifique a Fonte: Certifique-se de que a conta que publicou o conteúdo é confiável e procure validação em veículos de comunicação oficiais.
2- Utilize Ferramentas de Fact-Checking: Plataformas especializadas podem confirmar ou refutar a autenticidade do conteúdo.
3- Evite o Impulsionamento Involuntário: Não compartilhe, curta ou comente conteúdos suspeitos para não amplificar seu alcance.
4- Denuncie e Promova Informações Corretas: Utilize as ferramentas das redes sociais para reportar conteúdos falsos e divulgue informações de fontes seguras.
Esteban Huerta, Head de Infraestrutura da BlueShift, destaca a importância do papel dos usuários na denúncia de deepfakes: “A internet funciona com base no engajamento, e conter a disseminação de matérias produzidas por IA depende de nossa habilidade de reconhecer e agir de forma consciente. É essencial fortalecer práticas de segurança digital e reduzir a vulnerabilidade do ambiente online.”
A disseminação crescente de deepfakes reforça a importância de aliar tecnologia, educação digital e responsabilidade coletiva. Mais do que apenas identificar conteúdos falsos, é preciso fomentar uma cultura de compartilhamento ético e confiável, garantindo um ambiente digital mais seguro e promovendo interações autênticas e respeitosas.
Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
LIVIA BRANDAO DE CAMPOS
livia.campos@dezoitocom.com.br