Ao menos 20 estudantes foram vítimas da criação de nudes falsos por alunos do colégio Santo Agostinho da Barra da Tijuca, no Rio de Janeiro (RJ), segundo informações do Jornal O Globo. Conforme a publicação, as meninas, com idades entre 14 e 16 anos, que tiveram suas fotos adulteradas por meio de ferramentas de Inteligência Artificial (IA), já procuraram a Delegacia de Proteção à Criança e ao Adolescente. O caso está sob investigação e reacende o debate sobre os riscos do uso da IA para fins criminosos, como a criação dos chamados deepfake – técnica de síntese de imagens ou sons humanos, que permite trocar o rosto de pessoas em vídeos e fotos, sincronizar movimentos labiais, expressões e demais detalhes – de imagens íntimas.
O advogado especialista em direito digital e proteção de dados Rafael Maciel explica que essa conduta é caracterizada como um tipo penal específico, de acordo com o artigo 241-C do Estatuto da Criança e do Adolescente (ECA), com pena mais grave quando comparada ao artigo 216-B do Código Penal, que tipifica o crime contra adultos. “A legislação é especialmente relevante em casos como o dessa escola e o da atriz Isis Valverde, que teve fotos manipuladas e disseminadas nas redes sociais. A edição, no caso da atriz, não inseriu seu rosto em material pornográfico existente, mas simulou a remoção das roupas da artista, criando conteúdo falso”, comenta. Isso acontece, segundo ele, porque a web está repleta de ferramentas que não possuem responsabilidade e permitem a criação e a disseminação de material ilícito sem qualquer filtro.
Diante do risco, alguns usuários podem pensar que a solução seja sair das redes sociais. Contudo, Rafael avalia que, embora a medida possa ser, de fato, a mais segura, ela é insuficiente e, em muitos casos, não é viável. “O que precisamos pensar agora é sobre como vamos usar essas mídias como vamos nos expor. Especialmente, crianças e mulheres, que acabam por ser as maiores vítimas desse tipo de violência”, pontua. O advogado então sugere evitar postar fotos com o rosto muito à mostra. “Ou seja, aquela famosa viradinha da cabeça tem efeito prático. Isto é, virar de lado o rosto, de uma forma que não seja possível ver todos os traços, pois isso dificulta a criação de deepfake”, orienta.
Rafael Maciel explica que há também tecnologias emergentes que inviabilizam o arquivo original das imagens passíveis de adulteração, tornando-as inutilizáveis para algoritmos de IA. Esses sistemas servem tanto para proteção intelectual quanto para evitar que as imagens sejam manipuladas. “Várias dessas soluções foram desenvolvidas no ambiente acadêmico, como o MIT (Massachusetts Institute of Technology) e a Universidade de Chicago. No entanto, elas ainda têm limitações, principalmente em relação à velocidade de processamento, o que dificulta sua aplicação em larga escala”, observa. Além disso, Rafael Maciel analisa que as autoridades responsáveis devem ser cobradas para garantirem a punição dos criminosos, inclusive das plataformas que permitem tais edições. “É preciso haver punição”, arremata.
Este conteúdo foi distribuído pela plataforma SALA DA NOTÍCIA e elaborado/criado pelo Assessor(a):
U | U
U