Um novo caso de manipulação de imagens usando a Inteligência Artificial (IA) foi registrado pela polícia, desta vez em um colégio de Recife, onde meninas de 13 e 14 anos tiveram falsos nudes vazados nas redes.
A técnica de Deep Nude consiste em usar fotos normais das meninas, geralmente compartilhadas nas redes sociais, e utilizar a IA para reproduzir essa mesma imagem, mas sem roupa, criando uma foto falsa.
Pais de meninas do Colégio Marista procuraram a polícia de Pernambuco para denunciar o compartilhamento de imagens falsas em aplicativos de mensagens. As vítimas dizem que os próprios alunos do colégio fizeram as montagens manipuladas e mandaram para outros colegas.
LEIA TAMBÉM: Invasão da casa de Bruna Biancardi em Cotia: suspeito mudou-se para o local há uma semana
O número de garotas que foram vítimas do ‘Deep Nude’ não foi divulgado, mas o Colégio Marista emitiu um boletim dizendo que acompanhou os pais das vítimas à delegacia e se comprometeu a fazer campanhas de conscientização entre os alunos sobre ciberbullying, inteligência artificial e redes sociais.
Os alunos responsáveis pela manipulação das imagens ainda não foram identificados, mas os autores podem responder por simulação de “participação de criança ou adolescente em cena de sexo explícito ou pornográfica por meio de adulteração, montagem ou modificação de fotografia, vídeo ou qualquer outra forma de representação visual”, de acordo com a polícia.
Na semana passada um caso semelhante ocorreu em uma escola particular do Rio de Janeiro, onde mais de 20 alunas tiveram fotos de falsos nudes divulgados pelos estudantes em aplicativos de mensagem.