Ciência e Tecnologia

O Google removeu mais de 100 vídeos do YouTube que ensinam a criar pornografia deepfake com IA

A pornografia deepfake gerada por inteligência artificial está aumentando, inclusive de crianças

Más de 120 videos fueron eliminados de la plataforma de videos YouTube. | Foto: YouTube
Mais de 120 vídeos foram removidos da plataforma de vídeos YouTube YouTube

ANÚNCIO

Para as pessoas interessadas em usar a IA para gerar nus artificiais, o YouTube foi um bom ponto de partida.

ANÚNCIO

Embora não hospede ferramentas “despudoradas”, a plataforma de compartilhamento de vídeos usada por 2,5 bilhões de pessoas abrigava mais de 100 vídeos com milhões de visualizações que anunciavam a rapidez com que esses aplicativos e sites de IA podem remover a roupa das imagens de mulheres, conforme descoberto por uma análise da Forbes.

Pornografia deepfake com IA

Alguns dos vídeos do YouTube ofereciam tutoriais de um aplicativo que, aparentemente, havia sido usado por estudantes do ensino médio da Espanha e de Nova Jersey para gerar imagens nuas de suas colegas de classe. Os estudantes que supostamente foram vítimas enfrentaram bullying, vergonha pública e ataques de pânico.

Outro site mencionado em vários vídeos do YouTube foi citado nos documentos judiciais de um caso de 2023 em que um psiquiatra infantil foi condenado a 40 anos por usar inteligência artificial para criar imagens de abuso sexual infantil e por exploração sexual de um menor.

Ele foi acusado de usar a ferramenta para alterar imagens de sua namorada da escola quando ela era menor de idade, removendo suas roupas. "Nesta era digital, é horrível perceber que fotos minhas, fotos inocentes, podem ser tiradas e distorcidas sem o meu consentimento para fins ilegais e repugnantes", declarou sua ex-namorada perante o tribunal.

Google e YouTube

Os problemas do Google com os removedores de roupas de IA não se limitam ao YouTube. A Forbes identificou três aplicativos para Android que oferecem remover roupas de fotos, incluindo um “filtro para fotos com scanner de nudez” com mais de 10 milhões de downloads; um aplicativo em espanhol que permite ao usuário “passar o dedo sobre o que deseja apagar, por exemplo, um traje de banho”, que possui mais de 500 mil instalações; e o Scanner Body Filter, que oferece adicionar uma “imagem corporal sexy” às fotos, também com meio milhão de downloads.

A Forbes também encontrou 27 anúncios no Centro de Transparência de Anúncios do Google que promoviam serviços de "deepfakes". Um deles anunciava um site com a palavra "bebê" na URL. O Centro Nacional de Exploração Sexual (NCOSE) forneceu informações sobre outros quatro, incluindo um site de strippers que oferecia abertamente criar fotos de Taylor Swift com IA.

ANÚNCIO

Remoção de vídeos

Depois que a Forbes questionou se os vídeos, anúncios e aplicativos violavam as políticas do Google, eles retiraram os 27 anúncios e o YouTube removeu 11 canais e mais de 120 vídeos. Um desses canais, hospedado por uma IA deepfake masculina, era responsável por mais de 90 desses vídeos, a maioria dos quais direcionados a bots do Telegram que despiram mulheres. O aplicativo Scanner Body Filter também deixou de estar disponível para download, embora outros aplicativos para Android tenham permanecido online.

Tori Rousay, diretora do programa de defesa corporativa e analista da NCOSE, disse que o Google criou “um ciclo de benefícios contínuo” a partir da monetização de aplicativos aceitando dinheiro da publicidade dos desenvolvedores e recebendo cortes nas receitas de publicidade e pagamentos únicos quando o aplicativo é hospedado na loja Google Play. Rousay disse que, em comparação, a Apple agiu rapidamente para remover os aplicativos de monetização quando a NCOSE destacou vários hospedados na App Store.

ANÚNCIO

Recomendado:

Tags


Últimas Notícias