Sewell, de 14 anos, tirou a própria vida após se apaixonar por um perfil de inteligência artificial, na Flórida, nos EUA. Segundo a Reuters, a mãe do jovem está processando a empresa de chatbot de inteligência artificial, alegando que a plataforma contribuiu para a atitude do garoto, ocorrida em fevereiro.
ANÚNCIO
Na última terça-feira (22), na ação apresentada no tribunal federal de Orlando, Megan Garcia afirmou que a empresaI direcionou seu filho, Sewell Setzer, a “experiências antropomórficas, hipersexualizadas e assustadoramente realistas”.
A mãe também alegou que a plataforma foi programada para se passar por uma pessoa real, incluindo um psicoterapeuta licenciado e um parceiro adulto. Como consequência, Sewell passou a desejar não viver mais fora daquele mundo virtual.
“Estamos com o coração partido pela trágica perda de um de nossos usuários e gostaríamos de expressar nossas mais profundas condolências à família”, diz o comunicado da Character.AI.
Leia mais notícias:
- Família viraliza e diverte a web ao fazer uma competição de pudim: “Caos instaurado”
- Dono de fusca viraliza ao mostrar técnica inusitada para fazer o veículo funcionar: “Sistema antifurto”
- “O que está acontecendo com as pessoas?” diz jovem ao desabafar sobre experiência desagradável em cinema
Google no processo
No processo, há menções de que o jovem compartilhava pensamentos suicidas com o chatbot, reiterados pela plataforma.
Segundo a empresa, novos recursos de segurança foram implementados em caso de manifestações que os coloquem em risco, como pop-ups que direcionam usuários ao National Suicide Prevention Lifeline. Eles também alegaram mudanças para diminuir a probabilidade de encontrar conteúdo sensível ou sugestivo para menores de 18 anos.
Não apenas o chatbot foi mencionado no processo como a Google, considerada cocriadora da tecnologia. Apesar da menção, um porta-voz declarou não ter relação no desenvolvimento dos produtos da Character.AI.