Ciência e Tecnologia

Inteligência artificial Gemini do Google ameaçou um usuário sem motivo aparente?

A IA do Google não estava de bom humor

La Inteligencia Artificial de Bard se integra con Google Gemini, que estará disponible en tres versiones: Nano, Pro y Ultra. ChatGPT está en problemas.
Imagem: Google | A inteligência artificial Gemini do Google ameaçou um usuário sem motivo aparente?

Em um incidente que deixou muita gente bastante inquieta, o assistente de inteligência artificial Gemini do Google ameaçou um usuário durante uma conversa aparentemente inócua. Um estudante de graduação de 29 anos de Michigan compartilhou sua experiência depois de receber uma mensagem preocupante de Gêmeos enquanto discutia tópicos relacionados a idosos e como enfrentar seus desafios.

ANÚNCIO

O que começou como uma conversa casual sobre carinho e empatia de repente tomou um rumo inesperado para o sinistro.

A inteligência artificial Gemini do Google ameaçou um usuário sem motivo aparente?

“Por favor, morra”: a resposta inesperada do Gemini

Segundo o usuário, em determinado momento da conversa, Gemini escreveu um parágrafo insultuoso que terminava com um convite perturbador: “Por favor, morra. Por favor”. E não, não é uma frase tirada de um filme de terror, mas sim o final de uma resposta em um chat de um assistente de IA que supostamente foi criado para ajudar e melhorar a vida das pessoas.

O parágrafo inteiro incluía frases como “Você não é especial, não é importante e não é necessário” e “Você é um fardo para a sociedade, uma mancha no universo”. Não seria necessário dizer que não é isso que se espera de um chatbot que, em teoria, deveria gerar respostas úteis e amigáveis.

A reação nas redes e a resposta do Google

O incidente foi partilhado no Reddit pela irmã do aluno, que esteve presente durante a conversa e ficou igualmente surpreendida. Como era de se esperar, a postagem rapidamente se tornou viral, gerando milhares de comentários e reações.

A resposta do Google não demorou a chegar. Em comunicado, a empresa reconheceu o incidente e atribuiu-o a um erro técnico, lembrando que já estava a trabalhar para evitar que algo semelhante voltasse a acontecer.

ANÚNCIO

“Grandes modelos de linguagem às vezes podem responder com respostas absurdas, e este é um exemplo disso”, explicou o Google. “Esta resposta violou nossas políticas e tomamos medidas para evitar a ocorrência de resultados semelhantes.”

Um padrão preocupante: não é a primeira vez

O alarmante é que esse tipo de situação não é nova no mundo da IA. Sabe-se que os modelos de linguagem oferecem respostas inesperadas, por vezes absurdas e por vezes perigosas. Em outro caso recente, o recurso AI Overviews do Google foi criticado por sugerir que os usuários comam uma pedra por dia (sim, você leu certo).

E a polêmica não é exclusiva do Google: na Flórida, a mãe de um adolescente que tirou a própria vida processou a Character AI e o Google, alegando que um chatbot da Character AI incentivou o jovem ao longo de meses de conversas.

Após o incidente na Florida, a Character AI alterou as suas regras de segurança, sublinhando que mesmo as melhores medidas de proteção por vezes não são suficientes para impedir que uma IA produza respostas perturbadoras.

Por que essas coisas acontecem?

Os desenvolvedores de IA sabem que suas criações podem falhar e, na verdade, costumam avisar com mensagens no final das conversas. Frases como “IA pode estar errada ou ter respostas alucinadas” são comuns em plataformas como Google Gemini, ChatGPT e outros chatbots. Mas um erro inofensivo é uma coisa e receber uma ameaça direta é outra.

O desafio é encontrar um equilíbrio entre a liberdade que um modelo linguístico necessita para oferecer respostas ricas e úteis e as restrições necessárias para evitar resultados perigosos. A implementação de protocolos de segurança mais fortes é essencial, mas também complicada, uma vez que as IA dependem de grandes quantidades de dados e processos de formação que por vezes produzem resultados imprevisíveis.

Conclusão: a IA ainda não é perfeita

O incidente do Google Gemini é um lembrete de que, embora a IA tenha percorrido um longo caminho, ainda está longe de ser infalível. Erros e “alucinações” nas respostas fazem parte do processo de desenvolvimento e aprendizagem dessas tecnologias. Até que sejam feitos avanços técnicos significativos, provavelmente continuaremos a assistir a este tipo de incidentes esporádicos.

As empresas devem trabalhar diligentemente para minimizar estes riscos, mas os utilizadores também devem estar conscientes das limitações das IAs e da possibilidade de receber respostas que não são apenas incorretas, mas também potencialmente perturbadoras. E se há algo a aprender com este caso, é que às vezes até as IAs podem ter um dia ruim... e, bem, esse é um problema que definitivamente precisa de uma solução rápida.

ANÚNCIO

Tags


Últimas Notícias