Ciência e Tecnologia

Por que você não deve compartilhar dados pessoais com chatbots de IA como o ChatGPT

A utilização dos seus dados na rede é sempre delicada

Agencia
ChatGPT (Foto AP /Michael Dwyer, Archivo) Por que você não deve compartilhar dados pessoais com chatbots de IA como o ChatGPT (AP) (Michael Dwyer/AP)

Não há dúvida de que chatbots de IA como o ChatGPT são impressionantes. Eles são capazes de conversar sobre quase todos os assuntos e muitas vezes parecem tão “humanos” que é fácil esquecer que, no final das contas, são apenas algoritmos treinados.

ANÚNCIO

Porém, você sabia que tudo o que você compartilha com eles pode ser salvo em algum servidor, pronto para reaparecer mais tarde? Se a ideia deixa você um pouco nervoso, você não está sozinho e é por um bom motivo.

Clique aqui para receber as notícias de ciência e tecnologia pelo WhatsApp

Os riscos ocultos por trás das conversas com IA

O principal problema está na forma como as empresas que desenvolvem esses modelos de linguagem e seus chatbots tratam seus dados. Para ser claro: tudo o que você compartilha com um chatbot pode ser usado para treinar e melhorar o modelo.

Em outras palavras, os dados pessoais que você compartilha podem ajudar a IA a se tornar mais inteligente... mas com um custo.

Para ilustrar, imagine que um chatbot é como o Exterminador do ‘Exterminador do Futuro 2′. Eles aprendem frases como “Até mais, baby”, mas neste caso, o bot está aprendendo sobre você: seus gostos, seus dados financeiros, até mesmo o que você tinha para café da manhã esta manhã. Engraçado? Talvez nem tanto.

O que acontece com os dados que você compartilha?

OpenAI, a empresa por trás do ChatGPT, não faz segredo disso: seus termos e condições afirmam que eles podem usar os dados que você fornece para melhorar seus modelos. Isso inclui tudo o que você escreve, carrega ou menciona, a menos que você ative configurações de privacidade que impeçam que seu histórico de bate-papo seja salvo.

ANÚNCIO

Mesmo com essa opção habilitada, o chatbot pode “desidentificar” as informações pessoais que coleta e utilizá-las para analisar o desempenho de seus serviços. O problema é que, na pior das hipóteses, algumas dessas informações “aprendidas” poderiam vir à tona publicamente. Preocupante? Definitivamente.

Casos reais: de vazamentos a erros humanos

Os riscos não são apenas teóricos. Por exemplo, em 2023, uma vulnerabilidade na biblioteca Redis do ChatGPT permitiu que hackers acessassem dados pessoais, como nomes, números de segurança social, e-mails e até perfis de redes sociais.

Embora a OpenAI tenha corrigido rapidamente o problema, o dano já estava feito para mais de 100.000 usuários afetados.

E não são apenas os indivíduos que estão em perigo. Empresas como a Samsung enfrentaram sérios problemas depois que funcionários enviaram informações confidenciais ao ChatGPT, como códigos-fonte. Isto levou a Samsung, juntamente com gigantes como o Bank of America e o JPMorgan, a proibir o uso de chatbots de IA em contextos de trabalho.

O que os governos estão fazendo a respeito?

As crescentes preocupações com a privacidade levaram a alguns avanços. Por exemplo, em 2023, o Presidente dos EUA, Joe Biden, assinou uma Ordem Executiva sobre a utilização segura da inteligência artificial, sublinhando a importância da proteção dos dados pessoais.

No entanto, ainda não existe uma legislação clara nos EUA que regule estritamente a forma como as empresas treinam as suas IAs com dados recolhidos dos utilizadores.

Isto significa que muitas práticas atuais, como a utilização dos seus dados sem o seu consentimento explícito, ainda podem ser consideradas “legítimas”. Sim, é tão ambíguo quanto parece.

Como se proteger ao usar um chatbot de IA?

Enquanto governos e empresas trabalham em soluções (lentas), você pode tomar medidas agora mesmo para proteger sua privacidade:

  • Ative as configurações de privacidade: muitas plataformas, como ChatGPT, têm opções para não salvar seus históricos de bate-papo. Use-os.
  • Não compartilhe dados confidenciais: trate o chatbot como ele é: um algoritmo, não um amigo. Não conte coisas como seu endereço, senhas ou informações financeiras.
  • Esteja atento ao que você carrega: se precisar compartilhar um arquivo, pense duas vezes. Ele pode ser armazenado em um servidor.
  • Eduque-se: Fique atento às políticas de privacidade e aos termos de uso dos chatbots que você utiliza.

Resumindo: são úteis, mas não são seus amigos

Embora os chatbots de IA possam ser ferramentas incríveis, eles não são confiáveis em termos de privacidade. Até que existam leis e medidas mais rigorosas para proteger os seus dados, a melhor defesa ainda é a cautela.

Portanto, mesmo que o ChatGPT elogie seu penteado ou faça piadas sobre suas escolhas de café da manhã, lembre-se: ele não é seu confidente. Trate-o como ele é e mantenha seus segredos bem guardados.

ANÚNCIO

Tags


Últimas Notícias