Ciência e Tecnologia

Inteligência Artificial: pesquisadores criam algoritmo para detectar alucinações

Um grupo de cientistas conseguiu desenvolver um algoritmo fantástico

Ilustración conceptual sobre Inteligencia Artificial.
DALL-E IA

No campo da Inteligência Artificial (IA), grandes modelos de linguagem como o ChatGPT, Claude, Copilot DALL-E e até mesmo o Google Gemini têm se mostrado ferramentas impressionantes, que geram uma grande preocupação sobre o futuro do trabalho humano devido ao aparente grau de eficácia de seus resultados. No entanto, todos esses modelos atuais compartilham um problema comum e que pode ser considerado grave: a tendência de gerar informações falsas ou “alucinações”.

ANÚNCIO

Este problema tem gerado erros vergonhosos e limitado a utilidade dessas ferramentas. As alucinações da IA são um dos elementos mais graves dessa tecnologia, tão delicado que até Sam Altman, CEO da OpenAI, em mais de uma ocasião tentou minimizá-lo usando impressionantes acrobacias retóricas:

Sam Altman es duramente cuestionado sobre las “alucinaciones” de ChatGPT y otros sistemas de Inteligencia Artificial. El CEO de OpenAI elude la bala.
DreamForce Sam Altman

"Grande parte do valor desses sistemas está fortemente relacionado ao fato de que eles alucinam. Eles são mais um recurso ou característica de suas funções do que um bug ou falha. Se você quer procurar algo em um banco de dados, existem maneiras mais úteis de fazê-lo".

Isso é claramente um ardil, pois o problema com essas alucinações da IA é que são tão sutis e estão tão bem entrelaçadas com informações verdadeiras que podem passar despercebidas por alguém que não domine o assunto sobre o qual a plataforma desenvolveu o material.

Este algoritmo pode detectar alucinações do ChatGPT e qualquer Inteligência Artificial

Talvez o exemplo mais claro e recente dos perigos envolvidos nessas alucinações ocorreu recentemente quando o Google foi forçado a remover seus resumos de busca potencializados por Inteligência Artificial. Isso aconteceu depois que o Gemini começou a sugerir colocar cola na pizza e comer pedras. A boa notícia é que uma solução real está a caminho.

De acordo com um relatório do Yahoo! News, um grupo de pesquisadores desenvolveu um detector de alucinações com IA que pode identificar quando um modelo está inventando informações e tentando fazê-las passar como verdadeiras.

ChatGPT vs. Gemini.
IA ChatGPT vs. Gemini

Os cientistas, que fazem parte do Departamento de Ciências da Computação da Universidade de Oxford, criaram este algoritmo que pode detectar se as respostas geradas pela IA são objetivas com uma precisão de 79%.

ANÚNCIO

Este método, que representa uma melhoria de 10% em relação às técnicas existentes, baseia-se em um princípio simples: pedir ao chatbot para responder a mesma pergunta várias vezes, entre 5 e 10, para então analisar as respostas, cruzá-las e determinar o que é falso e o que é verdadeiro.

O segredo do algoritmo: a entropia semântica

O algoritmo em si, conforme explicado em sua pesquisa publicada na mais recente edição da Nature, mede a entropia semântica, que é a variação no significado das respostas. Se as respostas forem diferentes entre si, a pontuação de entropia semântica é alta, o que indica que a IA poderia estar alucinando.

Pelo contrário, se as respostas forem semelhantes ou idênticas, a pontuação é baixa, o que sugere uma resposta objetiva e livre de alucinações. Portanto, este método supera outros enfoques que se baseiam na mera análise da redação da resposta em vez de seu significado.

Microsoft presenta Copilot+
Microsoft presenta Copilot+ Microsoft presenta Copilot+

Ao focar no significado, o novo algoritmo é mais preciso na detecção de alucinações, mesmo quando a redação é semelhante. Com isso, poderia-se trabalhar em uma melhoria para o ChatGPT e bots similares, de modo que finalmente parem de alucinar.

A IA da OpenAI, juntamente com o Copilot, são as plataformas mais afetadas por esse fenômeno e, sem dúvida, não lhes faria mal esse tipo de melhoria.

ANÚNCIO

Tags


Últimas Notícias