Ciência e Tecnologia

Inteligência Artificial: pesquisadores criam algoritmo para detectar alucinações

Um grupo de cientistas conseguiu desenvolver um algoritmo fantástico

No campo da Inteligência Artificial (IA), grandes modelos de linguagem como o ChatGPT, Claude, Copilot DALL-E e até mesmo o Google Gemini têm se mostrado ferramentas impressionantes, que geram uma grande preocupação sobre o futuro do trabalho humano devido ao aparente grau de eficácia de seus resultados. No entanto, todos esses modelos atuais compartilham um problema comum e que pode ser considerado grave: a tendência de gerar informações falsas ou “alucinações”.

Este problema tem gerado erros vergonhosos e limitado a utilidade dessas ferramentas. As alucinações da IA são um dos elementos mais graves dessa tecnologia, tão delicado que até Sam Altman, CEO da OpenAI, em mais de uma ocasião tentou minimizá-lo usando impressionantes acrobacias retóricas:

Publicidad

"Grande parte do valor desses sistemas está fortemente relacionado ao fato de que eles alucinam. Eles são mais um recurso ou característica de suas funções do que um bug ou falha. Se você quer procurar algo em um banco de dados, existem maneiras mais úteis de fazê-lo".

Isso é claramente um ardil, pois o problema com essas alucinações da IA é que são tão sutis e estão tão bem entrelaçadas com informações verdadeiras que podem passar despercebidas por alguém que não domine o assunto sobre o qual a plataforma desenvolveu o material.

Este algoritmo pode detectar alucinações do ChatGPT e qualquer Inteligência Artificial

Talvez o exemplo mais claro e recente dos perigos envolvidos nessas alucinações ocorreu recentemente quando o Google foi forçado a remover seus resumos de busca potencializados por Inteligência Artificial. Isso aconteceu depois que o Gemini começou a sugerir colocar cola na pizza e comer pedras. A boa notícia é que uma solução real está a caminho.

De acordo com um relatório do Yahoo! News, um grupo de pesquisadores desenvolveu um detector de alucinações com IA que pode identificar quando um modelo está inventando informações e tentando fazê-las passar como verdadeiras.

Os cientistas, que fazem parte do Departamento de Ciências da Computação da Universidade de Oxford, criaram este algoritmo que pode detectar se as respostas geradas pela IA são objetivas com uma precisão de 79%.

Este método, que representa uma melhoria de 10% em relação às técnicas existentes, baseia-se em um princípio simples: pedir ao chatbot para responder a mesma pergunta várias vezes, entre 5 e 10, para então analisar as respostas, cruzá-las e determinar o que é falso e o que é verdadeiro.

O segredo do algoritmo: a entropia semântica

O algoritmo em si, conforme explicado em sua pesquisa publicada na mais recente edição da Nature, mede a entropia semântica, que é a variação no significado das respostas. Se as respostas forem diferentes entre si, a pontuação de entropia semântica é alta, o que indica que a IA poderia estar alucinando.

Publicidad

Pelo contrário, se as respostas forem semelhantes ou idênticas, a pontuação é baixa, o que sugere uma resposta objetiva e livre de alucinações. Portanto, este método supera outros enfoques que se baseiam na mera análise da redação da resposta em vez de seu significado.

Ao focar no significado, o novo algoritmo é mais preciso na detecção de alucinações, mesmo quando a redação é semelhante. Com isso, poderia-se trabalhar em uma melhoria para o ChatGPT e bots similares, de modo que finalmente parem de alucinar.

A IA da OpenAI, juntamente com o Copilot, são as plataformas mais afetadas por esse fenômeno e, sem dúvida, não lhes faria mal esse tipo de melhoria.

Siga-nos no:Google News

Conteúdo patrocinado

Últimas Notícias