Quando falamos de Inteligência Artificial (IA), é inevitável mencionar termos como “aprendizado automático” e “machine learning”. Com a recente introdução do ChatGPT, a Google não iria ficar para trás e respondeu com o Bard, uma IA baseada no modelo de linguagem experimental LaMDA, com o objetivo de integrá-la ao seu mecanismo de busca.
ANÚNCIO
No entanto, no meio da competição para liderar esses modelos de aprendizado, a Google reconheceu uma possível limitação: o “desaprendizado automático”. A fim de lembrar a importância da precaução em tudo relacionado à IA, a empresa anunciou um desafio no qual convidará os desenvolvedores a fazer o contrário do que temos visto nos últimos meses: fazer com que os modelos de IA esqueçam o que já aprenderam.
De acordo com o Xataka, a empresa explica que o desaprendizado automático é um conceito emergente no campo do aprendizado automático. Seu objetivo não é fazer com que uma IA esqueça tudo o que aprendeu, mas sim eliminar a influência de certos conjuntos de dados de treinamento, permitindo assim, realizar correções nos modelos atuais.
De acordo com a empresa de Mountain View, isso pode ter implicações positivas em termos de melhorar a privacidade, mitigar os possíveis riscos dos modelos e reduzir o tamanho dos conjuntos de dados massivos.
Mas afinal, como implementar o desaprendizado automático?
O desaprendizado automático é uma técnica de aprendizagem de máquina que permite aos modelos descartar informações antigas e aprender novas informações. A implementação desta técnica envolve a criação de um modelo de aprendizado de máquina que possa ajustar os pesos das variáveis de entrada para refletir melhor os novos dados. O modelo também deve ser capaz de descartar informações antigas para evitar o sobreajuste.
Uma vez que o modelo foi criado, ele pode ser treinado usando os dados já disponíveis. O treinamento envolve o ajuste dos pesos para refletir melhor os dados novos. O modelo também pode ser avaliado para verificar se está aprendendo corretamente.
Em termos mais concretos, o desaprendizado automático permite a eliminação de informações inexatas ou desatualizadas de modelos previamente treinados, eliminar dados manipulados ou corrigir erros inerentes ao conjunto de dados usado para o treinamento.
No entanto, a implementação de estratégias de desaprendizagem automática traz desafios significativos. É necessário esquecer os dados anteriores do modelo sem comprometer sua utilidade. Além disso, devido à falta de literatura nesta área, avaliar a eficácia destas estratégias representa um desafio adicional.