A inteligência artificial é uma tecnologia que continua a crescer e a se desenvolver cada vez mais rápido e até impacta diversos ambientes que vão além da tecnologia, trazendo para a mesa seus grandes benefícios, mas também incríveis incógnitas. Um exemplo claro é o Whisper, ferramenta de transcrição da OpenAI, que gerou alarme no setor médico.
ANÚNCIO
As dúvidas deixadas pela operação do Whisper
Apesar dos alertas da OpenAI sobre o uso do Whisper em áreas de alto risco como a saúde, devido à possibilidade de gerar transcrições erradas, inúmeras instituições médicas o adotaram por meio da plataforma Nabla. Mais de 30.000 médicos e 40 sistemas de saúde confiam nesta ferramenta, o que levantou alarmes sobre as implicações destes erros numa área tão delicada.
Clique aqui para receber as notícias de ciência e tecnologia pelo WhatsApp
A dificuldade de comparar transcrições geradas por IA com o áudio original, devido à política de privacidade de Nabla, torna virtualmente impossível avaliar a precisão do Whisper na área médica. Esta situação suscitou preocupações sobre a segurança e a privacidade dos pacientes, especialmente considerando os casos de pais que se recusaram a partilhar gravações das consultas médicas dos seus filhos com empresas tecnológicas.
Estudos recentes corroboraram o que se temia. Especialistas que colaboram na Universidade de Michigan detectaram erros em 80% das transcrições de reuniões públicas realizadas com o Whisper. Além disso, outro estudo das universidades de Cornell e Virgínia descobriu que quase 40% das alucinações de IA podem ser prejudiciais ou causar mal-entendidos.
Nestes casos, a OpenAI reconheceu publicamente os problemas de fiabilidade da sua ferramenta, especialmente em ambientes onde os erros podem ter consequências graves, como o médico. Críticos e especialistas instaram a empresa a resolver esse problema com urgência e a melhorar a precisão de sua ferramenta, especialmente na área médica.