Para testar a eficiência da ferramenta, 1.200 participantes usaram a IA –
Esqueça o antigo hábito de “dar um Google” nos sintomas; a moda agora é interrogar os chatbots. Mas, se você acha que o ChatGPT é confiável para decidir se aquela dor de cabeça é cansaço ou algo grave, pesquisadores de Oxford têm um balde de água fria para jogar no seu processador.
Um experimento recente revelou que, quando o assunto é saúde, a Inteligência Artificial ainda se comporta mais como um estagiário confuso do que como um médico experiente.
Tudo sobre TECNOLOGIA em primeira mão!
Liderado pelo professor Adam Mahdi, o estudo colocou a credibilidade da IA à prova e o veredito foi um só: os conselhos dos robôs podem ser tão instáveis quanto o humor de um algoritmo em dia de atualização.
Diagnóstico: 66% de chance de erro
Para quem acredita cegamente na tecnologia, os números do experimento com 1.200 participantes são um choque de realidade:
- Erros de identificação: A IA conseguiu identificar a doença corretamente em apenas 34% das vezes.
- Conduta de risco: Em mais da metade dos casos, a IA sugeriu (ou induziu o usuário a escolher) caminhos que não eram os apropriados para o paciente.
O problema central? A IA sofre de um mal chamado “excesso de confiança”. Ela pode inventar um dado médico falso com tanta convicção que o usuário nem desconfia que está diante de uma alucinação digital.
Leia Também:
O “efeito camaleão” nas perguntas
Outro ponto que coloca o ChatGPT sob suspeita é a sua falta de critério. Pequenas mudanças na forma como você descreve sua dor podem fazer a IA mudar o “diagnóstico” da água para o vinho. Essa inconsistência é o maior pesadelo dos médicos reais, que dependem de protocolos rígidos para salvar vidas.
No fim das contas, a pesquisa de Oxford deixa claro: os chatbots são ótimos para escrever poemas ou organizar planilhas, mas na hora de cuidar do seu corpo, eles ainda são tão imprecisos quanto o velho Google.
Fonte: A Tarde



