Chatbots baseados em inteligências artificiais, as famosas IAs, estão fornecendo conselhos médicos problemáticos aos usuários em cerca de metade das vezes. É isso o que diz um novo estudo realizado por cientistas dos Estados Unidos, Canadá e Reino Unido.
O experimento publicado no periódico médico BMJ Open destacou os riscos à saúde dessa tecnologia, que está se tornando cada vez mais essencial no dia a dia. Os pesquisadores avaliaram cinco plataformas populares (ChatGPT, Gemini, Meta AI, Grok e DeepSeek), fazendo a cada uma delas dez perguntas em cinco categorias de saúde.
Das respostas totais, aproximadamente 50% foram consideradas problemáticas, incluindo quase 20% que foram altamente problemáticas. Os chatbots tiveram um desempenho relativamente melhor em perguntas fechadas e relacionadas a vacinas e câncer, e pior em perguntas abertas e em áreas como células-tronco e nutrição, de acordo com o estudo.
Os estudiosos pontuaram que as respostas foram frequentemente dadas com confiança e certeza, embora nenhum chatbot tenha produzido uma lista de referência totalmente completa e precisa em resposta a qualquer questão. Houve apenas duas recusas em responder a perguntas, ambas da Meta AI.
Os resultados reforçam a preocupação sobre como as pessoas estão usando as plataformas de inteligência artificial generativa, que não são licenciadas para fornecer aconselhamento médico e não possuem o discernimento clínico necessário para fazer diagnósticos.
O crescimento massivo dos chatbots de IA os tornou uma ferramenta popular para pessoas que buscam orientação sobre seus problemas de saúde, e a OpenAI afirmou que mais de 200 milhões de pessoas fazem perguntas sobre saúde e bem-estar ao ChatGPT todas as semanas.
Em janeiro, a plataforma anunciou ferramentas de saúde tanto para usuários comuns quanto para profissionais de saúde. No mesmo mês, a Anthropic anunciou o lançamento de seu produto Claude, uma nova oferta para a área da saúde.
Um dos principais riscos da implementação de chatbots sem supervisão pública é a possibilidade de amplificar a desinformação, disseram os autores do estudo publicado no BMJ Open.
Por fim, eles afirmam que as descobertas “destacam importantes limitações comportamentais e a necessidade de reavaliar como os chatbots de IA são implementados na comunicação pública sobre saúde e medicina”, escreveram eles. Esses sistemas podem gerar “respostas com aparência de autoridade, mas potencialmente falhas”.