Homem segue conselho do ChatGPT e acaba hospitalizado por envenenamento

Um homem de 60 anos foi parar no hospital depois de seguir uma orientação equivocada do ChatGPT sobre como reduzir o consumo de sal. O caso foi publicado no Annals of Internal Medicine e acendeu o alerta sobre pedir conselhos médicos a chatbots.

Segundo o relato, o paciente queria cortar o sal (cloreto de sódio) da dieta e perguntou ao ChatGPT por alternativas. O sistema sugeriu o brometo de sódio — uma substância tóxica, usada em pesticidas, produtos para limpeza de piscinas e até como medicamento veterinário para cães com epilepsia.

Após ingerir a substância, o homem desenvolveu bromismo, uma intoxicação rara que provoca sintomas como confusão mental, fala arrastada, alucinações, psicose e, em casos graves, coma. A condição foi comum até o início do século XX, mas caiu drasticamente após a proibição do uso de brometos em medicamentos humanos.

Durante a investigação, jornalistas da 404 Media reproduziram a pergunta feita ao ChatGPT e obtiveram respostas semelhantes, sem qualquer alerta sobre os riscos da substância.

O caso levanta discussões sobre os limites da inteligência artificial em temas de saúde. Mesmo com avanços em novas versões, como o GPT-5, especialistas reforçam que orientações médicas devem ser sempre buscadas com profissionais de saúde qualificados.

Com informações de Futurism.

Assista a Blink ao vivo.

Compartilhe o texto: