Homem desenvolve condição rara após seguir conselho do ChatGPT

Foto:  Reprodução

 

Um homem de 60 anos foi internado em um hospital dos Estados Unidos com uma condição rara após seguir conselhos de saúde do ChatGPT. Ele tinha sintomas neuropsiquiátricos e dermatológicos associados ao bromismo, uma intoxicação causada pela ingestão excessiva de brometo. O caso foi publicado na revista Annals of Internal Medicine, em 5 de agosto.

O paciente relatou aos médicos que decidiu remover o cloreto de sódio, o sal de cozinha, da dieta após ler sobre possíveis riscos à saúde. Ao consultar a inteligência artificial, ele recebeu informações de que o sal poderia ser substituído por brometo, mas o gerador de textos não alertou sobre os perigos da troca. O homem ingeriu brometo de sódio por três meses

Diagnóstico e evolução clínica
Segundo o relato dos médicos responsáveis pelo atendimento, exames mostraram alterações nos níveis de eletrólitos e indícios de pseudo-hipercloremia. O paciente apresentou paranoia, alucinações e desconfiança em relação à água oferecida, além de sede intensa e insônia.

Após internação, ele revelou que havia feito múltiplas restrições alimentares por conselho dos modelos de inteligência artificial e falou do uso recente de brometo. A confirmação do bromismo ocorreu após avaliação clínica e consulta ao centro de controle de intoxicações.

O tratamento incluiu manejo dos sintomas e reposição de eletrólitos. O paciente se recuperou e, ao voltar às suas faculdades mentais, relatou que havia tido lesões de pele e cansaço persistente no período anterior à psicose, outros dos sintomas característicos da intoxicação por brometo

O brometo foi utilizado como sedativo no início do século 20 e teve o uso interrompido nos EUA entre 1975 e 1989, justamente devido à toxicidade. Na época, o bromismo era responsável por até 10% das internações psiquiátricas no país.

Ao testar a pesquisa do paciente sobre substitutos para o sal, os médicos obtiveram do ChatGPT a mesma menção ao brometo, sem advertências ou questionamentos sobre o objetivo da substituição.

“A IA não forneceu um aviso de saúde específico, nem perguntou sobre por que queríamos saber [como substituir o sal], como presumimos que um profissional médico faria. Assim, é importante considerar que o ChatGPT e outras IAs podem gerar imprecisões científicas, não têm capacidade para discutir criticamente os resultados e, em última análise, alimentam a disseminação de desinformação”, afirmam os pesquisadores.

Deu no Metrópoles

 

Deixe um comentário

Rolar para cima