Sex, 05 de Dezembro

Logo Folha de Pernambuco
SAÚDE

Homem desenvolve condição psiquiátrica rara após consulta ao ChatGPT sobre parar de comer sal

Relato de caso foi publicado na revista científica Annals of Internal Medicine

ChatGPT foi associado a caso de bromismo ChatGPT foi associado a caso de bromismo  - Foto: NurPhto/AFP

Um homem de 60 anos desenvolveu bromismo — também conhecido como intoxicação por brometo, uma condição psiquiátrica considerada rara — após uma sugestão dada pelo ChatGPT para remover o sal de cozinha da sua alimentação.

Ao chegar ao hospital, ele alegou que estava sendo envenenado pelo seu vizinho. Além disso, afirmou ter diversas restrições alimentares e recusou a água oferecida no local, mesmo estando com sede. Um dia depois de ser internado, o homem tentou escapar do hospital e passou a receber tratamento para psicose. E, mais tarde, já estabilizado, afirmou ter outros sintomas ligados ao bromismo, como insônia e acne facial.

"Gradualmente, ao longo de uma internação de três semanas, seus níveis de cloreto e lacuna aniônica normalizaram-se e os sintomas psicóticos melhoraram", escreveram os autores do relato de caso.

 

De acordo com os pesquisadores, o bromismo é considerado um quadro tóxico bem conhecido no início do século XX, que causava sintomas neuropsiquiátricos e dermatológicos. Inclusive, pesquisas mostram que a intoxicação estava por trás de até 8% das internações psiquiátricas na época.

Após ser atendido na emergência, o homem relatou que perguntou ao ChatGPT como remover o sal de cozinha da sua dieta, pois havia lido sobre os possíveis malefícios, e foi aconselhado pelo chatbot a utilizar o brometo de sódio como substituição. O relato do caso foi publicado na revista científica Annals of Internal Medicine por médicos da Universidade de Washington, nos Estados Unidos.

"Este caso também destaca como o uso da inteligência artificial (IA) pode contribuir potencialmente para o desenvolvimento de resultados adversos à saúde que podem ser evitados", destacaram os autores.

A equipe afirma que não conseguiu acesso à conversa do paciente com o ChatGPT, mas que, ao questionarem o chatbot sobre o que poderia substituir o sal de cozinha, também receberam uma resposta que incluía o brometo de sódio.

"Embora a resposta afirmasse que o contexto é importante, ela não forneceu um aviso específico sobre saúde, nem perguntou por que queríamos saber, como presumimos que um profissional médico faria", diz o artigo.

Veja também

Newsletter