Un american de 60 de ani a făcut bromism și a fost spitalizat trei săptămâni, după ce, timp de trei luni, acesta a consumat bromură de sodiu la recomandarea ChatGPT.
Acesta a ajuns la spital în stare gravă, manifestând paranoia, halucinații și dezechilibre metabolice, înainte ca medicii să facă teste pentru a vedea nivelul toxicității cu bromură.
Abia după un regim de mai multe zile cu fluide intravenoase, electroliți și antipsihoticul Risperidonă, omul a fost suficient de lucid pentru a povesti ce s-a întâmplat.

Acesta le-a spus medicilor că a început să cerceteze modalități de a elimina complet sarea din dietă, după ce a citit despre potențialele efecte negative asupra sănătății.
La sugestia ChatGPT, omul a luat bromură în loc de clorură vreme de trei luni. Starea fizică a pacientului s-a normalizat în cele din urmă, iar simptomele sale psihotice s-au diminuat după trei săptămâni de spitalizare.
Medicii au încercat să reproducă discuțiile acestuia cu AI-ul și au ajuns la concluzia că este foarte posibil ca ChatGPT să-i fi făcut recomandarea.
Cazul a determinat OpenAI, care dezvoltă ChatGPT, să adauge avertizări explicite legate de posibile sugestii toxice și să introducă mesaje care subliniază faptul că chatbot-ul nu poate suplini consultațiile medicale de specialitate.