Американець потрапив до психіатричної лікарні через поради ChatGPT

порада ШІ довела до психлікарні

піксебей

В США 60-річного чоловіка госпіталізували після того, як він скористався порадою ChatGPT щодо виключення хлориду натрію (звичайної повареної солі) з раціону.

Оскільки люди все більше взаємодіють зі штучним інтелектом, продовжують з’являтися історії про те, що спілкування з чат-ботом може бути небезпечним, а іноді навіть смертельним.

Порада ChatGPT привела до психіатричної лікарні: що сталося

Згідно з новим звітом про клінічний випадок, опублікованим в журналі Американської колегії лікарів, у чоловіка розвинувся бромізм після того, як він звернувся до ChatGPT за порадою щодо своєї дієти.

Бромізм, або отруєння бромідами, був добре відомий на початку 1990-х років, але зараз трапляється рідше. У той час солі брому містилися в багатьох безрецептурних препаратах для лікування безсоння, істерії та тривожності.

Передозування брому може викликати нейропсихіатричні та дерматологічні симптоми.

У чоловіка, про якого йдеться, не було психіатричних або медичних проблем в минулому, але протягом перших 24 годин госпіталізації у нього загострилася параноя, а також з’явилися слухові та зорові галюцинації.

– Було відзначено, що він відчував сильну спрагу, але при цьому відчував параною з приводу пропонованої йому води, – йдеться в звіті.

Чоловіка лікували рідинами та електролітами, і його стан стабілізувався, що дозволило помістити його в стаціонарне психіатричне відділення лікарні.

У міру поліпшення його стану він зміг розповісти про деякі симптоми, які він помітив, зокрема вугрі на обличчі і вишневі ангіоми, що ще раз свідчило про наявність у нього бромізму.

Він також розповів, що протягом трьох місяців замінював хлорид натрію (кухонну сіль) бромідом натрію після того, як дізнався про негативний вплив кухонної солі на здоров’я.

– Натхненний своїм досвідом вивчення дієтології в коледжі, він вирішив провести особистий експеримент з виключення хлориду зі свого раціону, – йдеться в звіті про випадок.

Чоловік провів у лікарні три тижні, перш ніж його виписали.

Компанія Open AI, розробник ChatGPT, визнає в своїх Умовах використання, що вихідні дані чат-бота не завжди можуть бути точними.

– Ви не повинні покладатися на результати наших послуг як на єдине джерело достовірної або фактичної інформації або як на заміну професійної консультації, – йдеться в Умовах використання.

Читайте також
Не лише погіршує пам’ять: вчені дослідили, як ChatGPT впливає на мозок
Джерело: Independent
Категорії: Медицина