В США 60-летний мужчина был госпитализирован после того, как воспользовался советом ChatGPT об исключении хлорида натрия (обычной поваренной соли) из рациона.

Поскольку люди все больше взаимодействуют с искусственным интеллектом, продолжают появляться истории о том, что общение с чат-ботом может быть опасным, а иногда даже смертельным.

Совет ChatGPT довел до психбольницы: что произошло

Согласно новому отчету о клиническом случае, опубликованному в журнале Американской коллегии врачей, у мужчины развился бромизм после того, как он обратился к ChatGPT за советом по поводу своей диеты.

Сейчас смотрят

Бромизм, или отравление бромидами, был хорошо известен в начале 1990-х годов, но сейчас встречается реже. В то время соли брома содержались во многих безрецептурных препаратах для лечения бессонницы, истерии и тревожности.

Передозировка брома может вызывать нейропсихиатрические и дерматологические симптомы.

У мужчины, о котором идет речь в данном случае, не было психиатрических или медицинских проблем в прошлом, но в течение первых 24 часов госпитализации у него обострилась паранойя, а также появились слуховые и зрительные галлюцинации.

— Было отмечено, что он испытывал сильную жажду, но при этом испытывал паранойю по поводу предлагаемой ему воды, — говорится в отчете.

Мужчину лечили жидкостями и электролитами, и его состояние стабилизировалось, что позволило поместить его в стационарное психиатрическое отделение больницы.

По мере улучшения его состояния он смог рассказать о некоторых симптомах, которые он заметил, включая появившиеся угри на лице и вишневые ангиомы, что еще раз свидетельствовало о наличии у него бромизма.

Он также рассказал, что в течение трех месяцев заменял хлорид натрия (поваренную соль) бромидом натрия после того, как узнал о негативном влиянии поваренной соли на здоровье.

— Вдохновленный своим опытом изучения диетологии в колледже, он решил провести личный эксперимент по исключению хлорида из своего рациона, — говорится в отчете о случае.

Мужчина провел в больнице три недели, прежде чем его выписали.

Компания Open AI, разработчик ChatGPT, признает в своих Условиях использования, что выходные данные чат-бота не всегда могут быть точными.

— Вы не должны полагаться на результаты наших Услуг как на единственный источник достоверной или фактической информации или как на замену профессиональной консультации, — говорится в Условиях использования.

Читайте также
Страх перед стремительным развитием ИИ заставляет студентов в США бросать учебу
ШІ Штучний інтелект

Источник: Independent

Связанные темы:

Если увидели ошибку, выделите фрагмент текста и нажмите Ctrl+Enter.