Компания OpenAI рассматривает возможность сообщать властям в случаях, когда молодые пользователи серьезно пишут в ChatGPT о намерениях совершить самоубийство. Об этом заявил соучредитель и директор компании Сэм Альтман.
OpenAI планирует противодействовать самоубийствам
Сейчас в таких случаях ChatGPT советует обращаться на горячие линии. Но в OpenAI обсуждают, стоит ли действовать более активно.
– Если речь идет о молодых людях, которые серьезно говорят о самоубийстве, и мы не можем связаться с их родителями, тогда мы звоним в соответствующие органы, — пояснил Альтман.
По его словам, около полутора тысяч человек в неделю могут говорить с ChatGPT о самоубийстве перед тем, как покончить с собой.
Возможно, мы могли сказать это понятнее, действовать активнее и дать совет искать помощь по-другому, – добавил он.
Дискуссия обострилась после трагедии в Калифорнии, когда в апреле этого года 16-летний Адам Рейн покончил с собой. Его семья подала в суд на OpenAI и Альтмана, заявив, что бот в течение месяцев подталкивал парня, подсказывал методы и даже помог составить предсмертную записку.
Конфиденциальность против безопасности
Какие именно органы могут получать сигналы и какие данные OpenAI способна передать – пока неизвестно. Альтман подчеркнул, что конфиденциальность важна, но в случае с несовершеннолетними или уязвимыми пользователями компания может действовать жестче.
Он также отметил, что даже если кто-то спрашивает “для книги” или “для исследования”, в таких случаях ChatGPT просто не будет отвечать.
После смерти подростка OpenAI пообещала усилить защиту для пользователей до 18 лет, добавить родительский контроль и сделать “быстрый доступ к экстренным службам в один клик”. Также планируют соединять людей с сертифицированными терапевтами еще до того, как ситуация станет критической.
Ранее Сэм Альтман предупреждал, что личные разговоры с ChatGPT не имеют правовой защиты, подобной врачебной тайне.