У США розгортається прецедентна справа, яка може змінити підхід до відповідальності за використання штучного інтелекту.
Генпрокурор штату Флорида Джеймс Утмейєр оголосив про кримінальне розслідування щодо компанії OpenAI після стрілянини в університеті Florida State University у 2025 році.
Що сталося і до чого тут ChatGPT
Перед нападом студент Фенікс Ікнер, який відкрив вогонь на території університету, спілкувався не з близькими чи друзями, а з чатботом на базі штучного інтелекту.
За даними слідства, він ставив запитання про вибір зброї, боєприпасів, а також про те, коли і де можна завдати найбільших жертв. Слідчі стверджують, що чатбот надав відповіді на ці запити.
Унаслідок стрілянини загинули двоє людей, ще шестеро отримали поранення.
Генпрокурор заявив, що якщо б такі поради давала жива людина, її могли б звинуватити у вбивстві. Саме тому влада перевіряє, чи може відповідальність нести розробник — компанія OpenAI або її співробітники.
Чи можуть компанії відповідати за дії ШІ
Юристи наголошують: у США вже існує практика кримінального переслідування корпорацій, хоча такі випадки рідкісні.
Раніше великі компанії отримували штрафи за порушення — зокрема у фармацевтичній галузі, автопромі чи через екологічні катастрофи.
Втім, у тих справах ключову роль відігравали рішення людей — менеджерів чи інженерів. У випадку зі штучним інтелектом ситуація складніша, адже йдеться про продукт, який може діяти автономно.
Експерти вважають, що найімовірніші звинувачення у подібних справах — недбалість або безрозсудність. Але довести це непросто: у кримінальному праві необхідно встановити провину “поза розумним сумнівом”, що значно підвищує планку для обвинувачення.
Кримінальна чи цивільна справа: що далі
OpenAI вже заявила, що ChatGPT не несе відповідальності за напад, і підкреслила, що компанія постійно вдосконалює системи безпеки для запобігання зловживанням.
Юристи зазначають, що цивільні позови проти розробників ШІ можуть бути більш реалістичним шляхом для постраждалих. У США вже подано кілька таких позовів, зокрема у справах, пов’язаних із самогубствами, однак суди поки не винесли рішень проти компаній.
Водночас навіть потенційне кримінальне покарання, навіть незначне, може завдати серйозного репутаційного удару.
Експерти зазначають, що навіть гучні розслідування не замінять необхідності чітких правил для ринку штучного інтелекту, яких у США наразі бракує.

