Искусственный интеллект неправильно передает содержание новостей почти в половине случаев.

Об этом свидетельствуют результаты масштабного международного исследования, проведенного Европейским вещательным союзом (ЕВС) в сотрудничестве с BBC и 22 общественными вещателями из 18 стран, включая Украину.

Эксперты отмечают, что искажения являются системными и возникают независимо от языка, страны или тематики новости.

Сейчас смотрят

– Это исследование убедительно доказывает, что эти недостатки – не единичные случаи. Они системные, не зависят от границ и языка, и мы считаем, что это представляет угрозу для общественного доверия. Когда люди не знают, кому верить, они в конечном итоге не доверяют никому, а это может ослабить участие в демократических процессах, – отметил директор по вопросам медиа и заместитель гендиректора ЕВС Жан-Филип Де Тендер.

ИИ-модели массово ошибаются – исследование

Исследователи проверили четыре популярные ИИ-модели: Gemini, ChatGPT, Copilot и Perplexity. Им задали идентичные запросы из журналистских новостей.

После этого профессиональные журналисты оценили более 3 тыс. ответов по критериям точности, наличия источников, соответствия фактам и контексту.

В 45% случаев ИИ допустил существенную ошибку. Чаще всего это были:

  • отсутствующие или вымышленные источники – 31%;
  • неточная или устаревшая информация – 20%;
  • упрощение или искажение контекста – 14%.

Худший показатель продемонстрировала модель Gemini – ошибки в 76% ответов, что более чем в два раза превышает результаты других моделей. Далее следуют Copilot (37%), ChatGPT (36%) и Perplexity (30%).

Отдельно исследователи отметили, что ИИ часто отвечает уверенным тоном даже тогда, когда информация некорректна, что создает у пользователя ложное ощущение правдивости.

ИИ как альтернатива поисковикам

Несмотря на высокий уровень ошибок, искусственный интеллект продолжает набирать популярность.

По данным Digital News Report 2025 от Reuters Institute, 7% пользователей в мире получают новости преимущественно через ИИ, а среди молодежи до 25 лет этот показатель достиг 15%.

В BBC отмечают, что многие люди считают ответы ИИ точными, даже если не знают, откуда взята информация.
Также пользователи часто не осознают, что искусственный интеллект может допускать фактические ошибки.

Напомним, что накануне OpenAI представила Atlas – первый ИИ-браузер на базе ChatGPT для персонализированного веб-опыта и помощи онлайн.

Читайте также
Что происходит с мозгом после использования ChatGPT – исследование
чи робить ШІ нас дурними й ледачими

Связанные темы:

Если увидели ошибку, выделите фрагмент текста и нажмите Ctrl+Enter.