Gemini та ChatGPT викривляють зміст новин – міжнародне дослідження

ШІ та новини

Фото: Pexels

Штучний інтелект неправильно передає зміст новин майже у половині випадків.

Про це свідчать результати масштабного міжнародного дослідження, проведеного Європейською мовною спілкою (ЄМС) у співпраці з BBC та 22 суспільними мовниками з 18 країн, включно з Україною.

Експерти зазначають, що спотворення є системними та виникають незалежно від мови, країни чи тематики новини.

– Це дослідження переконливо доводить, що ці недоліки – не поодинокі випадки. Вони системні, не залежать від кордонів і мови, і ми вважаємо, що це становить загрозу для суспільної довіри. Коли люди не знають, кому вірити, вони зрештою не довіряють нікому, а це може послабити участь у демократичних процесах, – зазначив директор із питань медіа та заступник гендиректора ЄМС Жан-Філіп Де Тендер.

ШІ моделі масово помиляються – дослідження

Дослідники перевірили чотири популярні ШІ-моделі: Gemini, ChatGPT, Copilot та Perplexity. Їм поставили ідентичні запити з журналістських новин.

Після цього професійні журналісти оцінили понад 3 тис. відповідей за критеріями точності, наявності джерел, відповідності фактам і контексту.

У 45% випадків ШІ припустився суттєвої помилки. Найчастіше це були:

  • відсутні або вигадані джерела – 31%;
  • неточна або застаріла інформація – 20%;
  • спрощення або викривлення контексту – 14%.

Найгірший показник продемонструвала модель Gemini – помилки в 76% відповідей, що більш ніж удвічі перевищує результати інших моделей. Далі йдуть Copilot (37%), ChatGPT (36%) і Perplexity (30%).

Окремо дослідники зазначили, що ШІ часто відповідає впевненим тоном навіть тоді, коли інформація є некоректною, що створює у користувача хибне відчуття правдивості.

ШІ як альтернатива пошуковикам

Попри високий рівень помилок, штучний інтелект продовжує набирати популярність.

За даними Digital News Report 2025 від Reuters Institute, 7% користувачів у світі отримують новини переважно через ШІ, а серед молоді до 25 років цей показник сягнув 15%.

У BBC зазначають, що багато людей вважають відповіді ШІ точними, навіть якщо не знають, звідки взято інформацію.
Також користувачі часто не усвідомлюють, що штучний інтелект може припускатись фактичних помилок.

Нагадаємо, що напередодні OpenAI представила Atlas – перший ШІ-браузер на базі ChatGPT для персоналізованого вебдосвіду та допомоги онлайн.

Читайте також
Що відбувається з мозком після використання ChatGPT – дослідження
Тетяна Штерєва редакторка розділу Стиль життя