Прихована загроза: в OpenAI заявили про небезпеку нових поколінь ШІ
- OpenAI заявила, що майбутні моделі ШІ можуть допомагати у кіберзламах.
- Компанія посилює захист через додаткові перевірки, обмеження та моніторинг.
- Зовнішні експерти тестують систему так само як справжні хакери.
В компанії OpenAI заявили, що майбутні версії штучного інтелекту можуть становити реальну загрозу для кібербезпеки.
За словами розробників, наступні моделі можуть стати настільки потужними, що зможуть допомагати у зламах навіть добре захищених комп’ютерних систем.
Ризики розвитку ШІ – загроза кібербезпеці
В OpenAI пояснюють, що моделі розвиваються швидше, ніж очікувалося. Вони вже показують значно вищі результати у тестах, які імітують дії хакерів.
Якщо прогрес буде таким самим, у майбутньому ШІ може виконувати завдання, які сьогодні під силу лише досвідченим кіберзлочинцям. Саме тому компанія оголосила, що починає посилювати свій захист наперед, щоб уникнути можливих зловживань.
Фахівці уточнюють, що йдеться не про те, що ШІ сам “зламає” систему, а про ризик того, що ним можуть скористатися люди з поганими намірами.
Заходи безпеки від OpenAI
Компанія вже вводить додаткові перевірки, обмеження та контроль за тим, як користувачі взаємодіють із моделями. Якщо запит схожий на небезпечний, система може його заблокувати або перенаправити на безпечнішу версію.
В OpenAI також активно тестують захист разом із зовнішніми експертами, які працюють так само як справжні хакери: намагаються знайти слабкі місця й обійти всі рівні системи.
Крім того, компанія запускає окремі програми для команд, що працюють над кіберзахистом, і створює інструменти, які допомагатимуть знаходити вразливості у програмному забезпеченні.
Нагадаємо, що у вересні в OpenAI оголосили про запровадження обмежень для підлітків у ChatGPT та посилення захисту приватності.