OpenAI посилює заходи безпеки через загрозу шпигунства

Компанія OpenAI посилила заходи безпеки у відповідь на потенційні загрози корпоративного шпигунства.
Розробник ChatGPT занепокоївся після того, як у січні цього року китайський стартап DeepSeek випустив конкурентну модель чат-бота.
У OpenAI вважають, що DeepSeek міг використати так звану технологію “дистиляції”, щоби неправомірно відтворити їхні розробки.
Як OpenAI посилила заходи безпеки
Згідно з джерелами видання Financial Times, компанія впровадила нову політику “інформаційного шатра”. Вона обмежує доступ співробітників до чутливих алгоритмів і нових продуктів. Наприклад, під час створення моделі o1 обговорення проєкту в офісних просторах були дозволені лише перевіреним членам команди, які офіційно були залучені до розробки.
Серед інших заходів – ізоляція власницьких технологій на комп’ютерах, не під’єднаних до мережі, впровадження біометричного контролю доступу, зокрема сканування відбитків пальців.
Також впроваджено політику “заборони за замовчуванням” для підключень до інтернету – будь-яке зовнішнє з’єднання потребує окремого дозволу. Компанія також підвищила фізичну охорону дата-центрів і розширила штат фахівців з кібербезпеки.
Ці зміни спрямовані на захист від спроб іноземних конкурентів викрасти інтелектуальну власність. Втім, не виключено, що OpenAI прагне також усунути й внутрішні ризики. До слова, у компанії наразі офіційно не коментують додаткові заходи безпеки.
Раніше OpenAI здивувала угодою з Google, що уклала для використання хмарних потужностей конкурента.
