OpenAI усиливает меры безопасности из-за угрозы шпионажа

Компания OpenAI усилила меры безопасности в ответ на потенциальные угрозы корпоративного шпионажа.
Разработчик ChatGPT забеспокоился после того, как в январе этого года китайский стартап DeepSeek выпустил конкурентную модель чат-бота.
В OpenAI считают, что DeepSeek мог использовать так называемую технологию “дистилляции”, чтобы неправомерно воспроизвести их разработки.
Как OpenAI усилила меры безопасности
Согласно источникам издания Financial Times, компания внедрила новую политику “информационного шатра”. Она ограничивает доступ сотрудников к чувствительным алгоритмам и новым продуктам. Например, во время создания модели o1 обсуждение проекта в офисных помещениях было разрешено только проверенным членам команды, которые официально были привлечены к разработке.
Среди других мер – изоляция собственных технологий на компьютерах, не подключенных к сети, внедрение биометрического контроля доступа, в частности сканирование отпечатков пальцев.
Также внедрена политика “запрета по умолчанию” для подключений к интернету – любое внешнее соединение требует отдельного разрешения. Компания также усилила физическую охрану дата-центров и расширила штат специалистов по кибербезопасности.
Эти изменения направлены на защиту от попыток иностранных конкурентов похитить интеллектуальную собственность. Впрочем, не исключено, что OpenAI стремится также устранить и внутренние риски. К слову, в компании пока официально не комментируют дополнительные меры безопасности.
Ранее OpenAI удивила соглашением с Google, которую заключила для использования облачных мощностей конкурента.
