Скрытая угроза: в OpenAI заявили об опасности новых поколений ИИ
- OpenAI заявила, что будущие модели ИИ могут помогать в кибервзломах.
- Компания усиливает защиту за счет дополнительных проверок, ограничений и мониторинга.
- Внешние эксперты тестируют систему так же, как настоящие хакеры.
В компании OpenAI заявили, что будущие версии искусственного интеллекта могут представлять реальную угрозу для кибербезопасности.
По словам разработчиков, следующие модели могут стать настолько мощными, что смогут помогать во взломах даже хорошо защищенных компьютерных систем.
Риски развития ИИ – угроза кибербезопасности
В OpenAI объясняют, что модели развиваются быстрее, чем ожидалось. Они уже показывают значительно более высокие результаты в тестах, имитирующих действия хакеров.
Если прогресс будет таким же, в будущем ИИ может выполнять задачи, которые сегодня под силу только опытным киберпреступникам. Именно поэтому компания объявила, что начинает усиливать свою защиту заранее, чтобы избежать возможных злоупотреблений.
Специалисты уточняют, что речь идет не о том, что ИИ сам «взломает» систему, а о риске того, что им могут воспользоваться люди со злыми намерениями.
Меры безопасности от OpenAI
Компания уже вводит дополнительные проверки, ограничения и контроль над тем, как пользователи взаимодействуют с моделями. Если запрос похож на опасный, система может его заблокировать или перенаправить на более безопасную версию.
В OpenAI также активно тестируют защиту вместе с внешними экспертами, которые работают так же, как настоящие хакеры: пытаются найти слабые места и обойти все уровни системы.
Кроме того, компания запускает отдельные программы для команд, работающих над киберзащитой, и создает инструменты, которые будут помогать находить уязвимости в программном обеспечении.
Напомним, что в сентябре в OpenAI объявили о введении ограничений для подростков в ChatGPT и усилении защиты конфиденциальности.