Укр Рус
, редактор ленты

Доступ к ИИ DeepSeek ограничили сотни компаний за считанные дни

Загрози кібербезпеки: до ШІ DeepSeek обмежили доступ сотні компаній з усього світу
Фото: Getty Images

Компании и правительственные учреждения по всему миру пытаются ограничить доступ своих сотрудников к инструментам, недавно выпущенным китайской компанией DeepSeek, специализирующейся на искусственном интеллекте.

Об этом пишет Bloomberg со ссылкой на данные фирм, которые занимаются кибербезопасностью.

DeepSeek и проблемы с кибербезопасностью

Как заявил Надир Израэль, главный технический директор киберкомпании Armis Inc, “сотни компаний”, особенно связанных с правительствами, пытаются заблокировать доступ к DeepSeek из-за опасений по поводу возможной утечки данных китайскому правительству и слабых, по их мнению, гарантий конфиденциальности.

Сейчас смотрят

Большинство клиентов Netskope Inc., фирмы по сетевой безопасности, которую компании используют для ограничения доступа сотрудников к веб-сайтам, помимо прочих услуг, также переходят на ограничение соединений.

По словам Рэя Канзанезе, директора лаборатории угроз Netskope, около 70% клиентов Armis запросили блокировку, а 52% клиентов Netskope полностью блокируют доступ к сайту.

— Наибольшее беспокойство вызывает потенциальная утечка данных ИИ-модели китайскому правительству. Вы не знаете, куда уходит ваша информация, — сказал Израэль из Armis.

Беспокойство вокруг DeepSeek усилилось после выходных, когда хвалебные отзывы ряда авторитетных лиц, включая Марка Андреессена, вывели ИИ-чатбот DeepSeek на первое место по загрузкам приложений в Apple Store. Главным среди этих опасений является тот факт, что в своих условиях конфиденциальности DeepSeek заявляет, что собирает и хранит данные на серверах в Китае, добавляя, что любые споры по этому вопросу будут регулироваться китайским государственным законодательством.

Как отмечает Bloomberg, согласно политике конфиденциальности DeepSeek, компания собирает нажатия клавиш, текстовые и аудиоданные, загруженные файлы, отзывы, историю чатов и другой контент пользователей с целью обучения своих моделей искусственного интеллекта и может по своему усмотрению передавать эту информацию правоохранительным и государственным органам.

Агентство продолжает, что кибер-исследователи, которые проверяют безопасность DeepSeek, заявили, что обнаружили в открытом доступе базу данных, принадлежащую компании, которая содержала внутренние данные. По данным компании Wiz Inc., база данных включала в себя историю чатов DeepSeek, детали бэкэнда и данные технических журналов. Wiz заявила, что DeepSeek защитила информацию, когда сообщила о находке.

Правительства пытаются понять угрозы со стороны DeepSeek

При этом правительства уже внимательно изучают систему контроля конфиденциальности DeepSeek, пишет Bloomberg. Так, ирландская комиссия по защите данных, которая следит за соблюдением правил конфиденциальности Европейского союза в отношении многих крупнейших технологических компаний мира, заявила в среду, что запросила у DeepSeek информацию, чтобы определить, правильно ли компания защищает данные пользователей.

Итальянский орган по защите данных также сообщил, что связался с компаниями Hangzhou DeepSeek Artificial Intelligence и Beijing DeepSeek Artificial Intelligence с целью получения информации о том, как приложение DeepSeek обрабатывает информацию об итальянских пользователях. Итальянские чиновники поинтересовались, передавались ли личные данные их граждан в Китай, и дали компаниям 20 дней на ответ.

Управление комиссара по информации Великобритании в своем заявлении отметило, что разработчики генеративного ИИ должны быть прозрачными в отношении того, как они используют персональные данные, и добавило, что будет принимать меры в случае игнорирования требований регулятора.

При этом американские чиновники и аналитические центры предупреждают, что китайские законы о национальной безопасности позволяют правительству получать доступ к ключам шифрования, контролируемым компаниями, работающими в стране, и заставлять их оказывать помощь в сборе разведывательной информации.

Эти же законы лежали в основе аргументации правительства США в пользу запрета платформы TikTok, принадлежащей китайской компании ByteDance Ltd., поскольку представители органов национальной безопасности предупреждали, что ее китайское владение дает Пекину возможность получить доступ к личной информации американцев.

Компания TikTok отрицает, что она представляет какую-либо подобную угрозу. Президент США Дональд Трамп пообещал заключить соглашение, которое позволило бы платформе продолжать работать в США, вскоре после того, как он вступил в должность в январе.

Мехди Осман, генеральный директор американского проекта OpenReplay, входит в число бизнесменов, которые решили не использовать API-сервис DeepSeek из-за опасений по поводу безопасности. Но он предупредил, что необычайно низкие цены компании все еще угрожают переманить разработчиков от OpenAI “в ближайшие месяцы”.

Исследователи киберпреступности тем временем предупреждают, что ИИ-сервисы DeepSeek, судя по всему, имеют меньше защитных ограждений, чтобы хакеры не могли использовать эти инструменты, например, для создания фишинговых писем, анализа больших массивов украденных данных или исследования киберуязвимостей.

— Не прилагая особых усилий, злоумышленники смогут вносить изменения в код, что приведет к увеличению масштабов и скорости кибер- и мошеннических атак, — говорит Леви Гундерт, главный специалист по безопасности и разведке в компании Recorded Future Inc, занимающейся кибербезопасностью.

Напомним, ранее компания OpenAI, которая является разработчиком сервиса ChatGPT, заявила, что обнаружила доказательства использования ее запатентованных моделей китайским стартапом DeepSeek для обучения конкурентного открытого ИИ.

Читайте также
Подрыв Tesla возле отеля Трампа: подозреваемый использовал ChatGPT для планирования
Взрыв возле отеля Трампа: подозреваемый использовал ChatGPT

Источник: Bloomberg
кібер-шахрайство, Кибербезопасность, Штучний інтелект
Если увидели ошибку, выделите фрагмент текста и нажмите Ctrl+Enter.

Загрузка

Помилка в тексті
Помилка