По данным исследования, опубликованного в среду компанией Wiz, занимающейся облачной безопасностью, уязвимость безопасности китайской компании DeepSeek, занимающейся разработкой искусственного интеллекта, привела к раскрытию более миллиона строк конфиденциальных внутренних данных, включая истории чатов пользователей, секреты API и сведения об операциях на сервере.
Утечка, обнаруженная ранее в этом месяце , произошла из-за общедоступной базы данных ClickHouse, связанной с системами DeepSeek. База данных, размещённая на двух поддоменах DeepSeek, не требовала аутентификации, обеспечивая неограниченный доступ к внутренним журналам, начиная с 6 января. DeepSeek, вызвавшая резонанс в технологической отрасли благодаря своей экономичной модели рассуждений DeepSeek-R1, обеспечила безопасность базы данных в течение нескольких часов после получения уведомления от исследователей.
Исследователи Wiz обнаружили уязвимость во время плановой разведки интернет-активов DeepSeek. Два нестандартных порта (8123 и 9000) привели к уязвимости базы данных ClickHouse — системы управления базами данных с открытым исходным кодом, оптимизированной для выполнения быстрых аналитических запросов к большим наборам данных. Используя эту систему, исследователи Wiz выполнили произвольные SQL-запросы, которые извлекли информацию, связанную со следующими данными:
Стремительный рост DeepSeek в сфере искусственного интеллекта привёл к пристальному вниманию к её методам обеспечения безопасности. Ранее на этой неделе компания заявила, что испытывает трудности с регистрацией новых пользователей из-за «масштабных вредоносных атак» на свои сервисы.
Кроме того, израильская компания Kela, занимающаяся анализом угроз кибербезопасности, заявила, что, хотя R1 и имеет сходство с ChatGPT от OpenAI, «он значительно более уязвим» к взлому.
«Команда AI Red Team из KELA смогла взломать модель в широком спектре сценариев, что позволило ей генерировать вредоносные результаты, такие как разработка программ-вымогателей, изготовление конфиденциального контента и подробные инструкции по созданию токсинов и взрывных устройств», — сообщили исследователи Kela в блоге в понедельник.
Wiz отметил в своем блоге, что стремительный рост в сфере искусственного интеллекта должен подтолкнуть компании, разрабатывающие эту технологию, уделять больше внимания мерам безопасности, прежде чем выводить свои продукты на рынок.
«Мир ещё не видел технологий, внедряемых с такой же скоростью, как ИИ», — пишет компания. «Многие компании, работающие в сфере ИИ, быстро превратились в поставщиков критически важной инфраструктуры, не имея систем безопасности, которые обычно сопутствуют такому широкому внедрению. По мере того, как ИИ всё глубже интегрируется в бизнес по всему миру, отрасль должна осознавать риски, связанные с обработкой конфиденциальных данных, и применять меры безопасности наравне с теми, которые требуются для поставщиков публичных облачных сервисов и крупных поставщиков инфраструктуры».
DeepSeek не ответил на просьбу CyberScoop прокомментировать ситуацию.
Утечка, обнаруженная ранее в этом месяце , произошла из-за общедоступной базы данных ClickHouse, связанной с системами DeepSeek. База данных, размещённая на двух поддоменах DeepSeek, не требовала аутентификации, обеспечивая неограниченный доступ к внутренним журналам, начиная с 6 января. DeepSeek, вызвавшая резонанс в технологической отрасли благодаря своей экономичной модели рассуждений DeepSeek-R1, обеспечила безопасность базы данных в течение нескольких часов после получения уведомления от исследователей.
Исследователи Wiz обнаружили уязвимость во время плановой разведки интернет-активов DeepSeek. Два нестандартных порта (8123 и 9000) привели к уязвимости базы данных ClickHouse — системы управления базами данных с открытым исходным кодом, оптимизированной для выполнения быстрых аналитических запросов к большим наборам данных. Используя эту систему, исследователи Wiz выполнили произвольные SQL-запросы, которые извлекли информацию, связанную со следующими данными:
- Истории чатов в текстовом формате между пользователями и системами искусственного интеллекта DeepSeek
- API-ключи и криптографические секреты
- Структуры каталогов сервера и рабочие метаданные
- Ссылки на внутренние конечные точки API
Стремительный рост DeepSeek в сфере искусственного интеллекта привёл к пристальному вниманию к её методам обеспечения безопасности. Ранее на этой неделе компания заявила, что испытывает трудности с регистрацией новых пользователей из-за «масштабных вредоносных атак» на свои сервисы.
Кроме того, израильская компания Kela, занимающаяся анализом угроз кибербезопасности, заявила, что, хотя R1 и имеет сходство с ChatGPT от OpenAI, «он значительно более уязвим» к взлому.
«Команда AI Red Team из KELA смогла взломать модель в широком спектре сценариев, что позволило ей генерировать вредоносные результаты, такие как разработка программ-вымогателей, изготовление конфиденциального контента и подробные инструкции по созданию токсинов и взрывных устройств», — сообщили исследователи Kela в блоге в понедельник.
Wiz отметил в своем блоге, что стремительный рост в сфере искусственного интеллекта должен подтолкнуть компании, разрабатывающие эту технологию, уделять больше внимания мерам безопасности, прежде чем выводить свои продукты на рынок.
«Мир ещё не видел технологий, внедряемых с такой же скоростью, как ИИ», — пишет компания. «Многие компании, работающие в сфере ИИ, быстро превратились в поставщиков критически важной инфраструктуры, не имея систем безопасности, которые обычно сопутствуют такому широкому внедрению. По мере того, как ИИ всё глубже интегрируется в бизнес по всему миру, отрасль должна осознавать риски, связанные с обработкой конфиденциальных данных, и применять меры безопасности наравне с теми, которые требуются для поставщиков публичных облачных сервисов и крупных поставщиков инфраструктуры».
DeepSeek не ответил на просьбу CyberScoop прокомментировать ситуацию.