Китайский стартап DeepSeek, чья модель языка с открытым исходным кодом вызвала на этой неделе панику среди американских технологических и ИИ-компаний, заявил, что испытывает трудности с регистрацией новых пользователей из-за «масштабных вредоносных атак» на свои сервисы.
В понедельник на сайте компании был опубликован баннер с сообщением о том, что она временно приостанавливает новые регистрации для решения этой проблемы.
Скриншот баннера на сайте DeepSeek, сообщающего об ограничении новых регистраций из-за «масштабных вредоносных атак» на его сервисы. (Источник: CyberScoop)
Это примечание было быстро обновлено, чтобы указать, что новые пользователи могут возобновить регистрацию, но могут столкнуться с трудностями. Существующие пользователи по-прежнему могут входить в систему в обычном режиме.
«В связи с масштабными вредоносными атаками на сервисы DeepSeek регистрация может быть перегружена. Пожалуйста, подождите и повторите попытку», — говорится в сообщении.
В сообщении DeepSeek не уточняется, какому типу атак подвергаются её сервисы. CyberScoop обратился к компании за дополнительной информацией.
Стивен Коуски, главный технический директор SlashNext, заявил, что, поскольку DeepSeek пользуется международным вниманием и видит рост числа пользователей, заинтересованных в регистрации, его внезапный успех также «естественным образом привлекает различных злоумышленников», которые могут стремиться нарушить работу сервисов, собирать конкурентную разведку или использовать инфраструктуру компании в качестве плацдарма для вредоносной деятельности.
По словам Ковски, внедрение модели R1 компании DeepSeek и последующее внимание СМИ «делают DeepSeek привлекательной целью для злоумышленников и тех, кто стремится понять или использовать уязвимости систем ИИ».
Хотя модель R1 от DeepSeek дешевле, часть этой экономии может быть достигнута за счёт снижения уровня защиты от потенциальных злоупотреблений. Израильская компания Kela, занимающаяся анализом угроз кибербезопасности, заявила, что, хотя R1 и имеет сходство с ChatGPT, «она значительно более уязвима» к взлому.
Например, хотя последние модели OpenAI были исправлены для решения проблемы двухлетнего метода « Evil Jailbreak », этот метод и многие другие, по-видимому, работают с моделью R1 DeepSeek, позволяя им обходить ограничения по ряду запросов.
«Команда AI Red Team из KELA смогла взломать модель в широком спектре сценариев, что позволило ей генерировать вредоносные результаты, такие как разработка программ-вымогателей, изготовление конфиденциального контента и подробные инструкции по созданию токсинов и взрывных устройств», — сообщили исследователи Kela в блоге в понедельник.
R1 был публично представлен в этом месяце и быстро вызвал шок на рынке искусственного интеллекта в США и его базовой бизнес-модели.
В то время как американские компании, занимающиеся разработкой искусственного интеллекта, вкладывают миллиарды долларов в создание центров обработки данных, способных обеспечить огромные вычислительные мощности, необходимые для работы их моделей, технические эксперты утверждают, что DeepSeek R1 имеет производительность, сопоставимую с ведущими коммерческими моделями США, такими как новейшая модель рассуждений o1 от OpenAI.
Кроме того, по-видимому, это потребует значительно меньших инвестиционных затрат, хотя вопрос о том, насколько они значительны, остается спорным.
По данным DeepSeek, R1 был создан менее чем за 6 миллионов долларов. Кроме того, в то время как многие из самых мощных крупных языковых моделей, разработанных американскими компаниями, являются коммерческими и работают по подписке, модель DeepSeek имеет открытый исходный код. В настоящее время это приложение №1 в списке бесплатных приложений в Apple Store.
Однако Бен Томпсон, технический и бизнес-аналитик Stratechery, отметил, что, согласно собственному техническому отчету DeepSeek , эти инвестиционные показатели для R1 включают только финальный тренировочный запуск для DeepSeek версии 3.0.
Полная стоимость обучения и разработки конечного продукта, создаваемого DeepSeek, почти наверняка превышает 6 миллионов долларов, но, вероятно, значительно ниже затрат, озвученных многими американскими коммерческими фирмами.
Если говорить точнее, остаются препятствия, которые потенциально могут сделать DeepSeek неподходящим решением для американского бизнеса.
Многие компании, вероятно, не захотят интегрировать китайскую модель искусственного интеллекта в свои бизнес-процессы. Кроме того, модель DeepSeek, созданная китайскими разработчиками, по всей видимости, избегает критики в адрес председателя КНР Си Цзиньпина или Китайской Народной Республики.
Согласно политике конфиденциальности компании, если пользователь не решит загрузить и запустить программное обеспечение локально, его данные будут отправлены на серверы, расположенные в Китае . DeepSeek также собирает определённую информацию о пользователях, включая модель устройства, операционную систему, комбинации клавиш, IP-адрес и язык системы, а также диагностическую информацию и информацию о производительности, отчёты о сбоях и журналы производительности.
Однако появление недорогой и высокопроизводительной модели ИИ, которая бесплатна в использовании и работает на значительно более дешевой вычислительной мощности, чем та, которая, по утверждениям американских компаний, им нужна для разработки, вызывает опасения относительно долгосрочной жизнеспособности крупных и дорогих коммерческих LLM от таких компаний, как OpenAI, Anthropic и Google.
По мнению Томпсона, DeepSeek R1 развеивает миф о том, что масштабные инфраструктурные планы и необходимые для их реализации средства — единственный способ добиться лидирующих на рынке результатов в области ИИ. Высока вероятность того, что другие модели с открытым исходным кодом или с открытыми весами в будущем смогут повторить преимущества DeepSeek в плане стоимости и производительности.
Кроме того, R1 — как и все модели DeepSeek — имеет открытые веса, что означает, что «вместо того, чтобы платить OpenAI за получение рассуждений, вы можете запустить R1 на сервере по вашему выбору или даже локально, что значительно дешевле».
«R1 разрушает мифологию O1 в нескольких важных отношениях. Во-первых, сам факт его существования», — написал Томпсон. «У OpenAI нет какой-то особой приправы, которую нельзя было бы воспроизвести
В понедельник на сайте компании был опубликован баннер с сообщением о том, что она временно приостанавливает новые регистрации для решения этой проблемы.
Это примечание было быстро обновлено, чтобы указать, что новые пользователи могут возобновить регистрацию, но могут столкнуться с трудностями. Существующие пользователи по-прежнему могут входить в систему в обычном режиме.
«В связи с масштабными вредоносными атаками на сервисы DeepSeek регистрация может быть перегружена. Пожалуйста, подождите и повторите попытку», — говорится в сообщении.
В сообщении DeepSeek не уточняется, какому типу атак подвергаются её сервисы. CyberScoop обратился к компании за дополнительной информацией.
Стивен Коуски, главный технический директор SlashNext, заявил, что, поскольку DeepSeek пользуется международным вниманием и видит рост числа пользователей, заинтересованных в регистрации, его внезапный успех также «естественным образом привлекает различных злоумышленников», которые могут стремиться нарушить работу сервисов, собирать конкурентную разведку или использовать инфраструктуру компании в качестве плацдарма для вредоносной деятельности.
По словам Ковски, внедрение модели R1 компании DeepSeek и последующее внимание СМИ «делают DeepSeek привлекательной целью для злоумышленников и тех, кто стремится понять или использовать уязвимости систем ИИ».
Хотя модель R1 от DeepSeek дешевле, часть этой экономии может быть достигнута за счёт снижения уровня защиты от потенциальных злоупотреблений. Израильская компания Kela, занимающаяся анализом угроз кибербезопасности, заявила, что, хотя R1 и имеет сходство с ChatGPT, «она значительно более уязвима» к взлому.
Например, хотя последние модели OpenAI были исправлены для решения проблемы двухлетнего метода « Evil Jailbreak », этот метод и многие другие, по-видимому, работают с моделью R1 DeepSeek, позволяя им обходить ограничения по ряду запросов.
«Команда AI Red Team из KELA смогла взломать модель в широком спектре сценариев, что позволило ей генерировать вредоносные результаты, такие как разработка программ-вымогателей, изготовление конфиденциального контента и подробные инструкции по созданию токсинов и взрывных устройств», — сообщили исследователи Kela в блоге в понедельник.
R1 был публично представлен в этом месяце и быстро вызвал шок на рынке искусственного интеллекта в США и его базовой бизнес-модели.
В то время как американские компании, занимающиеся разработкой искусственного интеллекта, вкладывают миллиарды долларов в создание центров обработки данных, способных обеспечить огромные вычислительные мощности, необходимые для работы их моделей, технические эксперты утверждают, что DeepSeek R1 имеет производительность, сопоставимую с ведущими коммерческими моделями США, такими как новейшая модель рассуждений o1 от OpenAI.
Кроме того, по-видимому, это потребует значительно меньших инвестиционных затрат, хотя вопрос о том, насколько они значительны, остается спорным.
По данным DeepSeek, R1 был создан менее чем за 6 миллионов долларов. Кроме того, в то время как многие из самых мощных крупных языковых моделей, разработанных американскими компаниями, являются коммерческими и работают по подписке, модель DeepSeek имеет открытый исходный код. В настоящее время это приложение №1 в списке бесплатных приложений в Apple Store.
Однако Бен Томпсон, технический и бизнес-аналитик Stratechery, отметил, что, согласно собственному техническому отчету DeepSeek , эти инвестиционные показатели для R1 включают только финальный тренировочный запуск для DeepSeek версии 3.0.
Полная стоимость обучения и разработки конечного продукта, создаваемого DeepSeek, почти наверняка превышает 6 миллионов долларов, но, вероятно, значительно ниже затрат, озвученных многими американскими коммерческими фирмами.
Если говорить точнее, остаются препятствия, которые потенциально могут сделать DeepSeek неподходящим решением для американского бизнеса.
Многие компании, вероятно, не захотят интегрировать китайскую модель искусственного интеллекта в свои бизнес-процессы. Кроме того, модель DeepSeek, созданная китайскими разработчиками, по всей видимости, избегает критики в адрес председателя КНР Си Цзиньпина или Китайской Народной Республики.
Согласно политике конфиденциальности компании, если пользователь не решит загрузить и запустить программное обеспечение локально, его данные будут отправлены на серверы, расположенные в Китае . DeepSeek также собирает определённую информацию о пользователях, включая модель устройства, операционную систему, комбинации клавиш, IP-адрес и язык системы, а также диагностическую информацию и информацию о производительности, отчёты о сбоях и журналы производительности.
Однако появление недорогой и высокопроизводительной модели ИИ, которая бесплатна в использовании и работает на значительно более дешевой вычислительной мощности, чем та, которая, по утверждениям американских компаний, им нужна для разработки, вызывает опасения относительно долгосрочной жизнеспособности крупных и дорогих коммерческих LLM от таких компаний, как OpenAI, Anthropic и Google.
По мнению Томпсона, DeepSeek R1 развеивает миф о том, что масштабные инфраструктурные планы и необходимые для их реализации средства — единственный способ добиться лидирующих на рынке результатов в области ИИ. Высока вероятность того, что другие модели с открытым исходным кодом или с открытыми весами в будущем смогут повторить преимущества DeepSeek в плане стоимости и производительности.
Кроме того, R1 — как и все модели DeepSeek — имеет открытые веса, что означает, что «вместо того, чтобы платить OpenAI за получение рассуждений, вы можете запустить R1 на сервере по вашему выбору или даже локально, что значительно дешевле».
«R1 разрушает мифологию O1 в нескольких важных отношениях. Во-первых, сам факт его существования», — написал Томпсон. «У OpenAI нет какой-то особой приправы, которую нельзя было бы воспроизвести