Когда в апреле директор по информационной безопасности JPMorgan Chase Патрик Опет опубликовал открытое письмо поставщикам программного обеспечения, он не просто выразил обеспокоенность — он забил тревогу.
Цифры из отчёта Verizon Data Breach Investigations Report за 2025 год должны лишить сна любого руководителя отдела безопасности: 30% утечек теперь связаны со сторонними компонентами, что вдвое больше, чем в прошлом году. Но вот что действительно должно привлечь ваше внимание: этот взрывной рост рисков в цепочках поставок происходит как раз в тот момент, когда ИИ начинает писать значительную часть нашего кода.
Пример, который должен напугать любого руководителя службы информационной безопасности, — Google. Сейчас ИИ пишет 30% кода Google , в то время как большинство отделов безопасности по-прежнему полагаются на инструменты, разработанные для мира, где всё пишут люди. Это не просто пробел — это пропасть.
Мы уже видели подобное раньше. Более 20 лет руководя командами по безопасности в энергетике и технологиях, я могу сказать, что каждое крупное развитие безопасности следует одному и тому же сценарию: новые технологии создают новые риски быстрее, чем адаптируются наши средства защиты. Развитие ИИ не является исключением.
ИИ-помощники для программирования, такие как GitHub Copilot, CodeGeeX и Amazon Q Developer, принципиально отличаются от разработчиков-людей. Одно из самых существенных отличий заключается в отсутствии у них опыта разработки, понимания контекста и способности к человеческому суждению — качеств, которые необходимы для того, чтобы отличить безопасный код от уязвимых реализаций.
Инструменты ИИ также обучаются на обширных репозиториях исторического кода, некоторые из которых содержат известные уязвимости, устаревшие методы шифрования и устаревшие компоненты. Следующее, что вы видите, — это то, как ИИ-помощники внедряют эти элементы в новые приложения, что приводит к рискам безопасности цепочки поставок программного обеспечения, которые традиционные инструменты безопасности, такие как статическое тестирование безопасности приложений (SAST), динамическое тестирование безопасности приложений (DAST) и анализ состава программного обеспечения (SCA), не способны обнаружить.
Недостаточность этих инструментов обусловлена тем, что они фокусируются преимущественно на известных шаблонах уязвимостей и версиях компонентов. Эти инструменты не способны эффективно оценивать специфические для ИИ угрозы, такие как атаки с заражением данных и меметические вирусы, которые могут повредить модели машинного обучения и привести к созданию эксплойтируемого кода. Хотя в сфере безопасности ИИ есть и новые стартапы, они также имеют те же ограничения, что и устаревшие решения, связанные с размером и сложностью файлов. Они также не позволяют комплексно проанализировать модель на предмет всех потенциальных рисков, таких как вредоносное ПО, подделка, атаки десериализации форматов и т. д.
Ещё одним недостатком традиционных инструментов безопасности является то, что они обычно анализируют код на этапе разработки, а не проверяют готовое скомпилированное приложение. Такой подход создаёт «слепые зоны», где вредоносные изменения, внесённые в процессе сборки или с помощью ИИ, остаются незамеченными. Проверка программного обеспечения в скомпилированном состоянии стала критически важной для выявления несанкционированных или потенциально вредоносных дополнений.
Процветать будут те организации, которые адаптируют свои стратегии безопасности путем внедрения комплексной защиты цепочки поставок программного обеспечения, которая может анализировать все: от масштабных моделей ИИ до скомпилированных приложений, которые они помогают создавать.
А те, кто этого не сделает, станут предостерегающими историями в отчетах об утечках в следующем году.
Цифры из отчёта Verizon Data Breach Investigations Report за 2025 год должны лишить сна любого руководителя отдела безопасности: 30% утечек теперь связаны со сторонними компонентами, что вдвое больше, чем в прошлом году. Но вот что действительно должно привлечь ваше внимание: этот взрывной рост рисков в цепочках поставок происходит как раз в тот момент, когда ИИ начинает писать значительную часть нашего кода.
Пример, который должен напугать любого руководителя службы информационной безопасности, — Google. Сейчас ИИ пишет 30% кода Google , в то время как большинство отделов безопасности по-прежнему полагаются на инструменты, разработанные для мира, где всё пишут люди. Это не просто пробел — это пропасть.
Причина для беспокойства
Большие языковые модели, модели машинного обучения и генеративный искусственный интеллект (ИИ) всё глубже и глубже меняют сферу разработки программного обеспечения, создавая множество приложений, которые ежедневно используются компаниями. По данным MarketsandMarkets , ожидается, что сектор программирования ИИ вырастет примерно с 4 миллиардов долларов в 2024 году до почти 13 миллиардов долларов к 2028 году. Естественно, что такое сочетание ИИ и разработки ПО приведёт к беспрецедентному повышению эффективности и появлению новых инновационных возможностей. Однако, несмотря на эти значительные преимущества, влияние ИИ также включает в себя новые аспекты безопасности, требующие особого внимания.Мы уже видели подобное раньше. Более 20 лет руководя командами по безопасности в энергетике и технологиях, я могу сказать, что каждое крупное развитие безопасности следует одному и тому же сценарию: новые технологии создают новые риски быстрее, чем адаптируются наши средства защиты. Развитие ИИ не является исключением.
ИИ-помощники для программирования, такие как GitHub Copilot, CodeGeeX и Amazon Q Developer, принципиально отличаются от разработчиков-людей. Одно из самых существенных отличий заключается в отсутствии у них опыта разработки, понимания контекста и способности к человеческому суждению — качеств, которые необходимы для того, чтобы отличить безопасный код от уязвимых реализаций.
Инструменты ИИ также обучаются на обширных репозиториях исторического кода, некоторые из которых содержат известные уязвимости, устаревшие методы шифрования и устаревшие компоненты. Следующее, что вы видите, — это то, как ИИ-помощники внедряют эти элементы в новые приложения, что приводит к рискам безопасности цепочки поставок программного обеспечения, которые традиционные инструменты безопасности, такие как статическое тестирование безопасности приложений (SAST), динамическое тестирование безопасности приложений (DAST) и анализ состава программного обеспечения (SCA), не способны обнаружить.
Недостаточность этих инструментов обусловлена тем, что они фокусируются преимущественно на известных шаблонах уязвимостей и версиях компонентов. Эти инструменты не способны эффективно оценивать специфические для ИИ угрозы, такие как атаки с заражением данных и меметические вирусы, которые могут повредить модели машинного обучения и привести к созданию эксплойтируемого кода. Хотя в сфере безопасности ИИ есть и новые стартапы, они также имеют те же ограничения, что и устаревшие решения, связанные с размером и сложностью файлов. Они также не позволяют комплексно проанализировать модель на предмет всех потенциальных рисков, таких как вредоносное ПО, подделка, атаки десериализации форматов и т. д.
Ещё одним недостатком традиционных инструментов безопасности является то, что они обычно анализируют код на этапе разработки, а не проверяют готовое скомпилированное приложение. Такой подход создаёт «слепые зоны», где вредоносные изменения, внесённые в процессе сборки или с помощью ИИ, остаются незамеченными. Проверка программного обеспечения в скомпилированном состоянии стала критически важной для выявления несанкционированных или потенциально вредоносных дополнений.
Что дальше?
Поскольку организации всё чаще внедряют инструменты программирования на основе ИИ, им необходимо развивать свои стратегии безопасности. Это связано с тем, что модели ИИ могут достигать гигабайт и генерировать сложные типы файлов, которые традиционные инструменты просто не могут обработать. Для устранения этих новых рисков необходимы аналитические возможности, а также комплексные меры безопасности цепочки поставок программного обеспечения, способные выполнять следующие функции:- Проверка происхождения и целостности моделей ИИ, используемых в разработке
- Проверка безопасности компонентов и кода, предлагаемых помощниками ИИ
- Проверка скомпилированных приложений для обнаружения неожиданных или несанкционированных включений
- Мониторинг потенциального заражения данных, которое может поставить под угрозу системы искусственного интеллекта
Процветать будут те организации, которые адаптируют свои стратегии безопасности путем внедрения комплексной защиты цепочки поставок программного обеспечения, которая может анализировать все: от масштабных моделей ИИ до скомпилированных приложений, которые они помогают создавать.
А те, кто этого не сделает, станут предостерегающими историями в отчетах об утечках в следующем году.