Согласно результатам исследования, опубликованным в среду Институтом безопасности и технологий, чрезмерно доступные базовые модели искусственного интеллекта могут сделать компании уязвимыми для злонамеренного использования, несоблюдения требований и многого другого.
В отчете IST описываются риски, напрямую связанные с моделями различной доступности, включая вредоносное использование возможностей ИИ со стороны злоумышленников, а в полностью открытых моделях — несоответствие требованиям, когда пользователи могут изменять модели «вне юрисдикции любого правоохранительного органа».
Хотя более доступная базовая модель ИИ может открыть новые возможности, в отчете говорится, что «как только модели станут полностью открытыми, организации-разработчики не смогут отменить выпуск модели».
«Современная цифровая экосистема пока не является в целом безопасной и устойчивой, во многом из-за отсутствия принципов безопасного проектирования, изначально заложенных в новые технологии», — говорится в докладе. «Безопасность и минимизация ущерба не должны приноситься в жертву исключительно во имя быстрых инноваций, и уроки недавнего прошлого в других областях технологических инноваций… дают нам возможность использовать ИИ во благо».
В отчёте представлен градиент основополагающих моделей с соответствующими рисками, с указанием уровня срочности для каждой из них. Уровни доступа включают полностью закрытый доступ, публикацию на бумажном носителе, доступ к API для запросов, доступ к модульному API, доступ с ограниченным доступом для скачивания, доступ с неограниченным доступом для скачивания и полностью открытый доступ.
Категории риска, такие как злонамеренное использование, возрастают с низкого-среднего уровня риска для модульного доступа к API до самого высокого уровня риска для полностью открытого доступа. В отчёте указывается на ограничение доступа как на метод обеспечения определённой прослеживаемости для разработчиков и ответственности всех, кто может загрузить модель.
В отчете говорится: «Хотя ИИ может и, несомненно, будет использоваться злоумышленниками для достижения своих наступательных целей, следует отметить, что ИИ может также использоваться в обороне для поиска и устранения уязвимостей и поддержки операций по защите сетей».
В отчете IST описываются риски, напрямую связанные с моделями различной доступности, включая вредоносное использование возможностей ИИ со стороны злоумышленников, а в полностью открытых моделях — несоответствие требованиям, когда пользователи могут изменять модели «вне юрисдикции любого правоохранительного органа».
Хотя более доступная базовая модель ИИ может открыть новые возможности, в отчете говорится, что «как только модели станут полностью открытыми, организации-разработчики не смогут отменить выпуск модели».
«Современная цифровая экосистема пока не является в целом безопасной и устойчивой, во многом из-за отсутствия принципов безопасного проектирования, изначально заложенных в новые технологии», — говорится в докладе. «Безопасность и минимизация ущерба не должны приноситься в жертву исключительно во имя быстрых инноваций, и уроки недавнего прошлого в других областях технологических инноваций… дают нам возможность использовать ИИ во благо».
В отчёте представлен градиент основополагающих моделей с соответствующими рисками, с указанием уровня срочности для каждой из них. Уровни доступа включают полностью закрытый доступ, публикацию на бумажном носителе, доступ к API для запросов, доступ к модульному API, доступ с ограниченным доступом для скачивания, доступ с неограниченным доступом для скачивания и полностью открытый доступ.
Категории риска, такие как злонамеренное использование, возрастают с низкого-среднего уровня риска для модульного доступа к API до самого высокого уровня риска для полностью открытого доступа. В отчёте указывается на ограничение доступа как на метод обеспечения определённой прослеживаемости для разработчиков и ответственности всех, кто может загрузить модель.
В отчете говорится: «Хотя ИИ может и, несомненно, будет использоваться злоумышленниками для достижения своих наступательных целей, следует отметить, что ИИ может также использоваться в обороне для поиска и устранения уязвимостей и поддержки операций по защите сетей».