В отчете говорится, что открытый доступ к основополагающим моделям ИИ создает различные риски безопасности и соответствия требованиям.

  • Автор темы Автор темы LeSh1y777
  • Дата начала Дата начала

LeSh1y777

Пользователь
Регистрация
25/9/25
Сообщения
5,682
Репутация
49
Лайки
153
Депозит
-8.95$
Согласно результатам исследования, опубликованным в среду Институтом безопасности и технологий, чрезмерно доступные базовые модели искусственного интеллекта могут сделать компании уязвимыми для злонамеренного использования, несоблюдения требований и многого другого.

В отчете IST описываются риски, напрямую связанные с моделями различной доступности, включая вредоносное использование возможностей ИИ со стороны злоумышленников, а в полностью открытых моделях — несоответствие требованиям, когда пользователи могут изменять модели «вне юрисдикции любого правоохранительного органа».

Хотя более доступная базовая модель ИИ может открыть новые возможности, в отчете говорится, что «как только модели станут полностью открытыми, организации-разработчики не смогут отменить выпуск модели».

«Современная цифровая экосистема пока не является в целом безопасной и устойчивой, во многом из-за отсутствия принципов безопасного проектирования, изначально заложенных в новые технологии», — говорится в докладе. «Безопасность и минимизация ущерба не должны приноситься в жертву исключительно во имя быстрых инноваций, и уроки недавнего прошлого в других областях технологических инноваций… дают нам возможность использовать ИИ во благо».

В отчёте представлен градиент основополагающих моделей с соответствующими рисками, с указанием уровня срочности для каждой из них. Уровни доступа включают полностью закрытый доступ, публикацию на бумажном носителе, доступ к API для запросов, доступ к модульному API, доступ с ограниченным доступом для скачивания, доступ с неограниченным доступом для скачивания и полностью открытый доступ.

Категории риска, такие как злонамеренное использование, возрастают с низкого-среднего уровня риска для модульного доступа к API до самого высокого уровня риска для полностью открытого доступа. В отчёте указывается на ограничение доступа как на метод обеспечения определённой прослеживаемости для разработчиков и ответственности всех, кто может загрузить модель.

В отчете говорится: «Хотя ИИ может и, несомненно, будет использоваться злоумышленниками для достижения своих наступательных целей, следует отметить, что ИИ может также использоваться в обороне для поиска и устранения уязвимостей и поддержки операций по защите сетей».
 
Назад
Сверху Снизу