США и Великобритания выпускают рекомендации по безопасной разработке ИИ

  • Автор темы Автор темы LeSh1y777
  • Дата начала Дата начала

LeSh1y777

Пользователь
Регистрация
25/9/25
Сообщения
5,682
Репутация
49
Лайки
152
Депозит
-8.95$
Ввоскресенье власти США и Великобритании опубликовали рекомендации по безопасной разработке и развертыванию систем искусственного интеллекта. Это последняя из серии инициатив Вашингтона и Лондона по устранению рисков безопасности, связанных с технологиями машинного обучения.

Разработанные коалицией агентств по кибербезопасности и разведке совместно с технологическими компаниями и исследовательскими организациями, добровольные руководящие принципы содержат набор рекомендаций для организаций о том, как разрабатывать и создавать системы ИИ с учетом требований безопасности.

Этот документ высокого уровня содержит рекомендации по проектированию, разработке, развертыванию, безопасной эксплуатации и обслуживанию систем ИИ. Используя концепции кибербезопасности, такие как моделирование угроз, безопасность цепочки поставок и реагирование на инциденты, документ призван побудить разработчиков и пользователей ИИ уделять первостепенное внимание вопросам безопасности.

«Мы находимся на переломном этапе развития искусственного интеллекта, который, возможно, станет самой значимой технологией нашего времени. Кибербезопасность — ключ к созданию безопасных, надёжных и заслуживающих доверия систем ИИ», — заявил министр внутренней безопасности Алехандро Майоркас.

Поскольку системы ИИ быстро внедряются в общество, разработчики и политики спешат решить проблемы безопасности, возникающие в связи с этой технологией.

В прошлом месяце президент Джо Байден подписал указ, предписывающий федеральному правительству активизировать усилия по разработке стандартов для решения проблем безопасности, в частности, связанных с моделями «красной команды» и водяными знаками на контенте, создаваемом ИИ. Ранее в этом месяце Агентство кибербезопасности и безопасности инфраструктуры опубликовало дорожную карту по борьбе с угрозой, которую ИИ представляет для критически важной инфраструктуры. На конференции в Лондоне коалиция из 28 штатов взяла на себя обязательство проводить интенсивное тестирование ведущих моделей ИИ перед их выпуском.

Однако эксперты предупреждают, что работа по устранению рисков, связанных с ИИ, по-прежнему отстаёт от усилий по разработке и внедрению передовых технологий. Несмотря на скудность технических деталей, воскресные стандарты призваны представить набор принципов, которые как пользователи, так и разработчики ИИ могут использовать для защиты своих систем.

Директор CISA Джен Истерли назвала эти рекомендации «важнейшей вехой в нашем коллективном обязательстве — правительствами всего мира — обеспечить разработку и развертывание возможностей искусственного интеллекта, которые изначально безопасны».

Агентство по кибербезопасности (CISA) опубликовало документ совместно с Национальным центром кибербезопасности Великобритании. Руководящие принципы были разработаны 21 агентством безопасности и министерством стран «Большой семёрки». Ведущие компании в области искусственного интеллекта, включая OpenAI, Anthropic и Microsoft, внесли свой вклад, а также исследовательские организации, такие как RAND и Центр безопасности и новых технологий Джорджтаунского университета
 
Назад
Сверху Снизу