Впонедельник Агентство по кибербезопасности и безопасности инфраструктуры опубликовало рекомендации по обеспечению безопасности критически важной инфраструктуры. Это произошло всего через несколько дней после того, как Министерство внутренней безопасности объявило о создании совета по безопасности, занимающегося той же темой. Рекомендации для владельцев и операторов критически важной инфраструктуры также соответствуют обязательствам CISA в соответствии с октябрьским указом администрации Байдена об искусственном интеллекте .
Руководящие принципы призваны рассмотреть как возможности, предоставляемые искусственным интеллектом для критически важной инфраструктуры, охватывающей 16 секторов, включая сельское хозяйство и информационные технологии, так и способы его использования в военных целях или не по назначению. CISA предписывает операторам и владельцам критически важной инфраструктуры контролировать, картировать, измерять и контролировать использование технологии, используя структуру управления рисками ИИ Национального института стандартов и технологий .
«Основанные на опыте CISA как национального координатора по безопасности и устойчивости критической инфраструктуры, руководящие принципы DHS представляют собой первый в своем роде межотраслевой анализ агентством рисков, связанных с ИИ, для секторов критической инфраструктуры и послужат ключевым инструментом, который поможет владельцам и операторам снизить риски ИИ», — заявила директор CISA Джен Истерли.
В рекомендациях подчеркивается ряд шагов, включая понимание зависимостей поставщиков ИИ, с которыми могут работать операторы, и инвентаризацию вариантов использования ИИ. Они также призывают владельцев критически важной инфраструктуры разработать процедуры для сообщения об угрозах безопасности, связанных с ИИ, и постоянно тестировать системы ИИ на наличие уязвимостей.
Возможности, связанные с ИИ, охватывают такие категории, как операционная осведомленность, автоматизация обслуживания клиентов, физическая безопасность и прогнозирование, согласно рекомендациям. В то же время, новый документ предупреждает, что риски ИИ для критической инфраструктуры могут включать атаки, осуществляемые с помощью ИИ, атаки, направленные на системы ИИ, и «сбои в проектировании и реализации ИИ», которые могут привести к потенциальным сбоям в работе или другим непредвиденным последствиям.
«Искусственный интеллект может стать источником преобразующих решений для критически важной инфраструктуры США, но он также несёт в себе риск сделать эти системы уязвимыми к критическим сбоям, физическим атакам и кибератакам. Наше Министерство предпринимает шаги для выявления и минимизации этих угроз», — заявил министр внутренней безопасности Алехандро Майоркас.
В последние месяцы Министерство внутренней безопасности США (DHS) проявляло особую активность в области искусственного интеллекта, что особенно заметно после публикации в марте дорожной карты развития ИИ. Ранее в этом месяце министерство объявило, что выпускник Административно-бюджетного управления Майкл Бойс возглавит его Корпус искусственного интеллекта (AI Corps) – группу из 50 экспертов в этой области, которых агентство планирует нанять до 2024 года. Министерство также привлекло руководителей технологических компаний, включая Сэма Альтмана из OpenAI и Сундара Пичаи из Alphabet, для помощи в работе нового совета директоров, специализирующегося на ИИ и критически важной инфраструктуре
Руководящие принципы призваны рассмотреть как возможности, предоставляемые искусственным интеллектом для критически важной инфраструктуры, охватывающей 16 секторов, включая сельское хозяйство и информационные технологии, так и способы его использования в военных целях или не по назначению. CISA предписывает операторам и владельцам критически важной инфраструктуры контролировать, картировать, измерять и контролировать использование технологии, используя структуру управления рисками ИИ Национального института стандартов и технологий .
«Основанные на опыте CISA как национального координатора по безопасности и устойчивости критической инфраструктуры, руководящие принципы DHS представляют собой первый в своем роде межотраслевой анализ агентством рисков, связанных с ИИ, для секторов критической инфраструктуры и послужат ключевым инструментом, который поможет владельцам и операторам снизить риски ИИ», — заявила директор CISA Джен Истерли.
В рекомендациях подчеркивается ряд шагов, включая понимание зависимостей поставщиков ИИ, с которыми могут работать операторы, и инвентаризацию вариантов использования ИИ. Они также призывают владельцев критически важной инфраструктуры разработать процедуры для сообщения об угрозах безопасности, связанных с ИИ, и постоянно тестировать системы ИИ на наличие уязвимостей.
Возможности, связанные с ИИ, охватывают такие категории, как операционная осведомленность, автоматизация обслуживания клиентов, физическая безопасность и прогнозирование, согласно рекомендациям. В то же время, новый документ предупреждает, что риски ИИ для критической инфраструктуры могут включать атаки, осуществляемые с помощью ИИ, атаки, направленные на системы ИИ, и «сбои в проектировании и реализации ИИ», которые могут привести к потенциальным сбоям в работе или другим непредвиденным последствиям.
«Искусственный интеллект может стать источником преобразующих решений для критически важной инфраструктуры США, но он также несёт в себе риск сделать эти системы уязвимыми к критическим сбоям, физическим атакам и кибератакам. Наше Министерство предпринимает шаги для выявления и минимизации этих угроз», — заявил министр внутренней безопасности Алехандро Майоркас.
В последние месяцы Министерство внутренней безопасности США (DHS) проявляло особую активность в области искусственного интеллекта, что особенно заметно после публикации в марте дорожной карты развития ИИ. Ранее в этом месяце министерство объявило, что выпускник Административно-бюджетного управления Майкл Бойс возглавит его Корпус искусственного интеллекта (AI Corps) – группу из 50 экспертов в этой области, которых агентство планирует нанять до 2024 года. Министерство также привлекло руководителей технологических компаний, включая Сэма Альтмана из OpenAI и Сундара Пичаи из Alphabet, для помощи в работе нового совета директоров, специализирующегося на ИИ и критически важной инфраструктуре