Новый План действий администрации Трампа в области искусственного интеллекта призывает компании и правительства использовать эту технологию для защиты критической инфраструктуры от кибератак.
Но в нем также признается, что эти системы сами по себе уязвимы для взлома и манипуляций, и содержится призыв к отрасли принять стандарты проектирования технологий, « безопасных по умолчанию », чтобы ограничить поверхности их атак.
План Белого дома , опубликованный в среду, призывает владельцев критически важной инфраструктуры — особенно тех, у кого «ограниченные финансовые ресурсы» — использовать инструменты ИИ для защиты своей информации и операционных технологий.
«К счастью, системы ИИ сами по себе могут стать отличными инструментами защиты», — говорится в плане. «Благодаря постоянному внедрению инструментов киберзащиты на базе ИИ поставщики критически важной инфраструктуры смогут опережать возникающие угрозы».
За последний год крупные языковые модели продемонстрировали возросшую способность писать код и выполнять определённые функции кибербезопасности гораздо быстрее, чем люди. Однако они также оставляют серьёзные уязвимости в архитектуре своего кода и могут быть взломаны или перехвачены третьими лицами посредством атак с мгновенным внедрением и заражением данных, а также могут случайно привести к утечке конфиденциальных данных.
Таким образом, план администрации основан на предыдущей инициативе Агентства по кибербезопасности и безопасности инфраструктуры при администрации Байдена по продвижению принципов «безопасности по умолчанию» для поставщиков технологий и ИИ. Этот подход получил высокую оценку в некоторых кругах за то, что он объединил отрасль для согласования набора общих принципов безопасности. Другие же скептически отнеслись к полностью добровольному характеру обязательств, утверждая, что такой подход представляет собой пустые обещания со стороны технологических компаний вместо регулирования.
В плане Трампа говорится, что «любое использование ИИ в критически важных для безопасности или национальной безопасности приложениях должно подразумевать использование безопасных по своей сути, надежных и устойчивых систем ИИ, которые оснащены инструментами для обнаружения изменений в производительности и оповещения о потенциальных вредоносных действиях, таких как отравление данных или атаки с использованием враждебных образцов».
План также рекомендует создать новый Центр обмена и анализа информации на основе ИИ (AI-ISAC) под руководством Министерства внутренней безопасности для обмена разведданными об угрозах, связанных с ИИ.
«Правительство США несёт ответственность за обеспечение защиты систем ИИ, на которые оно полагается, особенно для приложений национальной безопасности, от ложных или вредоносных входных данных», — говорится далее в плане. «Хотя была проделана большая работа по развитию области обеспечения безопасности ИИ, содействие устойчивой и безопасной разработке и развертыванию ИИ должно быть основным направлением деятельности правительства США».
В плане не уточняется, как администрация намерена определять, какие объекты или системы являются «критически важными для безопасности» или представляют собой «приложения внутренней безопасности». Также не описывается, как компании или коммунальные службы с ограниченными финансовыми возможностями будут оплачивать и поддерживать защитные системы ИИ, которые в настоящее время не способны к автономной работе в сфере кибербезопасности без значительного человеческого опыта и руководства .
План не предусматривает новых расходов на это начинание, а другие разделы изобилуют упоминаниями о намерениях администрации пересмотреть и ограничить или сократить федеральное финансирование ИИ для штатов, не разделяющих более широкий подход Белого дома к дерегулированию.
Грейс Гедье, аналитик по политике в области ИИ в Consumer Reports, заявила: «Неясно, какие законы штатов будут считаться „обременительными“ и какие федеральные средства окажутся под угрозой».
План также предусматривает развитие и совершенствование возможностей федерального правительства по реагированию на активные киберинциденты с участием систем искусственного интеллекта. Национальный институт стандартов и технологий возглавит работу по сотрудничеству с отраслевыми компаниями и компаниями, занимающимися разработкой систем искусственного интеллекта, для включения рекомендаций, касающихся ИИ, в планы реагирования на инциденты, а CISA внедрит изменения в существующие отраслевые рекомендации, чтобы привлечь руководителей ведомств, занимающихся системами искусственного интеллекта, к обсуждению активных инцидентов.
Первой реакцией на план стали дружественные бизнесу группы, приветствовавшие дерегулирование администрацией ИИ, и негативная реакция групп по защите конфиденциальности и цифровых прав, которые утверждают, что общий подход Белого дома еще больше подтолкнет отрасль ИИ к менее ограниченным, более опасным и более эксплуататорским моделям и приложениям.
Патрик Хеджер, директор по политике NetChoice, торговой ассоциации технологических компаний и онлайн-бизнеса, похвалил план, назвав разницу в подходах Трампа и Байдена к регулированию ИИ «днем и ночью».
«Администрация Байдена сделала всё возможное, чтобы контролировать и контролировать молодой, но критически важный сектор», — сказал Хеджер. «Это провальная модель, что подтверждается отсутствием серьёзного технологического сектора в Европейском союзе и его склонностью к спешному регулированию всего, что движется. План действий Трампа в области искусственного интеллекта, напротив, сосредоточен на том, чтобы задаться вопросом, где правительство может помочь частному сектору, а в остальном — не мешать ему».
Самир Джайн, вице-президент по политике Центра демократии и технологий, заявил, что план содержит «некоторые положительные элементы», включая «повышенное внимание к безопасности систем ИИ».
Но в конечном итоге он назвал план «крайне несбалансированным, слишком сосредоточенным на продвижении технологии и в то же время в значительной степени не учитывающим те способы, которыми она может потенциально навредить людям».
Дэниел Барденштейн, бывший сотрудник CISA и киберстратег, возглавлявший инициативу агентства по разработке законопроекта о материалах в области ИИ, усомнился в отсутствии более широкой структуры в плане действий относительно того, как массовое внедрение ИИ повлияет на безопасность, конфиденциальность и неправомерное использование в отрасли.
«В Плане действий говорится об инновациях, инфраструктуре и дипломатии, но где же чёткий курс на безопасность и доверие?» — сказал Барденстайн. «Это фундаментальное слепое пятно».
План Белого дома в целом отражает набор принципов, изложенных вице-президентом Дж. Д. Вэнсом в его февральской речи , когда он начал с заявления о том, что он «здесь не для того, чтобы говорить о безопасности ИИ», и сравнил это с дисциплиной, призванной не допустить, чтобы «взрослый мужчина или женщина получили доступ к мнению, которое правительство считает дезинформацией».
В этой речи Вэнс ясно дал понять, что администрация рассматривает безоговорочную поддержку американской промышленности как ключевой оплот против угрозы доминирования китайского ИИ. За исключением некоторых вопросов, таких как идеологическая предвзятость (где план Белого дома предусматривает меры по предотвращению «пробуждения ИИ»), администрация не заинтересована в том, чтобы связывать промышленность требованиями безопасности ИИ.
Такая позиция дерегулирования может подорвать любой соответствующий подход, направленный на поощрение отрасли к повышению безопасности систем ИИ.
«Важно помнить, что ИИ и конфиденциальность — это не просто одна проблема», — сказал Крис Бонди, генеральный директор и соучредитель Mimoto, стартапа, предоставляющего услуги по проверке личности на основе ИИ. «ИИ способен обнаруживать и использовать персональные данные, не обращая внимания на то, что это повлияет на конфиденциальность или права личности. Аналогичным образом, ИИ, используемый в передовых технологиях кибербезопасности, может быть использован злоумышленниками».
Она отметила, что «меры по обеспечению безопасности, основанные на наблюдении, создают собственную версию организационных рисков», и что многим организациям потребуется нанимать специалистов по конфиденциальности и безопасности, имеющих опыт работы с системами ИИ.
В то же время, в отдельном разделе, посвящённом Федеральной торговой комиссии, содержится призыв к пересмотру всех проводимых ведомствами расследований, постановлений, определений о согласии сторон и судебных запретов, чтобы убедиться, что они не «нагружают инновации в области ИИ».
По словам Гедье, этот язык можно «интерпретировать так, чтобы дать разработчикам ИИ полную свободу действий для создания вредоносных продуктов без какой-либо оглядки на последствия».
Но в нем также признается, что эти системы сами по себе уязвимы для взлома и манипуляций, и содержится призыв к отрасли принять стандарты проектирования технологий, « безопасных по умолчанию », чтобы ограничить поверхности их атак.
План Белого дома , опубликованный в среду, призывает владельцев критически важной инфраструктуры — особенно тех, у кого «ограниченные финансовые ресурсы» — использовать инструменты ИИ для защиты своей информации и операционных технологий.
«К счастью, системы ИИ сами по себе могут стать отличными инструментами защиты», — говорится в плане. «Благодаря постоянному внедрению инструментов киберзащиты на базе ИИ поставщики критически важной инфраструктуры смогут опережать возникающие угрозы».
За последний год крупные языковые модели продемонстрировали возросшую способность писать код и выполнять определённые функции кибербезопасности гораздо быстрее, чем люди. Однако они также оставляют серьёзные уязвимости в архитектуре своего кода и могут быть взломаны или перехвачены третьими лицами посредством атак с мгновенным внедрением и заражением данных, а также могут случайно привести к утечке конфиденциальных данных.
Таким образом, план администрации основан на предыдущей инициативе Агентства по кибербезопасности и безопасности инфраструктуры при администрации Байдена по продвижению принципов «безопасности по умолчанию» для поставщиков технологий и ИИ. Этот подход получил высокую оценку в некоторых кругах за то, что он объединил отрасль для согласования набора общих принципов безопасности. Другие же скептически отнеслись к полностью добровольному характеру обязательств, утверждая, что такой подход представляет собой пустые обещания со стороны технологических компаний вместо регулирования.
В плане Трампа говорится, что «любое использование ИИ в критически важных для безопасности или национальной безопасности приложениях должно подразумевать использование безопасных по своей сути, надежных и устойчивых систем ИИ, которые оснащены инструментами для обнаружения изменений в производительности и оповещения о потенциальных вредоносных действиях, таких как отравление данных или атаки с использованием враждебных образцов».
План также рекомендует создать новый Центр обмена и анализа информации на основе ИИ (AI-ISAC) под руководством Министерства внутренней безопасности для обмена разведданными об угрозах, связанных с ИИ.
«Правительство США несёт ответственность за обеспечение защиты систем ИИ, на которые оно полагается, особенно для приложений национальной безопасности, от ложных или вредоносных входных данных», — говорится далее в плане. «Хотя была проделана большая работа по развитию области обеспечения безопасности ИИ, содействие устойчивой и безопасной разработке и развертыванию ИИ должно быть основным направлением деятельности правительства США».
В плане не уточняется, как администрация намерена определять, какие объекты или системы являются «критически важными для безопасности» или представляют собой «приложения внутренней безопасности». Также не описывается, как компании или коммунальные службы с ограниченными финансовыми возможностями будут оплачивать и поддерживать защитные системы ИИ, которые в настоящее время не способны к автономной работе в сфере кибербезопасности без значительного человеческого опыта и руководства .
План не предусматривает новых расходов на это начинание, а другие разделы изобилуют упоминаниями о намерениях администрации пересмотреть и ограничить или сократить федеральное финансирование ИИ для штатов, не разделяющих более широкий подход Белого дома к дерегулированию.
Грейс Гедье, аналитик по политике в области ИИ в Consumer Reports, заявила: «Неясно, какие законы штатов будут считаться „обременительными“ и какие федеральные средства окажутся под угрозой».
План также предусматривает развитие и совершенствование возможностей федерального правительства по реагированию на активные киберинциденты с участием систем искусственного интеллекта. Национальный институт стандартов и технологий возглавит работу по сотрудничеству с отраслевыми компаниями и компаниями, занимающимися разработкой систем искусственного интеллекта, для включения рекомендаций, касающихся ИИ, в планы реагирования на инциденты, а CISA внедрит изменения в существующие отраслевые рекомендации, чтобы привлечь руководителей ведомств, занимающихся системами искусственного интеллекта, к обсуждению активных инцидентов.
Первой реакцией на план стали дружественные бизнесу группы, приветствовавшие дерегулирование администрацией ИИ, и негативная реакция групп по защите конфиденциальности и цифровых прав, которые утверждают, что общий подход Белого дома еще больше подтолкнет отрасль ИИ к менее ограниченным, более опасным и более эксплуататорским моделям и приложениям.
Патрик Хеджер, директор по политике NetChoice, торговой ассоциации технологических компаний и онлайн-бизнеса, похвалил план, назвав разницу в подходах Трампа и Байдена к регулированию ИИ «днем и ночью».
«Администрация Байдена сделала всё возможное, чтобы контролировать и контролировать молодой, но критически важный сектор», — сказал Хеджер. «Это провальная модель, что подтверждается отсутствием серьёзного технологического сектора в Европейском союзе и его склонностью к спешному регулированию всего, что движется. План действий Трампа в области искусственного интеллекта, напротив, сосредоточен на том, чтобы задаться вопросом, где правительство может помочь частному сектору, а в остальном — не мешать ему».
Самир Джайн, вице-президент по политике Центра демократии и технологий, заявил, что план содержит «некоторые положительные элементы», включая «повышенное внимание к безопасности систем ИИ».
Но в конечном итоге он назвал план «крайне несбалансированным, слишком сосредоточенным на продвижении технологии и в то же время в значительной степени не учитывающим те способы, которыми она может потенциально навредить людям».
Дэниел Барденштейн, бывший сотрудник CISA и киберстратег, возглавлявший инициативу агентства по разработке законопроекта о материалах в области ИИ, усомнился в отсутствии более широкой структуры в плане действий относительно того, как массовое внедрение ИИ повлияет на безопасность, конфиденциальность и неправомерное использование в отрасли.
«В Плане действий говорится об инновациях, инфраструктуре и дипломатии, но где же чёткий курс на безопасность и доверие?» — сказал Барденстайн. «Это фундаментальное слепое пятно».
План Белого дома в целом отражает набор принципов, изложенных вице-президентом Дж. Д. Вэнсом в его февральской речи , когда он начал с заявления о том, что он «здесь не для того, чтобы говорить о безопасности ИИ», и сравнил это с дисциплиной, призванной не допустить, чтобы «взрослый мужчина или женщина получили доступ к мнению, которое правительство считает дезинформацией».
В этой речи Вэнс ясно дал понять, что администрация рассматривает безоговорочную поддержку американской промышленности как ключевой оплот против угрозы доминирования китайского ИИ. За исключением некоторых вопросов, таких как идеологическая предвзятость (где план Белого дома предусматривает меры по предотвращению «пробуждения ИИ»), администрация не заинтересована в том, чтобы связывать промышленность требованиями безопасности ИИ.
Такая позиция дерегулирования может подорвать любой соответствующий подход, направленный на поощрение отрасли к повышению безопасности систем ИИ.
«Важно помнить, что ИИ и конфиденциальность — это не просто одна проблема», — сказал Крис Бонди, генеральный директор и соучредитель Mimoto, стартапа, предоставляющего услуги по проверке личности на основе ИИ. «ИИ способен обнаруживать и использовать персональные данные, не обращая внимания на то, что это повлияет на конфиденциальность или права личности. Аналогичным образом, ИИ, используемый в передовых технологиях кибербезопасности, может быть использован злоумышленниками».
Она отметила, что «меры по обеспечению безопасности, основанные на наблюдении, создают собственную версию организационных рисков», и что многим организациям потребуется нанимать специалистов по конфиденциальности и безопасности, имеющих опыт работы с системами ИИ.
В то же время, в отдельном разделе, посвящённом Федеральной торговой комиссии, содержится призыв к пересмотру всех проводимых ведомствами расследований, постановлений, определений о согласии сторон и судебных запретов, чтобы убедиться, что они не «нагружают инновации в области ИИ».
По словам Гедье, этот язык можно «интерпретировать так, чтобы дать разработчикам ИИ полную свободу действий для создания вредоносных продуктов без какой-либо оглядки на последствия».