Впонедельник Белый дом объявил о долгожданном указе, призванном снизить риски безопасности, связанные с искусственным интеллектом, и одновременно использовать потенциальные преимущества этой технологии.
Вышедший почти через год после запуска ChatGPT — вирусного чат-бота, который привлек внимание общественности и дал начало нынешней волне ажиотажа вокруг искусственного интеллекта, — указ президента, принятый в понедельник, призван найти баланс между чрезмерным регулированием новой и потенциально революционной технологии и устранением связанных с ней рисков.
Приказ обязывает ведущие лаборатории ИИ уведомлять правительство США об учебных прогонах, в ходе которых создаются модели, несущие потенциальные риски для национальной безопасности, поручает Национальным институтам стандартов и технологий разработать фреймворки для состязательного тестирования моделей ИИ, а также учреждает инициативу по использованию ИИ для автоматического поиска и устранения уязвимостей программного обеспечения, среди прочих мер.
Решая вопросы конфиденциальности, справедливости и экзистенциальных рисков, связанных с моделями ИИ, понедельничный указ представляет собой масштабную попытку заложить основу для системы регулирования в то время, когда политики по всему миру пытаются разработать правила для ИИ. В информационном бюллетене Белого дома этот указ описывается как содержащий «самые масштабные меры, когда-либо принятые для защиты американцев от потенциальных рисков, связанных с системами ИИ».
Эксперты приветствовали указ в понедельник, но предупредили, что его потенциальные последствия будут зависеть от того, как он будет реализован, и от возможности финансирования различных инициатив. Ключевые положения указа, такие как призыв к устранению рисков для конфиденциальности, связанных с моделями искусственного интеллекта, потребуют от Конгресса принятия федерального законодательства о конфиденциальности, которое остаётся приоритетным в законодательном плане, но пока не принято.
Сенатор Марк Уорнер, демократ от Вирджинии, заявил, что, хотя он «впечатлён широтой» указа, «большая его часть лишь поверхностно затрагивает его, особенно в таких областях, как здравоохранение и политика в области конкуренции».
«Хотя это и хороший шаг вперед, нам нужны дополнительные законодательные меры, и я продолжу усердно работать над тем, чтобы мы уделяли первостепенное внимание безопасности, борьбе с предвзятостью и вредоносным использованием, а также ответственно внедряли технологии», — сказал Уорнер.
В более широком смысле, указ президента представляет собой изменение подхода Вашингтона к регулированию технологий и отчасти обусловлен отсутствием регулирования социальных сетей. Не сумев решить проблему влияния социальных сетей на всё – от выборов до психического здоровья подростков – вашингтонские политики стремятся не оказаться застигнутыми врасплох при разработке правил для ИИ.
«Этот проактивный подход радикально отличается от того, как правительство регулировало новые технологии в прошлом, и на то есть веские причины», — заявил Крис Уайсопал, технический директор и соучредитель Veracode. «Та же стратегия «выжидания и наблюдения», которую правительство использовало для регулирования интернета и социальных сетей, здесь не сработает».
Однако некоторые отраслевые группы и сторонники свободного рынка предупреждают, что такой проактивный подход может задушить инновации на ранней стадии развития ИИ.
«Администрация придерживается подхода, основанного на принципе «всё и сразу», к политике в области ИИ, который одновременно чрезвычайно амбициозен и потенциально излишне ревностен», — заявил Адам Тирер, старший научный сотрудник аналитического центра R Street, специализирующегося на теории свободного рынка. «Это распоряжение представляет собой потенциальное радикальное изменение подхода страны к рынкам цифровых технологий, поскольку федеральные политики, похоже, готовы отказаться от модели открытых инноваций, которая сделала американские компании мировыми лидерами практически во всех секторах вычислительной техники и цифровых технологий».
Принятый в понедельник указ предусматривает ряд мер по устранению некоторых из наиболее серьезных потенциальных рисков ИИ, включая его угрозу критически важной инфраструктуре и его потенциальное использование в качестве вспомогательного средства для создания нового биологического оружия, при проектировании ядерного оружия или создании вредоносного программного обеспечения.
Чтобы развеять растущую обеспокоенность тем, что ИИ может быть использован для усиления дезинформации, применяемой с целью повлиять на выборы, особенно на президентские выборы в следующем году, принятый в понедельник указ обяжет Министерство торговли разработать руководство по «аутентификации контента и маркировке водяными знаками», чтобы четко обозначить создаваемый ИИ контент.
Инициатива администрации по созданию инструментов кибербезопасности для автоматического обнаружения и исправления уязвимостей программного обеспечения основана на продолжающемся конкурсе в Агентстве передовых оборонных исследований, и эксперты в понедельник приветствовали акцент на попытках использовать ИИ для обеспечения масштабных улучшений в области компьютерной безопасности.
Цель — повысить барьер для использования этих инструментов как для создания вредоносного ПО, так и для участия в кибероперациях. «Это похоже на раннюю эпоху антивирусов», — сказал Дэвид Брамли, профессор кибербезопасности в Университете Карнеги — Меллона и генеральный директор компании ForAllSecure, специализирующейся на кибербезопасности. «Я понимаю, что это вредоносная программа, когда вижу её, и могу предотвратить её повторение, но сложно заблаговременно помешать кому-либо создавать новые вредоносные программы».
Брамли предупредил, что ведомства, на которые, согласно понедельничному указу, возлагается реализация новых инициатив в области безопасности, могут не иметь достаточного потенциала для их реализации. Например, указ обязывает Национальный институт стандартов и технологий (NIST) разработать стандарты проведения испытаний безопасности систем искусственного интеллекта и предписывает Министерству внутренней безопасности применять эти стандарты к критически важным секторам инфраструктуры, находящимся под его контролем.
NIST, вероятно, придётся привлечь внешних экспертов для разработки этих стандартов, поскольку в настоящее время у него нет необходимых знаний и опыта. «Они полагаются на очень традиционные государственные учреждения, такие как NIST, которые не обладают экспертными знаниями в этой области», — сказал Брамли.
В недавней оценке угроз внутренней безопасности Министерство внутренней безопасности назвало ИИ одной из наиболее серьезных угроз критически важной инфраструктуре, предупредив, что Китай и другие противники, вероятно, будут использовать ИИ для разработки вредоносного ПО промышленного назначения.
«Злоумышленники начали тестировать возможности вредоносного ПО, разработанного с использованием искусственного интеллекта, и разработки программного обеспечения с его помощью — технологий, которые потенциально способны обеспечить проведение более масштабных, быстрых, эффективных и менее заметных кибератак против таких целей, как трубопроводы, железные дороги и другие критически важные объекты инфраструктуры США», — говорится в отчете Министерства внутренней безопасности.
Федеральное правительство начинает бороться с этими угрозами, как, например, с объявлением Агентства национальной безопасности в прошлом месяце о создании Центра безопасности ИИ , который будет курировать разработку и использование ИИ. В понедельничном указе содержатся дополнительные инициативы по решению этих более узких проблем безопасности, включая создание Совета по безопасности и защите ИИ в структуре Министерства внутренней безопасности. Какие полномочия будут предоставлены этому совету и насколько он будет похож на другие надзорные органы, такие как Совет по кибербезопасности, пока неясно.
В указе также содержится призыв к Совету национальной безопасности и главе аппарата Белого дома разработать меморандум по национальной безопасности, в котором будет изложено, как военные и разведывательное сообщество будут «безопасно, этично и эффективно» использовать ИИ в миссиях, а также конкретные действия по противодействию использованию ИИ противником.
Вышедший почти через год после запуска ChatGPT — вирусного чат-бота, который привлек внимание общественности и дал начало нынешней волне ажиотажа вокруг искусственного интеллекта, — указ президента, принятый в понедельник, призван найти баланс между чрезмерным регулированием новой и потенциально революционной технологии и устранением связанных с ней рисков.
Приказ обязывает ведущие лаборатории ИИ уведомлять правительство США об учебных прогонах, в ходе которых создаются модели, несущие потенциальные риски для национальной безопасности, поручает Национальным институтам стандартов и технологий разработать фреймворки для состязательного тестирования моделей ИИ, а также учреждает инициативу по использованию ИИ для автоматического поиска и устранения уязвимостей программного обеспечения, среди прочих мер.
Решая вопросы конфиденциальности, справедливости и экзистенциальных рисков, связанных с моделями ИИ, понедельничный указ представляет собой масштабную попытку заложить основу для системы регулирования в то время, когда политики по всему миру пытаются разработать правила для ИИ. В информационном бюллетене Белого дома этот указ описывается как содержащий «самые масштабные меры, когда-либо принятые для защиты американцев от потенциальных рисков, связанных с системами ИИ».
Эксперты приветствовали указ в понедельник, но предупредили, что его потенциальные последствия будут зависеть от того, как он будет реализован, и от возможности финансирования различных инициатив. Ключевые положения указа, такие как призыв к устранению рисков для конфиденциальности, связанных с моделями искусственного интеллекта, потребуют от Конгресса принятия федерального законодательства о конфиденциальности, которое остаётся приоритетным в законодательном плане, но пока не принято.
Сенатор Марк Уорнер, демократ от Вирджинии, заявил, что, хотя он «впечатлён широтой» указа, «большая его часть лишь поверхностно затрагивает его, особенно в таких областях, как здравоохранение и политика в области конкуренции».
«Хотя это и хороший шаг вперед, нам нужны дополнительные законодательные меры, и я продолжу усердно работать над тем, чтобы мы уделяли первостепенное внимание безопасности, борьбе с предвзятостью и вредоносным использованием, а также ответственно внедряли технологии», — сказал Уорнер.
В более широком смысле, указ президента представляет собой изменение подхода Вашингтона к регулированию технологий и отчасти обусловлен отсутствием регулирования социальных сетей. Не сумев решить проблему влияния социальных сетей на всё – от выборов до психического здоровья подростков – вашингтонские политики стремятся не оказаться застигнутыми врасплох при разработке правил для ИИ.
«Этот проактивный подход радикально отличается от того, как правительство регулировало новые технологии в прошлом, и на то есть веские причины», — заявил Крис Уайсопал, технический директор и соучредитель Veracode. «Та же стратегия «выжидания и наблюдения», которую правительство использовало для регулирования интернета и социальных сетей, здесь не сработает».
Однако некоторые отраслевые группы и сторонники свободного рынка предупреждают, что такой проактивный подход может задушить инновации на ранней стадии развития ИИ.
«Администрация придерживается подхода, основанного на принципе «всё и сразу», к политике в области ИИ, который одновременно чрезвычайно амбициозен и потенциально излишне ревностен», — заявил Адам Тирер, старший научный сотрудник аналитического центра R Street, специализирующегося на теории свободного рынка. «Это распоряжение представляет собой потенциальное радикальное изменение подхода страны к рынкам цифровых технологий, поскольку федеральные политики, похоже, готовы отказаться от модели открытых инноваций, которая сделала американские компании мировыми лидерами практически во всех секторах вычислительной техники и цифровых технологий».
Принятый в понедельник указ предусматривает ряд мер по устранению некоторых из наиболее серьезных потенциальных рисков ИИ, включая его угрозу критически важной инфраструктуре и его потенциальное использование в качестве вспомогательного средства для создания нового биологического оружия, при проектировании ядерного оружия или создании вредоносного программного обеспечения.
Чтобы развеять растущую обеспокоенность тем, что ИИ может быть использован для усиления дезинформации, применяемой с целью повлиять на выборы, особенно на президентские выборы в следующем году, принятый в понедельник указ обяжет Министерство торговли разработать руководство по «аутентификации контента и маркировке водяными знаками», чтобы четко обозначить создаваемый ИИ контент.
Инициатива администрации по созданию инструментов кибербезопасности для автоматического обнаружения и исправления уязвимостей программного обеспечения основана на продолжающемся конкурсе в Агентстве передовых оборонных исследований, и эксперты в понедельник приветствовали акцент на попытках использовать ИИ для обеспечения масштабных улучшений в области компьютерной безопасности.
Цель — повысить барьер для использования этих инструментов как для создания вредоносного ПО, так и для участия в кибероперациях. «Это похоже на раннюю эпоху антивирусов», — сказал Дэвид Брамли, профессор кибербезопасности в Университете Карнеги — Меллона и генеральный директор компании ForAllSecure, специализирующейся на кибербезопасности. «Я понимаю, что это вредоносная программа, когда вижу её, и могу предотвратить её повторение, но сложно заблаговременно помешать кому-либо создавать новые вредоносные программы».
Брамли предупредил, что ведомства, на которые, согласно понедельничному указу, возлагается реализация новых инициатив в области безопасности, могут не иметь достаточного потенциала для их реализации. Например, указ обязывает Национальный институт стандартов и технологий (NIST) разработать стандарты проведения испытаний безопасности систем искусственного интеллекта и предписывает Министерству внутренней безопасности применять эти стандарты к критически важным секторам инфраструктуры, находящимся под его контролем.
NIST, вероятно, придётся привлечь внешних экспертов для разработки этих стандартов, поскольку в настоящее время у него нет необходимых знаний и опыта. «Они полагаются на очень традиционные государственные учреждения, такие как NIST, которые не обладают экспертными знаниями в этой области», — сказал Брамли.
В недавней оценке угроз внутренней безопасности Министерство внутренней безопасности назвало ИИ одной из наиболее серьезных угроз критически важной инфраструктуре, предупредив, что Китай и другие противники, вероятно, будут использовать ИИ для разработки вредоносного ПО промышленного назначения.
«Злоумышленники начали тестировать возможности вредоносного ПО, разработанного с использованием искусственного интеллекта, и разработки программного обеспечения с его помощью — технологий, которые потенциально способны обеспечить проведение более масштабных, быстрых, эффективных и менее заметных кибератак против таких целей, как трубопроводы, железные дороги и другие критически важные объекты инфраструктуры США», — говорится в отчете Министерства внутренней безопасности.
Федеральное правительство начинает бороться с этими угрозами, как, например, с объявлением Агентства национальной безопасности в прошлом месяце о создании Центра безопасности ИИ , который будет курировать разработку и использование ИИ. В понедельничном указе содержатся дополнительные инициативы по решению этих более узких проблем безопасности, включая создание Совета по безопасности и защите ИИ в структуре Министерства внутренней безопасности. Какие полномочия будут предоставлены этому совету и насколько он будет похож на другие надзорные органы, такие как Совет по кибербезопасности, пока неясно.
В указе также содержится призыв к Совету национальной безопасности и главе аппарата Белого дома разработать меморандум по национальной безопасности, в котором будет изложено, как военные и разведывательное сообщество будут «безопасно, этично и эффективно» использовать ИИ в миссиях, а также конкретные действия по противодействию использованию ИИ противником.