Группы по защите прав потребителей технологий хотят создать систему нулевого доверия для защиты общественности от ИИ

  • Автор темы Автор темы LeSh1y777
  • Дата начала Дата начала

LeSh1y777

Пользователь
Регистрация
25/9/25
Сообщения
5,682
Репутация
49
Лайки
151
Депозит
-8.95$
Коалиция технологических групп, отстаивающих общественные интересы, выступает против все более набирающего популярность в Вашингтоне подхода к саморегулированию в сфере искусственного интеллекта, который они называют подходом нулевого доверия к управлению ИИ.

В преддверии одобренного Белым домом мероприятия по проверке технологий искусственного интеллекта в ходе предстоящей хакерской конференции DEF CON в Лас-Вегасе, Центр электронной конфиденциальности, AI Now и Accountable Tech опубликовали проект руководящих принципов для регулирующих органов и законодателей, призывающий руководителей правительств активизировать усилия по сдерживанию деятельности технологических компаний.

Эта концепция является ответом на ряд предложений частных компаний об ответственном использовании и регулировании ИИ, а также на более общие усилия Конгресса и Белого дома. В прошлом месяце ведущие компании в области ИИ, включая Google, Amazon, Meta и Open AI, согласились взять на себя добровольные обязательства по обеспечению безопасности, включая разрешение независимым экспертам по безопасности тестировать свои системы.

Однако авторы концепции «Zero Trust AI Governance» утверждают, что предлагаемые частным сектором решения недостаточны, а предлагаемые ими концепции «замедляют действия длительными процессами, опираются на чрезмерно сложные и трудно реализуемые режимы и перекладывают бремя ответственности на тех, кто уже пострадал».

Эта концепция — лишь очередной шаг гражданского общества, направленный на то, чтобы заставить Белый дом занять более жёсткую позицию в отношении регулирования ИИ в то время, как администрация работает над ожидаемым указом об ИИ. На прошлой неделе несколько организаций во главе с Центром демократии и технологий, Центром американского прогресса и Конференцией лидеров по гражданским правам и правам человека направили в Белый дом письмо с призывом к президенту включить в указ Билль о правах ИИ, проект которого администрация опубликовала ранее в этом году.

«Мы пытаемся перевернуть идею о том, что компаниям можно и нужно доверять саморегулирование в рамках модели нулевого доверия», — сказал Бен Уинтерс, политический консультант EPIC и один из авторов этой модели. «Им нужно иметь чёткие правила о том, что они могут делать, а что нет, какие типы раскрытия информации им следует предоставлять, а также нести бремя доказательства безопасности своих продуктов, а не просто иметь возможность их широко внедрять».

Один из руководящих принципов этой структуры — призыв к правительству использовать действующее законодательство для надзора за отраслью, включая обеспечение соблюдения антидискриминационных законов и законов о защите прав потребителей. В апреле Федеральная торговая комиссия, Бюро финансовой защиты потребителей, Отдел гражданских прав Министерства юстиции США и Комиссия США по равным возможностям трудоустройства опубликовали совместное заявление , в котором заявили о своих планах «активно применять свои коллективные полномочия и контролировать разработку и использование автоматизированных систем». Например, Федеральная торговая комиссия уже предупреждала компании об использовании обманного маркетинга для своих продуктов на базе искусственного интеллекта.

В докладе излагается ряд чётких положений, включая запрет на то, что авторы называют «неприемлемыми практиками использования ИИ», включая распознавание эмоций, предиктивное полицейское управление и удалённую биометрическую идентификацию. В докладе также выражается обеспокоенность по поводу использования персональных данных и содержится призыв к правительству принять меры по запрету сбора конфиденциальных данных системами ИИ.

По мнению авторов рамок, бремя доказательства безвредности систем должно лежать на компаниях, которые указывают на тот факт, что некоторые компании сократили свои отделы этики в связи с резким ростом интереса к продуктам на основе ИИ. По мнению организаций, полезным примером могла бы стать фармацевтическая промышленность, которая должна провести масштабные исследования и разработки, прежде чем продукты получат одобрение FDA.

Уинтерс заявил, что группа не поддерживает создание нового регулятора в сфере ИИ, а вместо этого намерена подчеркнуть, что компании обязаны доказывать безопасность своей продукции.

«Компании продвигают системы ИИ в широкое коммерческое использование, прежде чем они к этому готовы, и бремя ложится на общественность. Нам необходимо извлечь урок из последнего десятилетия технологических кризисов: добровольные обязательства не заменят принудительного регулирования», — заявила Сара Майерс Уэст, управляющий директор AI Now Institute. «Нам необходимы структурные меры, которые изменят систему стимулирования, смягчив негативную динамику гонки вооружений в сфере ИИ, прежде чем она нанесёт системный ущерб»
 
Назад
Сверху Снизу