Дни обучения: как чиновники используют ИИ для подготовки избирательных комиссий к хаосу голосования

  • Автор темы Автор темы LeSh1y777
  • Дата начала Дата начала

LeSh1y777

Пользователь
Регистрация
25/9/25
Сообщения
5,682
Репутация
49
Лайки
153
Депозит
-8.95$
Всередине декабря члены избирательных комиссий со всей Аризоны собрались в скромном бальном зале отеля на обучающее занятие и услышали самые обычные сообщения: краткие замечания и презентацию PowerPoint от госсекретаря Аризоны Адриана Фонтеса.

Но организаторов выборов обманули. Реплики Фонтеса были сгенерированы искусственным интеллектом, и организаторам потребовались серьёзные подсказки, чтобы зрители поняли, что увиденное ими видео — подделка.

По всей территории Соединенных Штатов члены избирательных комиссий пытаются понять, как подготовиться к возможному использованию ИИ для подрыва выборов этой осенью, и они все чаще прибегают к учениям, тренингам и демонстрациям, подобным той, что прошла в бальном зале в Финиксе, чтобы продемонстрировать мощь этих технологий и рассказать сотрудникам избирательных комиссий о возможностях ИИ.

Однако такие тренинги, как в Аризоне, представляют собой передовой этап подготовки, осуществляемой должностными лицами, ответственными за проведение выборов, и в отсутствие четко сформулированных планов политики утверждают, что осведомленность и обучение являются наилучшими доступными инструментами для подготовки должностных лиц, ответственных за проведение выборов, к быстрому реагированию на контент, генерируемый ИИ.

«Всю жизнь нас учили, что то, что мы видим и слышим, — реальность», — заявил Джерри Кили, советник по безопасности выборов в Агентстве кибербезопасности и безопасности инфраструктуры, выступая на конференции по кибербезопасности в Аризоне в прошлом месяце. «Ну, теперь это неправда, потому что я видел и слышал много нереального».

Эпицентр отрицания выборов и обучения искусственного интеллекта​

Необходимость подготовки избирательных комиссий к дезинформации, генерируемой искусственным интеллектом, особенно актуальна в Аризоне, которая в 2020 году стала эпицентром попыток бывшего президента Дональда Трампа и его союзников отменить результаты выборов.

Сотрудники избирательных комиссий опасаются, что в 2024 году Аризона может вновь стать ареной предвыборных заговоров, дезинформации и грязных интриг — только на этот раз с использованием искусственного интеллекта.

Скептицизм относительно честности выборов оказался на удивление устойчивым в Аризоне, где после промежуточных выборов 2022 года лишь 36% республиканцев заявили, что считают выборы справедливыми. Тем временем, множество должностных лиц избирательных комиссий Аризоны ушли в отставку или вышли на пенсию, столкнувшись, по их словам, с постоянным потоком угроз, преследований и враждебности со стороны избирателей, по-прежнему убеждённых в сговоре с целью фальсификации результатов выборов в штате.

Для чиновников округа Марикопа — самого густонаселённого округа Аризоны и эпицентра предвыборных заговоров — дезинформация представляет собой личную угрозу. «К сожалению, мы на собственном опыте убедились, что публикуемая в социальных сетях информация не только может быть индикатором угрозы с точки зрения кибербезопасности, но и представляет собой потенциальную кинетическую угрозу», — заявил в прошлом месяце Лестер Годси, главный специалист по информационной безопасности округа.

Многие должностные лица и эксперты избирательных комиссий сообщили CyberScoop, что, в отличие от большинства традиционных угроз кибербезопасности, должностные лица мало что могут сделать, прежде чем юрисдикция подвергнется атаке ИИ-контента, чтобы ослабить или усилить свою защиту. Планирование быстрого реагирования и координация действий с другими должностными лицами избирательных комиссий, СМИ и правоохранительными органами часто упоминаются в качестве основных средств защиты.

На сессии, состоявшейся в декабре, представители штата встретились с представителями местных избирательных комиссий, федеральными агентствами, такими как CISA, технологическими компаниями, включая OpenAI и Microsoft, а также сторонними организациями, такими как Центр правосудия Бреннана, чтобы провести моделирование того, как эти технологии могут быть использованы злоумышленниками для воздействия на выборы.

Майкл Мур, директор по информационной безопасности аппарата госсекретаря Аризоны, рассказал CyberScoop, что учения включали в себя ряд самодельных имитаций дипфейков — общего термина для контента, созданного искусственным интеллектом и предназначенного для имитации другого лица. Мероприятие «продемонстрировало весь спектр клонирования голоса, создания изображений и видео», — сказал Мур.

Помимо фейкового видео Фонтеса, в ходе учений в Аризоне были показаны видео местного чиновника, свободно говорящего по-немецки, хотя никогда этого языка не изучал, и ещё одно видео, где сотрудник некоммерческой организации, занимающейся выборами штата, выбрасывает бюллетени в мусор. В клонированном телефонном разговоре сотрудник канцелярии секретаря штата просил у сотрудников избирательных комиссий пароли к базам данных регистрации избирателей. На изображении, созданном с помощью инструмента генерации фотографий MidJourney, Мур закладывает бомбу в офисе поставщика полиграфической продукции, используемой штатом для печати бюллетеней.

Ларри Норден, который руководит работой Центра Бреннана по выборам, заявил, что целью тренингов было развеять мифы о технологиях для должностных лиц избирательных комиссий и помочь им лучше объяснить их избирателям.

«Мне кажется, что это перенесло это из области научной фантастики или слов на листе бумаги, которые люди не до конца понимали, в область «это проблема, существующая здесь и сейчас»», — сказал Норден об этом упражнении.

Однако такие эксперты, как Норден, находятся на начальном этапе обучения чиновников Аризоны. Он выразил надежду, что чиновники поймут важность «базовых вещей», которые всегда были основой безопасности. Это включает в себя защиту каналов связи, предоставление избирателям официальных источников, проверку аккаунтов в социальных сетях, сообщение о поддельных аккаунтах и использование многофакторной аутентификации для защиты от фишинговых писем и клонирования голоса, которые могут быть направлены на использование доверительных отношений для получения доступа к избирательным системам.

Разоблачение угрозы​

Сотрудники избирательных комиссий, находящиеся на передовой подготовки к возможному влиянию ИИ на выборы 2024 года, подчеркивают, что они не пытаются изобрести велосипед.

Государственный секретарь Миннесоты Стив Саймон рассказал CyberScoop, что многие из лучших мер защиты государственных и местных чиновников от контента, создаваемого ИИ, основаны на тех же инструментах, которые они используют для борьбы с любым количеством угроз, связанных с кибербезопасностью: коммуникация, координация и предварительное установление надежных источников информации.

В январе канцелярия секретаря штата Миннесота провела с представителями 50 округов и федеральных агентств полудневный тренинг по безопасности выборов. Мероприятие включало в себя видеообзоры и скоординированные обсуждения угрозы дипфейков и искусственного интеллекта, которые затем были перенесены в более широкие упражнения и диалоги по вопросам дезинформации, кибербезопасности и физических угроз.

Власти Миннесоты также разрабатывают новые инструменты. В прошлом году в Миннесоте был принят закон, запрещающий использование контента, созданного искусственным интеллектом, который выдаёт себя за другое лицо без его разрешения, а также использование этого контента для влияния на результаты выборов в течение 90 дней с момента голосования избирателей. В этом году аналогичные законы были приняты и в таких штатах, как Мичиган, и Саймон заявил, что закон Миннесоты предоставит его ведомству возможность добиваться удаления контента по решению суда от лиц и платформ, распространяющих в интернете дипфейки.

Дипфейки — это всего лишь очередной поворот в продолжающейся борьбе избирательных комиссий с дезинформацией. «Не думайте, что это какая-то совершенно новая вещь, которую нужно изучить или в которой нужно стать экспертом. Это просто новый способ расширить рамки проблемы», — сказал он.

Однако такие штаты, как Аризона и Миннесота, похоже, выделяются в плане подготовки к дезинформации, генерируемой искусственным интеллектом, направленной против выборов. В прошлом месяце CNN обратился к избирательным комиссиям всех 50 штатов с вопросом об их планах борьбы с дипфейками в этом избирательном цикле. Из 33 ответивших менее половины упомянули конкретные тренинги, политику или программы по борьбе с этой угрозой.

Это означает, что к дню выборов многие члены избирательных комиссий окажутся в затруднительном положении. Дэвид Беккер, исполнительный директор и основатель Центра инноваций и исследований в избирательной сфере, заявил, что члены избирательных комиссий «раньше были технократами, участвовавшими в прозрачном процессе, призванном помогать американским избирателям», но теперь им пришлось взять на себя ряд новых обязанностей.

«За последние несколько лет им также пришлось стать экспертами по безопасности, кибербезопасности, физической безопасности [и] коммуникациям», — сказал он. «Им пришлось справляться со стрессом для себя и своих сотрудников способами, которых раньше не приходилось».

Появление генеративного искусственного интеллекта добавляет еще одно препятствие к этим обязанностям, ставя многих должностных лиц и кандидатов в незавидное положение, когда им приходится подтверждать или опровергать визуальные и аудиосообщения, которым многие избиратели безоговорочно доверяют.

В то же время важно не преувеличивать угрозу, исходящую от искусственного интеллекта. В исследовании, опубликованном ранее в этом году исследователями Фонда Карнеги за международный мир, посвященном мерам противодействия дезинформации, отмечается, что немногочисленные задокументированные случаи использования дипфейков для влияния на политику в большинстве случаев оказались неэффективными.

«Исследования показывают, что готовность людей верить ложной (или истинной) информации часто определяется не столько уровнем реализма контента, сколько другими факторами, такими как повторение, повествовательная привлекательность, воспринимаемый авторитет, групповая идентификация и душевное состояние зрителя».

Такой реализм — слабое утешение для чиновников, непосредственно работающих на выборах, которые говорят, что научились ожидать неожиданностей.

Билл Экблад — сотрудник службы безопасности выборов в Миннесоте и ветеран выборов 2016 года, когда попытки России катапультировать Трампа в Белый дом застали организаторов выборов врасплох. Четыре года спустя, отмечает Экблад, зарубежные операции по оказанию влияния, проводившиеся в рамках предыдущего избирательного цикла, не увенчались успехом и сменились потоком физических угроз в адрес сотрудников избирательных комиссий.

Этот опыт научил его, что предсказать основную угрозу безопасности во время выборов сложно, поэтому лучше быть готовым ко всему и научиться быстро реагировать. «Мы на флоте говорили: „Будьте блестящими в основах“, и в нашем случае это коммуникация, сотрудничество и обмен информацией о ситуации», — сказал Экблад.

Это перекликается с советом Кэти Салливан, агента Демократической партии из Нью-Гэмпшира, чей номер телефона был подделан в январе в ходе автоматического звонка , клонировавшего голос президента Джо Байдена, чтобы отговорить демократов от голосования на президентских праймериз в том месяце. Салливан заявила CyberScoop, что, по её мнению, решение оперативно отреагировать на звонки, уведомив должностных лиц штата, правоохранительные органы и СМИ, сыграло значительную роль в нейтрализации негативного влияния на голосование.

Другие члены избирательных комиссий не могут извлечь позитивные уроки из событий в Нью-Гэмпшире. Мур из Аризоны назвал аудиоклонирование наиболее опасным видом синтетических медиа. Как и многие члены избирательных комиссий, он сказал, что был встревожен автодозвоном из Нью-Гэмпшира — не потому, что он был хорошо организован, а потому, что он был неэффективным.

Мур сравнивает автодозвон из Нью-Гэмпшира с преступником, грабящим магазин с лазерной винтовкой. «Сама реализация была выполнена не очень хорошо, — сказал он. — Но, по сути, это был идеальный клон голоса президента Байдена. Что же происходит, когда люди используют эти инструменты более разумно?»
 
Назад
Сверху Снизу