Компании, занимающиеся разработкой ИИ, обещают защитить наши выборы. Сдержат ли они свои обещания?

  • Автор темы Автор темы LeSh1y777
  • Дата начала Дата начала

LeSh1y777

Пользователь
Регистрация
25/9/25
Сообщения
5,682
Репутация
49
Лайки
152
Депозит
-8.95$
Спустя три месяца после того, как ведущие разработчики искусственного интеллекта пообещали внедрить меры защиты выборов от технологий машинного обучения, политики и исследователи предупреждают, что не увидели достаточно конкретных действий со стороны крупных технологических компаний, чтобы выполнить свои обещания.

На Мюнхенской конференции по безопасности в феврале группа из 20 крупных технологических компаний подписала соглашение о выборах с использованием ИИ , которое обязывает их разрабатывать инструменты и внедрять политику, препятствующую злоумышленникам использовать ИИ для вмешательства в выборы. С тех пор к этому добровольному соглашению присоединились ещё шесть компаний, основанному на аналогичном прошлогоднем обязательстве Белого дома , согласно которому компании, работающие в сфере ИИ, должны уделять первоочередное внимание безопасности и защите данных при разработке систем машинного обучения.

Теперь многие наблюдатели за развитием ИИ все больше обеспокоены тем, что эти добровольные обязательства не воплощаются в реальные меры.

В кулуарах конференции RSA в Сан-Франциско в этом месяце сенатор Марк Уорнер, демократ из Вирджинии, заявил журналистам, что, хотя он и воодушевлен обязательствами компаний, пока не ясно, какие меры были приняты для их реализации.

На фоне проходящих выборов в Индии, выборов в Европейский парламент в июне и выборов в США в январе Уорнер заявил, что пришло время компаниям, работающим в сфере ИИ, «показать нам, в чем дело».

На этой неделе Уорнер направил письмо компаниям, подписавшим избирательное соглашение, с просьбой предоставить обновленную информацию о ходе их работы, и это письмо отражает критику со стороны групп гражданского общества.

Ранее в этом году Массачусетский технологический институт опубликовал открытое письмо с призывом к компаниям, работающим в сфере ИИ, разработать четкую политику «безопасной гавани» для поддержки независимых исследований и оценки своих инструментов. Этот шаг соответствует обязательствам по более широкому использованию моделей для внешнего тестирования.

Текущая политика использования OpenAI запрещает сторонним исследователям намеренно обходить меры безопасности и смягчения рисков «если это не поддерживается OpenAI», а сторонники безопасности ИИ хотели бы, чтобы такие компании, как OpenAI, создавали больше возможностей для исследователей для тщательной проверки своих моделей.

OpenAI действительно развертывает сеть сторонних участников Red Teams для проведения состязательных исследований своих моделей, но исследователи должны подать заявку на участие в программе, и OpenAI в конечном итоге устанавливает правила взаимодействия.

Такая позиция может усложнить для сторонних исследователей задачу подтверждения того, что барьеры, установленные этими компаниями для предотвращения использования их моделей в целях дезинформации, работают так, как задумано, и что их нельзя обойти другими способами.

«Все эти соглашения — лишь первые шаги… но более серьезная проблема связана с подотчетностью: прежде всего, что именно они делают и насколько это эффективно?» — сказал Дханарадж Такур, директор по исследованиям в левоориентированном Центре демократии и технологий.

В письме Массачусетского технологического института, подписанном Такуром и более чем 350 представителями технологической отрасли, академических кругов и СМИ, компаниям, работающим в сфере ИИ, настоятельно рекомендуется принять условия предоставления услуг, аналогичные тем, которые в значительной степени применяются сегодня в отношении исследований в области кибербезопасности. Исследования уязвимостей в сфере ИИ будут регулироваться политикой раскрытия информации, призванной защитить компании от недобросовестных субъектов, работающих под видом законных исследований, и не допустить, чтобы компании контролировали или ограничивали доступ недружественных сторон к своим системам.

Ирен Солайман, руководитель отдела глобальной политики Hugging Face, платформы машинного обучения и науки о данных, отметила, что доступ сторонних исследователей к моделям часто позволяет взглянуть по-новому и обнаружить уникальные уязвимости или векторы атак в крупных языковых моделях.

«Доступ к моделям может помочь в их тщательном изучении, а также в их изучении, улучшении и развитии на их основе новыми способами», — написал Солейман в электронном письме. «Взгляд со стороны может дать представление о системах, которое может никогда не встретиться в организациях-разработчиках».

С момента подписания соглашения о выборах был достигнут определенный прогресс в разработке технических мер по обеспечению безопасности выборов. Например, Google разработала систему водяных знаков SynthID и во вторник заявила, что нашла способ применять этот метод к тексту . Подобные методы оценки происхождения контента являются ключевой темой недавних обещаний безопасности ИИ, но эксперты предупреждают, что системы водяных знаков остаются относительно незрелыми и их можно легко обойти.

Тем не менее, Центр Бреннана по вопросам правосудия, аналитический центр левого толка, выразил обеспокоенность тем, что, хотя многие обещания, взятые компаниями, работающими в сфере ИИ, как правило, звучат правильно, когда дело доходит до сдерживания злоупотреблений, они «совершенно невыполнимы и не содержат способов оценки прогресса подписавших их сторон в их выполнении».

В анализе, проведённом ранее в этом году Ларри Норденом из Центра Бреннана и учёным Дэвидом Эваном Харрисом, утверждается, что компании, занимающиеся разработкой ИИ, должны прилагать больше усилий, чтобы продемонстрировать, что эти соглашения — «не просто пиар-показуха», и публиковать ежемесячные публичные отчёты с подробным описанием новой политики в отношении предвыборного контента и инвестиций в выявление медиаконтента, создаваемого ИИ. Другие меры обеспечения прозрачности могут включать информацию о количестве сотрудников, работающих над вопросами, связанными с выборами, о вредоносном использовании систем ИИ противниками США и о количестве заблокированного предвыборного контента.

После того как исследователи в 2020 и 2022 годах выявили многочисленные кампании по распространению ложной информации и дезинформации, нацеленные на испаноговорящих избирателей , Норден и Харрис также призвали компании пополнять свои ряды сотрудниками, говорящими на других языках.

Сулейман поддержал эту точку зрения, заявив, что «люди, на которых влияют системы, часто лучше понимают, что для них лучше всего».

Николь Шнайдман, стратег по технологической политике в Protect Democracy, некоммерческой организации, основанной тремя бывшими юристами администрации Обамы для борьбы с тем, что она считает посягательством на авторитаризм в американской политике, рассказала CyberScoop, что ее воодушевляет объединение компаний в сфере ИИ вокруг принципов использования их технологий на выборах.

«Там есть хорошие обязательства», — сказала она. «Я просто очень надеюсь, что они их выполнят и будут работать друг с другом, чтобы обмениваться информацией и передовым опытом, осознавая, что мы все сталкиваемся с совершенно новым сценарием и ситуацией».

Ряд экспертов в области технологий и выборов отметили, что ситуация, с которой сегодня сталкиваются компании, занимающиеся разработкой ИИ, напоминает давление, которое испытывали многие владельцы социальных сетей после президентских выборов в США в 2016 году. В ходе этих выборов российское правительство использовало американские платформы, а также ведущие СМИ, для проведения кампаний по дезинформации и распространения взломанных электронных писем.

Тэмми Патрик, генеральный директор программ Национальной ассоциации организаторов выборов, рассказала CyberScoop, что верит руководителям ИИ на слово, когда они заявляют о своей приверженности защите выборов, — но они не должны повторять ошибок, которые компании, работающие в социальных сетях, допускали в прошлом.

«В большинстве случаев у избирательных комиссий нет ни ресурсов, ни навыков» для борьбы с дипфейками и другой дезинформацией, генерируемой ИИ, сказал Патрик. Необходимо провести «очень серьёзные переговоры» с компаниями, занимающимися ИИ, по этому вопросу, «потому что мы хотим обеспечить определённую ответственность в данный момент».

Исследование , проведенное в январе некоммерческой организацией AI Democracy Projects, показало, что пять моделей чата с использованием искусственного интеллекта — Gemini от Google, GPT-4 от OpenAI, Claude от Anthropic, Llama 2 от Meta и Mixtral от Mistral — регулярно выдавали неточные или ложные ответы на вопросы, связанные с выборами и голосованием.

В том же месяце OpenAI анонсировала ряд политик, связанных с выборами, и заявила, что сотрудничает с такими организациями, как Национальная ассоциация государственных секретарей, чтобы гарантировать, что их системы будут направлять пользователей к более авторитетным источникам, таким как CanIVote.org, при запросе информации об избирательных процедурах.

Использование ИИ для создания высококачественного видео и создания контента, который может быть использован для вмешательства в выборы, является одной из главных проблем исследователей, но даже несмотря на то, что компании, занимающиеся разработкой ИИ, анонсируют высокоэффективные инструменты для создания видео, самые передовые инструменты еще не стали широко доступными.

OpenAI и Google недавно представили инструменты, которые можно использовать для создания пугающе реалистичных видеороликов — Sora и Veo соответственно — но обе компании, похоже, воздерживаются от их широкого распространения.

Тина Суи, представитель OpenAI, сообщила, что компания ограничивает Sora группой «красных команд», чтобы исследовать возможные злоупотребления, а в разговоре с Brookings Institution в начале этого месяца генеральный директор OpenAI Сэм Альтман сказал, что он не ожидает, что модель будет выпущена «до выборов в этом году».

Veo от Google, анонсированный во вторник, в ближайшие недели будет доступен только «избранным создателям» .

Руководители технологических компаний признают, что по мере того, как их продукты ИИ продолжают развиваться и все больше взаимодействовать с избирательным пространством, им потребуется время на обучение.

Дэвид Ворхаус, директор по обеспечению честности выборов в Google на глобальном уровне, сообщил CyberScoop, что компания стремится взаимодействовать с внешними исследователями и гражданским обществом, чтобы гарантировать, что они несут ответственность за свои обещания.

«Я думаю, мы достаточно скромны, чтобы полагать, что у нас нет на все этого права, и поэтому приветствуем внешний контроль над этим», — сказал Ворхаус.

Дэйв Лейхтман, директор по корпоративной гражданской ответственности компании Microsoft, заявил CyberScoop, что он уверен в том, что компании выполнят свои обязательства в отношении ИИ и выборов.

«Всё дело в результатах, верно?» — сказал он. «Когда пройдут выборы, мы сможем оглянуться назад и сказать: „Да, мы хорошо поработали“, и, надеюсь, Центр Бреннана [и другие критики] с этим согласятся».
 
Назад
Сверху Снизу