Коалиция крупных технологических компаний в пятницу взяла на себя обязательство ограничить злонамеренное использование дипфейков и других форм искусственного интеллекта для манипулирования избирателями или обмана их на демократических выборах.
Соглашение об использовании ИИ для выборов , о котором было объявлено на Мюнхенской конференции по безопасности, определяет ряд обязательств, призванных затруднить злоумышленникам использование генеративного ИИ, больших языковых моделей и других инструментов ИИ для обмана избирателей в преддверии напряженного года выборов по всему миру в следующем году.
В документе, подписанном 20 крупными компаниями, представлены ведущие технологические компании, включая OpenAI, Microsoft, Amazon, Meta, TikTok и социальную медиаплатформу X. В нём также участвуют ключевые, но менее известные игроки в сфере ИИ, такие как StabilityAI и ElevenLabs, чьи технологии уже были задействованы в создании контента, генерируемого ИИ для влияния на избирателей в Нью-Гэмпшире. Среди других подписавших – Adobe и TruePic, две компании, работающие над технологиями обнаружения и нанесения водяных знаков .
Пятничное соглашение обязывает эти компании поддерживать разработку инструментов, которые позволят более эффективно обнаруживать, проверять и маркировать медиаконтент, созданный искусственно или с помощью манипуляций. Они также взяли на себя обязательство проводить специализированную оценку моделей ИИ, чтобы лучше понять, как их можно использовать для срыва выборов, и разработать усовершенствованные методы отслеживания распространения вирусного контента, созданного ИИ, в социальных сетях. Подписавшиеся стороны обязались маркировать медиаконтент, созданный ИИ, везде, где это возможно, уважая при этом законные способы его использования, например, сатиру.
Соглашение знаменует собой наиболее всеобъемлющие на сегодняшний день усилия глобальных технологических компаний по борьбе со способами использования ИИ для манипулирования выборами и было заключено сразу после нескольких инцидентов, в которых дипфейки использовались в качестве части операций влияния.
Ранее на этой неделе в интернете стало вирусным видео, в котором ведущий французских новостей, созданный искусственным интеллектом, заявил, что президент Франции Эммануэль Макрон отменил поездку на Украину из-за предотвращенного покушения . В январе избиратели в Нью-Гэмпшире подверглись атакам со стороны роботов, в которых голос президента Джо Байдена, созданный искусственным интеллектом, призывал их воздержаться от посещения избирательных участков.
Сенатор Марк Уорнер, демократ из Вирджинии, заявил, что соглашение представляет собой здоровый шаг вперед по сравнению с предыдущими выборами, когда компании социальных сетей отрицали, что их платформы подвергаются злоупотреблениям и эксплуатации со стороны иностранных субъектов.
«Когда мы думаем о методах, которые использовались в 2016, 2018 и 2020 годах, они кажутся буквально детской игрой по сравнению с угрозами и вызовами, с которыми мы сталкиваемся повсеместно сегодня», — сказал Уорнер в своем выступлении перед журналистами на Мюнхенской конференции.
По мере распространения инструментов ИИ политики оказывают сильное давление на компании, чтобы они быстрее внедряли способы идентификации контента, созданного ИИ, и в пятничном соглашении есть формулировка, призывающая компании включать «сигналы происхождения для определения происхождения контента, где это уместно и технически осуществимо».
Одним из таких стандартов происхождения являются стандарты, разработанные Коалицией за происхождение и подлинность контента (Coalition for Content Provenance and Authenticity) – группой, сформированной Adobe, Intel, Microsoft и другими компаниями для создания и распространения набора новых открытых, совместимых технических стандартов для цифровых медиа. Эти стандарты основаны на процессе, называемом «Безопасный контролируемый захват» (Secure Controlled Capture), который позволяет отслеживать историю каждого медиафайла на уровне файла, а мастер-файл хранится в локальной или облачной системе хранения для сравнения. Теоретически это позволило бы общественности получить проверяемую информацию об истории файла изображения или видео: когда он был создан, кем и были ли какие-либо изменения в этом медиафайле.
Однако положения о происхождении контента, содержащиеся в пятничном соглашении, имеют серьёзные ограничения. Соглашение не обязывает компании внедрять такие стандарты. Вместо этого компании обязались «поддерживать» свои «разработки», «понимая, что все подобные решения имеют ограничения». Компании обязуются «работать над» этими решениями, включая машиночитаемые версии информации о происхождении контента в медиаконтенте, создаваемом искусственным интеллектом.
И даже если крупные компании включат информацию о происхождении контента, многие эксперты полагают, что злоумышленники вместо этого обратятся к обширной экосистеме моделей с открытым исходным кодом, которым не требуются инструменты для определения происхождения контента.
На зимней конференции национальных государственных секретарей в начале этого месяца Джош Лоусон, директор по вопросам ИИ и демократии в Институте Аспена, отметил, что при обсуждении с десятками экспертов по технологиям вопроса о том, как ограничить использование вредоносного ИИ на выборах, «одна из вещей, которая время от времени всплывала, заключается в том, что злоумышленники с гораздо большей вероятностью будут использовать открытые модели и модели со взломанными версиями, чем» модели, разработанные крупными корпорациями.
Между тем технологии обнаружения могут предложить лишь вероятностную оценку того, был ли фрагмент медиа-контента искусственно смонтирован, и большинство этих инструментов полагаются на аналогичные технологии машинного обучения, которые мошенники могут изучить, чтобы создавать более убедительные подделки.
Хотя усилия по устранению связанных с выборами рисков, связанных с ИИ, находятся на начальной стадии, эта область продолжает стремительно развиваться. Только на этой неделе OpenAI представила новую модель создания высококачественного видео, что побудило репортёра на пятничной пресс-конференции в Мюнхене задаться вопросом о том, какую пользу этот инструмент принесёт обществу в условиях, когда политики не понимают, как обеспечить безопасность выборов в условиях всё более доступных инструментов ИИ.
Анна Маканджу, вице-президент OpenAI по глобальным вопросам, отметила, что компания не делает инструмент под названием Sora общедоступным, и сообщила, что небольшой группе участников Red Team был предоставлен доступ к нему для изучения способов повышения его безопасности. «Важно, чтобы люди понимали, на каком уровне находятся современные технологии, и действительно укрепляли общественную устойчивость», — сказала она.
Технологические компании сталкиваются с противодействием со стороны критиков, которые расценивают попытки обуздать дезинформацию с помощью технологий как более масштабную попытку цензурировать или подавить политические высказывания, но президент Microsoft Брэд Смит провел границу между правом на свободу слова и использованием ИИ для трансляции сфальсифицированной политической речи.
«Право на свободу слова не дает одному человеку возможности вкладывать свои слова в уста другого человека, вводя общественность в заблуждение, создавая впечатление, будто человек произнес слова, которых он никогда не произносил», — сказал Смит.
Соглашение об использовании ИИ для выборов , о котором было объявлено на Мюнхенской конференции по безопасности, определяет ряд обязательств, призванных затруднить злоумышленникам использование генеративного ИИ, больших языковых моделей и других инструментов ИИ для обмана избирателей в преддверии напряженного года выборов по всему миру в следующем году.
В документе, подписанном 20 крупными компаниями, представлены ведущие технологические компании, включая OpenAI, Microsoft, Amazon, Meta, TikTok и социальную медиаплатформу X. В нём также участвуют ключевые, но менее известные игроки в сфере ИИ, такие как StabilityAI и ElevenLabs, чьи технологии уже были задействованы в создании контента, генерируемого ИИ для влияния на избирателей в Нью-Гэмпшире. Среди других подписавших – Adobe и TruePic, две компании, работающие над технологиями обнаружения и нанесения водяных знаков .
Пятничное соглашение обязывает эти компании поддерживать разработку инструментов, которые позволят более эффективно обнаруживать, проверять и маркировать медиаконтент, созданный искусственно или с помощью манипуляций. Они также взяли на себя обязательство проводить специализированную оценку моделей ИИ, чтобы лучше понять, как их можно использовать для срыва выборов, и разработать усовершенствованные методы отслеживания распространения вирусного контента, созданного ИИ, в социальных сетях. Подписавшиеся стороны обязались маркировать медиаконтент, созданный ИИ, везде, где это возможно, уважая при этом законные способы его использования, например, сатиру.
Соглашение знаменует собой наиболее всеобъемлющие на сегодняшний день усилия глобальных технологических компаний по борьбе со способами использования ИИ для манипулирования выборами и было заключено сразу после нескольких инцидентов, в которых дипфейки использовались в качестве части операций влияния.
Ранее на этой неделе в интернете стало вирусным видео, в котором ведущий французских новостей, созданный искусственным интеллектом, заявил, что президент Франции Эммануэль Макрон отменил поездку на Украину из-за предотвращенного покушения . В январе избиратели в Нью-Гэмпшире подверглись атакам со стороны роботов, в которых голос президента Джо Байдена, созданный искусственным интеллектом, призывал их воздержаться от посещения избирательных участков.
Сенатор Марк Уорнер, демократ из Вирджинии, заявил, что соглашение представляет собой здоровый шаг вперед по сравнению с предыдущими выборами, когда компании социальных сетей отрицали, что их платформы подвергаются злоупотреблениям и эксплуатации со стороны иностранных субъектов.
«Когда мы думаем о методах, которые использовались в 2016, 2018 и 2020 годах, они кажутся буквально детской игрой по сравнению с угрозами и вызовами, с которыми мы сталкиваемся повсеместно сегодня», — сказал Уорнер в своем выступлении перед журналистами на Мюнхенской конференции.
По мере распространения инструментов ИИ политики оказывают сильное давление на компании, чтобы они быстрее внедряли способы идентификации контента, созданного ИИ, и в пятничном соглашении есть формулировка, призывающая компании включать «сигналы происхождения для определения происхождения контента, где это уместно и технически осуществимо».
Одним из таких стандартов происхождения являются стандарты, разработанные Коалицией за происхождение и подлинность контента (Coalition for Content Provenance and Authenticity) – группой, сформированной Adobe, Intel, Microsoft и другими компаниями для создания и распространения набора новых открытых, совместимых технических стандартов для цифровых медиа. Эти стандарты основаны на процессе, называемом «Безопасный контролируемый захват» (Secure Controlled Capture), который позволяет отслеживать историю каждого медиафайла на уровне файла, а мастер-файл хранится в локальной или облачной системе хранения для сравнения. Теоретически это позволило бы общественности получить проверяемую информацию об истории файла изображения или видео: когда он был создан, кем и были ли какие-либо изменения в этом медиафайле.
Однако положения о происхождении контента, содержащиеся в пятничном соглашении, имеют серьёзные ограничения. Соглашение не обязывает компании внедрять такие стандарты. Вместо этого компании обязались «поддерживать» свои «разработки», «понимая, что все подобные решения имеют ограничения». Компании обязуются «работать над» этими решениями, включая машиночитаемые версии информации о происхождении контента в медиаконтенте, создаваемом искусственным интеллектом.
И даже если крупные компании включат информацию о происхождении контента, многие эксперты полагают, что злоумышленники вместо этого обратятся к обширной экосистеме моделей с открытым исходным кодом, которым не требуются инструменты для определения происхождения контента.
На зимней конференции национальных государственных секретарей в начале этого месяца Джош Лоусон, директор по вопросам ИИ и демократии в Институте Аспена, отметил, что при обсуждении с десятками экспертов по технологиям вопроса о том, как ограничить использование вредоносного ИИ на выборах, «одна из вещей, которая время от времени всплывала, заключается в том, что злоумышленники с гораздо большей вероятностью будут использовать открытые модели и модели со взломанными версиями, чем» модели, разработанные крупными корпорациями.
Между тем технологии обнаружения могут предложить лишь вероятностную оценку того, был ли фрагмент медиа-контента искусственно смонтирован, и большинство этих инструментов полагаются на аналогичные технологии машинного обучения, которые мошенники могут изучить, чтобы создавать более убедительные подделки.
Хотя усилия по устранению связанных с выборами рисков, связанных с ИИ, находятся на начальной стадии, эта область продолжает стремительно развиваться. Только на этой неделе OpenAI представила новую модель создания высококачественного видео, что побудило репортёра на пятничной пресс-конференции в Мюнхене задаться вопросом о том, какую пользу этот инструмент принесёт обществу в условиях, когда политики не понимают, как обеспечить безопасность выборов в условиях всё более доступных инструментов ИИ.
Анна Маканджу, вице-президент OpenAI по глобальным вопросам, отметила, что компания не делает инструмент под названием Sora общедоступным, и сообщила, что небольшой группе участников Red Team был предоставлен доступ к нему для изучения способов повышения его безопасности. «Важно, чтобы люди понимали, на каком уровне находятся современные технологии, и действительно укрепляли общественную устойчивость», — сказала она.
Технологические компании сталкиваются с противодействием со стороны критиков, которые расценивают попытки обуздать дезинформацию с помощью технологий как более масштабную попытку цензурировать или подавить политические высказывания, но президент Microsoft Брэд Смит провел границу между правом на свободу слова и использованием ИИ для трансляции сфальсифицированной политической речи.
«Право на свободу слова не дает одному человеку возможности вкладывать свои слова в уста другого человека, вводя общественность в заблуждение, создавая впечатление, будто человек произнес слова, которых он никогда не произносил», — сказал Смит.