Водяные знаки на основе искусственного интеллекта могут быть использованы злоумышленниками для распространения дезинформации. Однако эксперты утвержда

  • Автор темы Автор темы LeSh1y777
  • Дата начала Дата начала

LeSh1y777

Пользователь
Регистрация
25/9/25
Сообщения
5,682
Репутация
49
Лайки
153
Депозит
-8.95$
Вцелом, специалисты по технологиям из государственного и частного секторов сходятся во мнении, что использование цифровых водяных знаков для проверки контента, созданного с помощью ИИ, должно стать ключевым компонентом борьбы с дипфейками и другими формами вредоносной дезинформации.

Однако нет четкого консенсуса относительно того, что такое цифровой водяной знак или какими должны быть общие стандарты и политика в отношении него, что заставляет многих экспертов и политиков в области ИИ опасаться, что технология может не реализовать свой потенциал и даже стать источником выгоды для злоумышленников.

Эксперты выделяют отраслевые группы и ряд технологических гигантов, в первую очередь TikTok и Adobe, как лидеров движения за внедрение водяных знаков на основе искусственного интеллекта и сторонников прозрачного подхода к этой технологии. Им понадобится вся возможная помощь в этот обещающий быть особенно хаотичным год в цифровом пространстве.

Учитывая, что в 2024 году в выборах по всему миру, как ожидается, примут участие более 2 миллиардов человек, создатели искусственного интеллекта, ученые и политики заявили в интервью FedScoop, что в ближайшие месяцы необходимо разработать стандарты маркировки водяными знаками контента, создаваемого искусственным интеллектом, иначе распространение сложных вирусных дипфейков и поддельных аудио- и видеозаписей политиков будет продолжаться в том же духе.

«Идея подлинности, наличие подлинного и заслуживающего доверия контента лежит в основе водяных знаков ИИ», — сказал Рамайя Кришнан, декан факультета информационных систем и государственной политики Университета Карнеги-Меллона и член Национального консультативного комитета по искусственному интеллекту при президенте Джо Байдене.

«Наличие технологического способа маркировки того, как был создан контент, и соответствующего инструмента обнаружения на базе ИИ было бы полезно, и к этому есть большой интерес, но это не панацея», — добавил он. «Существуют различные проблемы с соблюдением правил».

Цифровые водяные знаки — «инструмент сортировки для снижения вреда»

Существует три основных типа водяных знаков, созданных крупными технологическими компаниями и разработчиками ИИ для уменьшения дезинформации и укрепления доверия пользователей: видимые водяные знаки, добавляемые к изображениям, видео или тексту такими компаниями, как Google, OpenAI или Getty, для проверки подлинности контента; невидимые водяные знаки, которые можно обнаружить только с помощью специальных алгоритмов или программного обеспечения; и криптографические метаданные, которые содержат подробную информацию о том, когда был создан фрагмент контента и как он был отредактирован или изменен до того, как кто-то его потребит.

Использование водяных знаков для борьбы с дезинформацией, генерируемой ИИ, может быть полезным при просмотре контента обычными пользователями, но может иметь и обратный эффект. Эксперты по искусственному интеллекту, специализирующиеся на водяных знаках, сообщили FedScoop, что злоумышленники могут манипулировать водяными знаками и создавать ещё больше дезинформации.

Это как у олимпийских спортсменов — теперь, когда я знаю, что вы ищете этот препарат, я просто приму другой препарат.

Старший независимый сотрудник Сената о том, как злоумышленники могут манипулировать водяными знаками
«К технологии водяных знаков следует относиться с долей скепсиса, поскольку для человека, обладающего знаниями о водяных знаках и ИИ, не так уж и сложно взломать ее и удалить водяной знак или создать новый», — сказал Сивэй Лю, профессор компьютерных наук из Университета Буффало, изучающий дипфейки и цифровые подделки.

Лю добавил, что цифровые водяные знаки «не являются абсолютно надежными», а невидимые водяные знаки зачастую более эффективны, хотя и не лишены недостатков.

«Я думаю, водяные знаки в основном работают на том, что люди не знают об их существовании. Поэтому, если они знают, что могут, они найдут способ их снять».

Высокопоставленный независимый сотрудник Сената, активно участвовавший в разработке законодательства, касающегося водяных знаков ИИ, заявил, что опасения злоумышленников, использующих благие намерения в манипулятивных целях, «на 1000% обоснованы. Это как с олимпийскими спортсменами: теперь, когда я знаю, что вы ищете этот препарат, я просто приму другой. Нам нужно изо всех сил стараться не отставать от злоумышленников».

Что касается водяных знаков с использованием искусственного интеллекта, Сенат в настоящее время находится на этапе «просветительской работы и определения проблемы», сообщил старший сотрудник. Как только основные проблемы, связанные с технологией, будут более четко определены, сотрудники начнут изучать, можно ли решить эту проблему законодательно или через ассигнования.

Лидер большинства в Сенате Чак Шумер заявил в сентябре, что в преддверии выборов 2024 года решение проблем, связанных с контентом, создаваемым искусственным интеллектом, который является поддельным или вводящим в заблуждение и может привести к широкому распространению дезинформации, является чрезвычайно срочной проблемой .

«Существует проблема фактических глубоких фейков, когда люди действительно верят… что кандидат говорит что-то, хотя на самом деле он является творением искусственного интеллекта», — сказал демократ из Нью-Йорка после своего первого закрытого форума по вопросам ИИ .

«Мы говорили о водяных знаках... у этого метода более быстрый график внедрения, чем у некоторых других, и это очень важно сделать», — добавил он.

Другой эксперт по ИИ заявил, что водяные знаки могут быть использованы злоумышленниками в небольшом числе случаев, но с весьма существенными последствиями. Сэм Грегори, исполнительный директор некоммерческой организации WITNESS, которая помогает людям использовать технологии для защиты прав человека, отметил, что водяные знаки с помощью ИИ можно рассматривать как «практически инструмент сортировки для снижения вреда».

«Вы предоставляете более широкий спектр сигналов об источнике контента, который работает в 95% случаев общения людей», — сказал он. «Но есть ещё 5–10% ситуаций, когда кто-то не использует водяной знак для сокрытия своей личности или удаления информации, или, возможно, это злоумышленник».

«Это не стопроцентное решение», — добавил Грегори.

TikTok и Adobe лидируют в области водяных знаков

Среди крупных социальных сетей китайский TikTok стал одним из первых, кто внедрил водяные знаки, требуя от пользователей максимальной прозрачности при использовании инструментов и эффектов ИИ в их контенте, сообщили FedScoop три специалиста по ИИ. Более того, компания создала культуру, поощряющую пользователей не стесняться рассказывать о роли ИИ в изменении их видео и фотографий в увлекательной форме.

«TikTok показывает использованную звуковую дорожку, показывает, как был сделан монтаж, показывает, какие эффекты ИИ были использованы», — сказал Грегори. И будучи «самой популярной платформой среди молодёжи», TikTok позволяет «легко и удобно сообщать о том, как был создан контент с использованием ИИ».

TikTok недавно анонсировал новые метки для раскрытия контента, созданного с помощью ИИ. В заявлении социальной сети говорится, что её политика «требует от пользователей маркировать контент, созданный с помощью ИИ, содержащий реалистичные изображения, аудио или видео, чтобы помочь зрителям контекстуализировать видео и предотвратить потенциальное распространение вводящего в заблуждение контента. Теперь создатели контента могут делать это с помощью новой метки (или других способов раскрытия информации, таких как стикер или подпись)».

Мы поняли, что не можем постоянно выходить вперед, чтобы определить, является ли что-то ложным, поэтому мы решили перевернуть это и сказать: «Давайте предположим, что все будут ожидать, что это правда».

Джеффри Янг, старший менеджер-консультант по решениям Adobe, рассказывает о подходе компании к обеспечению подлинности контента.
Крупные разработчики ИИ, включая Adobe и Microsoft, также поддерживают некоторые формы маркировки ИИ в своих продуктах. Оба технологических гиганта являются членами Коалиции за происхождение и подлинность контента (C2PA) , которая борется с распространением дезинформации в интернете посредством разработки технических стандартов для подтверждения источника и истории онлайн-контента.

Джеффри Янг, старший менеджер-консультант по решениям в Adobe, заявил, что компания «приложила большие усилия для реализации инициативы по обеспечению подлинности контента» во многом из-за осведомленности о том, что злоумышленники используют Photoshop для манипулирования изображениями «в гнусных целях».

«Мы поняли, что не можем постоянно выходить вперёд, определяя, является ли что-то ложным, поэтому мы решили перевернуть ситуацию и сказать: „Давайте сделаем так, чтобы все ожидали, что это правда“», — сказал Янг. «Поэтому мы работаем с производителями камер, с веб-сайтами, которые занимаются их конечным продуктом, чтобы они могли перевернуть изображение и сказать: это было создано [Министерством внутренней безопасности], они его подписали, это подтверждено, и оно не подвергалось манипуляциям с момента публикации».

Большинство крупных технологических компаний выступают за маркировку контента ИИ с помощью водяных знаков и работают над созданием прозрачных водяных знаков, но технологическая индустрия признает, что это упрощенное решение, и что необходимо предпринять и другие действия для комплексного сокращения дезинформации, генерируемой ИИ в Интернете.

Пол Лекас, старший вице-президент по глобальной государственной политике и государственным связям Ассоциации индустрии программного обеспечения и информации, заявил, что торговая группа, представляющая, среди прочего, Amazon, Apple и Google, «активно поддерживает» маркировку водяными знаками и аутентификацию происхождения, но признает, что эти меры «не решают всех существующих проблем».

«В идеале нам нужна система, где всё было бы понятно и прозрачно, но пока её нет», — сказал Лекас. «Я думаю, что ещё один аспект, который мы активно поддерживаем, — это нетехнический, а именно грамотность — медиаграмотность, цифровая грамотность людей — потому что мы не можем полагаться только на технологии для решения всех наших проблем».

В Вашингтоне набирает обороты внедрение водяных знаков с помощью искусственного интеллекта

Белый дом, некоторые федеральные агентства и многочисленные видные члены Конгресса сделали водяные знаки и сокращение дезинформации, генерируемой ИИ, первоочередной задачей, продвигая целый ряд предлагаемых решений по регулированию ИИ и созданию политических гарантий относительно этой технологии, когда речь идет о дипфейках и другом манипулятивном контенте.

В соответствии с октябрьским указом Байдена об ИИ Национальному институту стандартов и технологий Министерства торговли было поручено разработать стандарты аутентификации и водяных знаков для систем генеративного ИИ — в продолжение обсуждений в Сенате об аналогичных видах технологий проверки .

Алондра Нельсон, бывший глава Управления по научно-технической политике Белого дома, заявила в интервью FedScoop, что водяные знаки достаточно хорошо известны, и теперь это уже не «совершенно чуждый вид технологического вмешательства или тактика снижения рисков».

«Я думаю, что у нас уже достаточно опыта использования водяных знаков, которым люди должны воспользоваться», — сказала она. «Его необходимо применять в разных секторах и для решения разных проблем, например, для борьбы с сексуальным насилием над детьми и тому подобным».

Конгресс также внес несколько законопроектов, связанных с дезинформацией и водяными знаками с помощью ИИ, например, законопроект конгрессмена Иветт Кларк, демократа из Нью-Йорка, регулирующий дипфейки , обязывающий создателей контента маркировать определенный контент цифровыми водяными знаками и делающий преступлением нераспознавание вредоносных дипфейков, которые связаны с преступным поведением, подстрекательством к насилию или вмешательством в выборы.

В сентябре сенаторы Эми Клобушар (демократ от Миннесоты), Джош Хоули (республиканец от Миссури), Крис Кунс (демократ от Делавэра) и Сьюзан Коллинз (республиканец от штата Мэн) предложили новый двухпартийный законопроект, направленный на запрет использования вводящего в заблуждение контента, созданного искусственным интеллектом, на выборах. В октябре сенаторы Брайан Шатц (демократ от Гавайев) и Джон Кеннеди (республиканец от Луизианы) представили двухпартийный Закон о маркировке ИИ 2023 года , который потребует четкой маркировки и раскрытия информации о контенте, созданном искусственным интеллектом, и чат-ботах, чтобы потребители знали, когда они взаимодействуют с любым продуктом на базе ИИ.

Тем временем Федеральной избирательной комиссии было поручено установить новое правило, требующее от политических кампаний и групп раскрывать, когда их реклама включает контент, созданный с помощью искусственного интеллекта.

В отсутствие законопроектов об ИИ в Конгрессе, которые могли бы стать законом или получить значительный двухпартийный консенсус, Белый дом добивается того, чтобы технологические гиганты подписали добровольные обязательства в отношении ИИ , которые требуют таких шагов, как нанесение водяных знаков на контент, создаваемый ИИ. Adobe, IBM, Nvidia и другие поддерживают эту инициативу. Частные обязательства, поддержанные администрацией Байдена, рассматриваются как временная мера.

С точки зрения Нельсона, работа NIST по созданию стандартов водяных знаков для ИИ «выведет ее на новый уровень».

«Мы надеемся, что ИТ-директора и технические директора этим займутся», — сказала она. «Пока посмотрим»
 
Назад
Сверху Снизу