ФБР предупреждает о поддельных текстовых сообщениях и фейковых звонках от имени высокопоставленных чиновников США

  • Автор темы Автор темы LeSh1y777
  • Дата начала Дата начала

LeSh1y777

Пользователь
Регистрация
25/9/25
Сообщения
5,682
Репутация
49
Лайки
152
Депозит
-8.95$
Вчетверг ФБР заявило, что злоумышленники выдавали себя за высокопоставленных чиновников правительства США, участвуя в текстовых и голосовых сообщениях, используя фишинговые текстовые сообщения и сгенерированные искусственным интеллектом аудиозаписи, чтобы обманом заставить других государственных чиновников предоставить доступ к своим личным аккаунтам.

В предупреждении содержалось мало подробностей о кампании, которая началась в апреле и, по всей видимости, продолжается до сих пор. Сообщения приходили в виде текстовых сообщений или аудиозаписей, имитирующих дипфейк, от высокопоставленных чиновников США, и в основном рассылались «действующим или бывшим высокопоставленным чиновникам федерального или регионального правительства США и их контактам» с целью получения доступа к их аккаунтам.

Теперь ФБР предупреждает общественность: «Если вы получили сообщение, якобы отправленное высокопоставленным чиновником США, не считайте его подлинным».

Это очередной пример того, как злоумышленники используют искусственный интеллект и методы дипфейка для реалистичной имитации голоса и внешнего вида других людей. По мере того, как крупные языковые модели расширялись и совершенствовались в создании реалистичных видео- и аудиоизображений, их использование в фишинговых схемах и мошеннических кампаниях резко возросло.

Пожалуй, самым известным примером использования этой технологии на сегодняшний день стала глубокая фейковая имитация тогдашнего президента Джо Байдена в преддверии президентских выборов в Нью-Гэмпшире в 2024 году. Политический консультант Стив Крамер, работавший с кандидатом от Демократической партии на праймериз Дином Филлипсом, руководил созданием аудиозаписи, в которой демократам рекомендовали не ходить на избирательные участки и которая была отправлена избирателям за несколько дней до праймериз.

За этот инцидент Крамер был оштрафован Федеральной комиссией по связи на 6 миллионов долларов и ему грозит уголовное обвинение в попытке давления на избирателей путем ложной выдачи себя за кандидата в Нью-Гэмпшире.

Однако использование аудиозаписей с глубокой подделкой в более обычных финансовых мошенничествах и более сложных шпионских и киберпреступных схемах резко возросло с момента появления этой технологии.

Опасения усиливаются и после того, как новостные агентства сообщили, что несколько высокопоставленных членов администрации Трампа общаются и координируют политику правительства США со своих личных телефонов, используя небезопасные сторонние версии зашифрованных приложений для обмена сообщениями, таких как Signal.

Существуют лишь ограниченные меры защиты от эксплуатации этих технологий, помимо бдительности и соблюдения стандартных рекомендаций по безопасности, таких как недоверие неизвестным звонкам, подтверждение личности путем звонка по официальным номерам и использование многофакторной аутентификации для защиты учетных записей.

На слушаниях в Палате представителей в тот же день председатель Федеральной торговой комиссии Эндрю Фергюсон заявил, что борьба с имитацией искусственного интеллекта является одним из главных приоритетов агентства в рамках новых законов, таких как Закон о запрете на использование ИИ .

«Не знаю, звонил ли кому-нибудь кто-нибудь от имени своего близкого, но у меня есть друзья, которым звонили от имени членов семьи», — сказал Фергюсон законодателям. «Это действительно ужасающий опыт».

Джон Халтквист, главный аналитик Google Threat Intelligence Group, написал в электронном письме CyberScoop, что «злоумышленники и раньше могли подделывать контент, но ИИ, безусловно, упростил этот процесс и позволил им делать это в больших масштабах».

«Они уже несколько лет используют ИИ для создания видео, текста и аудио, — добавил он. — И их навыки явно улучшаются».

Эта статья была обновлена 15 мая комментариями председателя FTC Халтквиста из Google.
 
Назад
Сверху Снизу