Представитель CISA: инструменты ИИ «должны управляться человеком»

  • Автор темы Автор темы LeSh1y777
  • Дата начала Дата начала

LeSh1y777

Пользователь
Регистрация
25/9/25
Сообщения
5,682
Репутация
49
Лайки
152
Депозит
-8.95$
Краткое изложение работы Агентства по кибербезопасности и безопасности инфраструктуры в области искусственного интеллекта выглядит примерно так: дюжина вариантов использования , пара завершенных настольных учений по безопасности ИИ и надежная дорожная карта того, как следует использовать эту технологию.

Лиза Эйнштейн, занявшая пост первого директора по искусственному интеллекту в CISA в августе и сыгравшая важнейшую роль во всех этих инициативах, считает себя оптимистом в отношении потенциала этой технологии, особенно в сфере киберзащиты. Однако, выступая в среду на двух отдельных мероприятиях в Вашингтоне, округ Колумбия, Эйнштейн смешивала этот оптимизм с некоторой долей осторожности.

«Эти инструменты — не волшебство, они всё ещё несовершенны, и им по-прежнему требуется участие человека, и их нужно использовать в контексте зрелых процессов кибербезопасности», — сказал Эйнштейн во время панельной дискуссии на саммите NVIDIA по искусственному интеллекту . «И в каком-то смысле это даже хорошая новость для всех нас, специалистов по кибербезопасности, поскольку это означает, что упор на основы и обеспечение надёжных процессов с участием человека остаются крайне важными, даже при использовании этих новых инструментов для автоматизации».

Позже в тот же день, на мероприятии Recorded Future Predict 2024 , Эйнштейн ещё раз подчеркнул эти комментарии, отметив, что «золотая лихорадка ИИ», охватившая технологический сектор, возможно, привела к тому, что люди, возможно, слишком воодушевлены кодом, генерируемым ИИ. На самом деле, ИИ вызывает немало беспокойства, поскольку, как было замечено, он «повторяет проблемы безопасности программного обеспечения предыдущих поколений».

«ИИ учится на данных, а люди исторически очень плохо справляются с внедрением безопасности в свой код», — сказала она. «Человеческие процессы для всех этих аспектов безопасности будут иметь первостепенное значение. Ваши процессы обеспечения безопасности программного обеспечения не будут просто исправлены каким-то волшебным, мистическим инструментом ИИ».

Подобные оценки, проводимые Einstein, стали возможны отчасти благодаря многолетнему опыту CISA в работе с коммерческими продуктами на основе искусственного интеллекта, а также недавним разработкам агентства с использованием ряда специализированных инструментов. В частности, она упомянула систему обратной разработки вредоносных программ, которая использует машинное обучение для помощи аналитикам в диагностике вредоносного кода.

По словам Эйнштейна, для этого инструмента ИИ и ему подобных человеческий контроль по-прежнему абсолютно необходим.

«У нас пока нет ситуации, когда какой-то ИИ-агент будет отвечать за всю нашу киберзащиту», — сказала она. «И я думаю, мы должны реалистично оценить, насколько важно по-прежнему держать людей в курсе всех наших задач кибербезопасности».

За последние месяцы CISA удалось продемонстрировать ориентацию на человека в ходе двух настольных учений, организованных Объединенным комитетом по киберзащите. Эйнштейн рассказал на обоих мероприятиях в среду об усилиях JCDC в области искусственного интеллекта, подчеркнув решение агентства привлечь новых отраслевых партнёров, специализирующихся на новых технологиях.

«Компании, занимающиеся ИИ, являются частью ИТ-сектора, частью критической инфраструктуры, и им необходимо понимать, как они могут обмениваться информацией с CISA и друг с другом в случае возможных инцидентов или угроз, связанных с ИИ», — сказала она.

Первые настольные учения JCDC по безопасности с использованием ИИ прошли в июне, а вторые завершились «всего пару недель назад», сообщила Эйнштейн. Следующей задачей группы станет публикация этой осенью руководства по сотрудничеству в области безопасности с использованием ИИ, которое, как она надеется, будет «полезным… в контексте будущих угроз и инцидентов».

«Мы надеемся, что это сообщество сможет и дальше развивать эту мышечную память о сотрудничестве», — сказала она, — «потому что сейчас крайне сложно налаживать новые связи во время кризиса. Нам необходимо, чтобы эти прочные отношения укрепляли доверие ещё до того, как разразится какой-либо кризис».

Частью антикризисного планирования CISA на ближайшие месяцы станет второй этап оценки рисков, требуемый указом Белого дома об искусственном интеллекте. Эйнштейн заявил, что агентство уже «глубоко» занимается вторым этапом оценки и планирует завершить его в январе. Тем временем Эйнштейн дал несколько советов государственным и частным киберспециалистам, рассматривающим возможность использования этой технологии.

«Не будьте решением, ищущим проблему; сосредоточьтесь на проблеме, которую пытаетесь решить, а затем используйте лучшие доступные средства автоматизации или человека, чтобы решить её», — сказала она. «Если у вас есть молоток с искусственным интеллектом, это не значит, что всё вокруг — гвозди, верно?»
 
Назад
Сверху Снизу