Уязвимость в API ChatGPT может стать причиной DDoS-атак на целевые веб-сайты, но, по словам обнаружившего ее исследователя безопасности, эта уязвимость уже устранена компанией OpenAI.
В рекомендациях по безопасности, опубликованных на платформе разработчиков GitHub, немецкий исследователь по безопасности Бенджамин Флеш подробно описал ошибку, которая возникает, когда API обрабатывает запросы HTTP POST к внутреннему серверу.
API настроен на получение гиперссылок в виде URL-адресов, но, по словам Флеша, «плохим программированием» OpenAI не ограничил количество URL-адресов, которые можно включить в один запрос. Эта ошибка позволяет злоумышленнику втиснуть тысячи URL-адресов в один запрос, что может привести к перегрузке трафика на целевом веб-сайте.
«В зависимости от количества гиперссылок, передаваемых OpenAI через параметр URLs, большое количество соединений с серверов OpenAI может привести к перегрузке сайта-жертвы», — написал Флеш. «Этот программный дефект значительно увеличивает вероятность потенциальных DDoS-атак».
Флеш опубликовал прототипный код, демонстрирующий, что уязвимость может быть использована для перегрузки локального хоста попытками подключения от серверов OpenAI. Уязвимости был присвоен рейтинг CVSS 8,6, поскольку она является сетевой, несложной и не требует повышенных привилегий или взаимодействия с пользователем для эксплуатации.
Флеш сообщил, что уязвимость была обнаружена в этом месяце, а страница об этой уязвимости на GitHub была впервые создана 10 января. Информация об этой проблеме была доведена до сведения OpenAI и Microsoft, которой принадлежат серверы, генерирующие запросы, в соответствии с правилами ответственного раскрытия информации. В обновлении Флеш отметил, что с тех пор OpenAI отключила уязвимую конечную точку, а код проверки концепции больше не работает.
Однако изначально в сообщении выражалось сожаление, что «к сожалению, не удалось получить реакцию ни от [Microsoft, ни от OpenAI] в положенное время, хотя было предпринято множество попыток устранить этот программный дефект».
Эти усилия включали обращение в службу безопасности OpenAI через её аккаунт на BugCrowd, отправку электронных писем на адрес электронной почты OpenAI для отправки сообщений об ошибках, специалисту по защите данных и службам поддержки, а также обращение к исследователям безопасности OpenAI через их страницы на GitHub. Он также утверждал, что сообщил о проблеме службе безопасности Microsoft по электронной почте, через онлайн-формы и даже через Cloudflare, поставщика услуг Microsoft.
По словам Флеша, эти призывы изначально игнорировались или отклонялись, пока новостные агентства не начали сообщать об ошибке.
CyberScoop обратился за комментариями к OpenAI и Microsoft.
Поскольку общественность стала больше интересоваться большими языковыми моделями, такими как та, что лежит в основе ChatGPT, то же самое произошло и со специалистами по безопасности, которые стремятся проверить и проверить эти новые системы на наличие уязвимостей.
Однако такие компании, как OpenAI, в значительной степени стремятся ограничить доступ сторонних исследователей безопасности к своим технологиям, что, по опасениям экспертов по кибербезопасности, может сузить фокус их исследований и ограничить их возможность открыто говорить о проблемах безопасности.
В OpenAI действует политика использования , запрещающая обход защитных мер и мер безопасности в их программном обеспечении «если это не поддерживается OpenAI». Компания создала сеть внешних экспертов, которые ищут уязвимости безопасности под руководством и контролем OpenAI.
В рекомендациях по безопасности, опубликованных на платформе разработчиков GitHub, немецкий исследователь по безопасности Бенджамин Флеш подробно описал ошибку, которая возникает, когда API обрабатывает запросы HTTP POST к внутреннему серверу.
API настроен на получение гиперссылок в виде URL-адресов, но, по словам Флеша, «плохим программированием» OpenAI не ограничил количество URL-адресов, которые можно включить в один запрос. Эта ошибка позволяет злоумышленнику втиснуть тысячи URL-адресов в один запрос, что может привести к перегрузке трафика на целевом веб-сайте.
«В зависимости от количества гиперссылок, передаваемых OpenAI через параметр URLs, большое количество соединений с серверов OpenAI может привести к перегрузке сайта-жертвы», — написал Флеш. «Этот программный дефект значительно увеличивает вероятность потенциальных DDoS-атак».
Флеш опубликовал прототипный код, демонстрирующий, что уязвимость может быть использована для перегрузки локального хоста попытками подключения от серверов OpenAI. Уязвимости был присвоен рейтинг CVSS 8,6, поскольку она является сетевой, несложной и не требует повышенных привилегий или взаимодействия с пользователем для эксплуатации.
Флеш сообщил, что уязвимость была обнаружена в этом месяце, а страница об этой уязвимости на GitHub была впервые создана 10 января. Информация об этой проблеме была доведена до сведения OpenAI и Microsoft, которой принадлежат серверы, генерирующие запросы, в соответствии с правилами ответственного раскрытия информации. В обновлении Флеш отметил, что с тех пор OpenAI отключила уязвимую конечную точку, а код проверки концепции больше не работает.
Однако изначально в сообщении выражалось сожаление, что «к сожалению, не удалось получить реакцию ни от [Microsoft, ни от OpenAI] в положенное время, хотя было предпринято множество попыток устранить этот программный дефект».
Эти усилия включали обращение в службу безопасности OpenAI через её аккаунт на BugCrowd, отправку электронных писем на адрес электронной почты OpenAI для отправки сообщений об ошибках, специалисту по защите данных и службам поддержки, а также обращение к исследователям безопасности OpenAI через их страницы на GitHub. Он также утверждал, что сообщил о проблеме службе безопасности Microsoft по электронной почте, через онлайн-формы и даже через Cloudflare, поставщика услуг Microsoft.
По словам Флеша, эти призывы изначально игнорировались или отклонялись, пока новостные агентства не начали сообщать об ошибке.
CyberScoop обратился за комментариями к OpenAI и Microsoft.
Поскольку общественность стала больше интересоваться большими языковыми моделями, такими как та, что лежит в основе ChatGPT, то же самое произошло и со специалистами по безопасности, которые стремятся проверить и проверить эти новые системы на наличие уязвимостей.
Однако такие компании, как OpenAI, в значительной степени стремятся ограничить доступ сторонних исследователей безопасности к своим технологиям, что, по опасениям экспертов по кибербезопасности, может сузить фокус их исследований и ограничить их возможность открыто говорить о проблемах безопасности.
В OpenAI действует политика использования , запрещающая обход защитных мер и мер безопасности в их программном обеспечении «если это не поддерживается OpenAI». Компания создала сеть внешних экспертов, которые ищут уязвимости безопасности под руководством и контролем OpenAI.