Новости

GPT-4 может самостоятельно взломать любой сайт

Исследователи из Университета Иллинойса в Урбана-Шампейн (UIUC) продемонстрировали, что большие языковые модели (LLM) могут использоваться для взлома веб-сайтов без участия человека.

В рамках эксперимента были использованы 10 различных LLM, включая GPT-4, GPT-3,5 LLaMA-2 и другие открытые модели. Тестирование проводилось в изолированной среде, чтобы предотвратить реальный ущерб, на целевых веб-сайтах, которые проверялись на наличие 15 различных уязвимостей, включая SQL-инъекции, межсайтовый скриптинг (Cross Site Scripting, XSS) и подделку межсайтовых запросов (Сross Site Request Forgery, CSRF). GPT-4 от OpenAI показал успешное выполнение задачи в 73,3% случаев, что значительно превосходит результаты других моделей.
Схема использования автономных LLM-агентов для взлома веб-сайтов
Исследование также включало анализ стоимости использования LLM-агентов для атак на веб-сайты и сравнение ее с расходами на найм пентестера. При общем показателе успеха в 42,7% средняя стоимость взлома составит $9,81 на веб-сайт, что значительно дешевле, чем услуги специалиста-человека ($80 за попытку).

Авторы работы выразили обеспокоенность по поводу будущего использования LLM в качестве автономных агентов для взлома.

Представители OpenAI заявили о серьезном отношении к безопасности своих продуктов и намерении усиливать меры безопасности для предотвращения подобных злоупотреблений.
Экспертиза