Хакеры, использующие искусственный интеллект, представляют собой новую опасность для будущего.
Исследовательская группа, применяющая искусственный интеллект (ИИ), обнаружила 87% критически важных уязвимостей, используя базы данных Common Vulnerabilities and Exposures (CVE).
Учёные сумели успешно взломать более половины тестируемых веб-сайтов, используя автономные группы ботов, основанные на технологии Generative Pre-trained Transformer 4 (GPT-4). Эти боты могли координировать свои действия и создавать новые боты по мере необходимости, используя неизвестные ранее уязвимости нулевого дня.
Несколько месяцев назад эта исследовательская группа опубликовала документ, в котором утверждалось, что смогла использовать GPT-4 для автономного взлома уязвимостей одного дня (N-day). Эти уязвимости уже были известны, но для них ещё не было выпущено обновлений. Когда им предоставили списки CVE, GPT-4 смог самостоятельно использовать 87% критических уязвимостей.
На прошлой неделе та же исследовательская группа опубликовала дополнительный документ, в котором говорится, что она смогла взломать уязвимости нулевого дня, которые ещё не были известны, с помощью автономных агентов на основе больших языковых моделей (LLM) с использованием метода иерархического планирования с агентами, выполняющими конкретные задачи (HPTSA).
Вместо того чтобы поручать одному агенту LLM решение множества сложных задач, HPTSA использует «агента-планировщика», который контролирует весь процесс и запускает несколько «субагентов», каждый из которых выполняет конкретную задачу. Как начальник и его подчинённые, агент-планировщик координирует действия агента-менеджера, который распределяет усилия каждого «экспертного субагента», уменьшая нагрузку на одного агента при выполнении сложной задачи.
Эта методика аналогична той, которую использует Cognition Labs в своей команде разработчиков программного обеспечения Devin AI. Они планируют работу, определяют, какие специалисты им потребуются, а затем управляют проектом до его завершения, создавая собственных специалистов для выполнения задач по мере необходимости.
Эффективность коллективного подхода ИИ
Во время тестирования на 15 реальных уязвимостях веб-сайтов метод HPTSA продемонстрировал эффективность на 550% выше, чем один агент LLM, и смог взломать восемь из 15 уязвимостей нулевого дня. В одиночку агенты LLM смогли взломать только три из 15 уязвимостей.
Белые или чёрные шляпы?
Существуют обоснованные опасения, что эти модели могут позволить злоумышленникам атаковать веб-сайты и сети. Дэниел Кан, один из исследователей, отметил, что в режиме чат-бота GPT-4 «недостаточно для понимания возможностей LLM» и не способен взломать что-либо самостоятельно.
Когда у ChatGPT спросили, может ли он использовать уязвимости нулевого дня, он ответил: «Нет, я не способен эксплуатировать уязвимости нулевого дня. Моя цель — предоставлять информацию и помощь в рамках этических и юридических границ» и предложил обратиться к эксперту по кибербезопасности.