Компания Lyptus Research, занимающаяся безопасностью ИИ, опубликовала исследование: наступательные киберспособности языковых моделей удваиваются каждые 5,7 месяца. С 2019 года темп был медленнее — раз в 9,8 месяца, но после 2024-го ускорился почти вдвое.
Исследователи использовали методику METR time-horizon — она измеряет, задачи какой сложности модель способна решать самостоятельно. Ориентир простой: сколько времени на ту же задачу потратил бы опытный специалист по безопасности.
В 2019 году GPT-2 справлялся с задачами, которые человек решает примерно за 30 секунд. Сейчас Opus 4.6 и GPT-5.3 Codex решают задачи уровня трёхчасовой работы эксперта — с вероятностью успеха 50% при бюджете в два миллиона токенов.
Если дать GPT-5.3 Codex больше ресурсов — десять миллионов токенов — временной горизонт вырастает с 3,1 до 10,5 часов. Авторы считают, что реальный прогресс они, скорее всего, недооценивают.
Открытые модели отстают от закрытых примерно на 5,7 месяца. То есть то, что GPT-5.3 Codex умеет сегодня, открытые модели смогут через полгода.
Исследование основано на 291 задаче, проверялось с участием десяти профессиональных специалистов по безопасности. Данные опубликованы на GitHub и Hugging Face.
Три часа работы эксперта — это уже серьёзный уровень: анализ уязвимостей, написание эксплойтов, обход защит. Через год при нынешней динамике планка поднимется до шести часов.