IBM опубликовала ежегодный отчет Cost of a Data Breach Report, выявивший критический разрыв между темпами внедрения искусственного интеллекта и уровнем его защищенности. Согласно исследованию, 13% организаций сообщили о взломах ИИ-моделей или приложений, при этом 8% организаций не могут достоверно определить, подвергались ли они подобным атакам.
Исследование показало, что 97% организаций, столкнувшихся с компрометацией ИИ-систем, не имели внедренных механизмов контроля доступа к искусственному интеллекту. В результате 60% инцидентов, связанных с ИИ, привели к компрометации данных, а 31% вызвали нарушения в операционной деятельности компаний.
Узнать подробнее про клуб ShareAI
«Данные показывают, что разрыв между внедрением ИИ и механизмами контроля уже существует, и злоумышленники начинают это эксплуатировать», — заявила Суджа Висвесан, вице-президент IBM по безопасности и продуктам среды выполнения. «Отчет выявил отсутствие базовых механизмов контроля доступа к ИИ-системам, что оставляет конфиденциальные данные незащищенными, а модели — уязвимыми для манипуляций».
Отчет за 2025 год, проведенный Институтом Понемона при поддержке и анализе IBM, основан на данных об утечках в 600 организациях по всему миру с марта 2024 по февраль 2025 года.
Исследование впервые включило анализ политик управления искусственным интеллектом, выявив, что 63% организаций, подвергшихся взлому, либо не имеют политики управления ИИ, либо находятся в процессе ее разработки. Среди тех, у кого такие политики внедрены, только 34% проводят регулярные аудиты на предмет несанкционированного использования ИИ.