Отчет IBM: безопасность ИИ отстает от темпов внедрения

IBM опубликовала ежегодный отчет Cost of a Data Breach Report, выявивший критический разрыв между темпами внедрения искусственного интеллекта и уровнем его защищенности. Согласно исследованию, 13% организаций сообщили о взломах ИИ-моделей или приложений, при этом 8% организаций не могут достоверно определить, подвергались ли они подобным атакам.

Исследование показало, что 97% организаций, столкнувшихся с компрометацией ИИ-систем, не имели внедренных механизмов контроля доступа к искусственному интеллекту. В результате 60% инцидентов, связанных с ИИ, привели к компрометации данных, а 31% вызвали нарушения в операционной деятельности компаний.

Интересуетесь ИИ? Международный клуб ShareAI Александра Горного - объединяет тех, кто хочет внедрить в свой бизнес или работу ИИ или погрузиться в эту тему. Онлайн и оффлайн.
Узнать подробнее про клуб ShareAI

«Данные показывают, что разрыв между внедрением ИИ и механизмами контроля уже существует, и злоумышленники начинают это эксплуатировать», — заявила Суджа Висвесан, вице-президент IBM по безопасности и продуктам среды выполнения. «Отчет выявил отсутствие базовых механизмов контроля доступа к ИИ-системам, что оставляет конфиденциальные данные незащищенными, а модели — уязвимыми для манипуляций».

Отчет за 2025 год, проведенный Институтом Понемона при поддержке и анализе IBM, основан на данных об утечках в 600 организациях по всему миру с марта 2024 по февраль 2025 года.

Исследование впервые включило анализ политик управления искусственным интеллектом, выявив, что 63% организаций, подвергшихся взлому, либо не имеют политики управления ИИ, либо находятся в процессе ее разработки. Среди тех, у кого такие политики внедрены, только 34% проводят регулярные аудиты на предмет несанкционированного использования ИИ.

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.