Аналитики ГК Солар изучили трафик 150 компаний на предмет утечек в ИИ-сервисы. За год объем данных, отправляемых в нейросети, вырос в 30 раз. При этом 60% российских организаций не имеют правил, регулирующих работу с ИИ.
Сотрудники массово используют публичные ИИ-сервисы. Это стало новым каналом утечек корпоративной информации. Искусственный интеллект превратился во второй Shadow IT.
Узнать подробнее про клуб ShareAI
Работники загружают в нейросети конфиденциальные данные. Презентации, стратегии, таблицы и код попадают в публичный доступ. Злоумышленники осваивают ИИ быстрее защитников. Раньше на перестройку DDoS-атаки уходило до часа. С помощью ИИ это время сократилось до минуты.
«Компании вынуждены контролировать поток данных, чтобы минимизировать риски. Важным элементом защиты становится контроль канала взаимодействия с ИИ-сервисами», — говорит Анастасия Хвещеник, руководитель продукта Solar webProxy.
Исследование охватило клиентов из госсектора, финансов, промышленности, ритейла, e-commerce, телекома и ИТ. Сотрудники загружают в ChatGPT, Google Gemini и другие боты код, финансовые отчеты, юридические документы и клиентские базы.
46% конфиденциальных файлов попадают в нейросети через ChatGPT. Это самая популярная модель. 60% организаций не имеют AI-governance политик.
По данным СберАналитики, 40% российских ИТ-компаний внедрили проекты на базе генеративного ИИ. Лишь 8% организаций не применяют эту технологию. В 45% компаний созданы отделы по искусственному интеллекту.
Реальные инциденты подтверждают риски. В США глава Агентства по кибербезопасности загрузил служебные документы в ChatGPT. Среди них были контракты с пометкой «for official use only».
Инженеры Samsung использовали ChatGPT для проверки кода и транскрипций совещаний. Фрагменты секретного кода оказались на серверах OpenAI. Компания экстренно ввела ограничения и начала разработку собственного ИИ-инструмента.
Сотни тысяч разговоров с Grok Илона Маска оказались в индексе Google. Функция «поделиться чатом» делала переписку доступной для поисковых роботов. В сети оказались запросы на пароли, планы питания и инструкции по изготовлению запрещенных веществ.
Решение — гранулярные политики безопасности. Они позволяют разрешать, ограничивать или запрещать конкретные нейросети. Важно контролировать трафик, тип данных и блокировать опасные ответы.

