Две трети компаний не контролируют утечки данных через нейросети

Аналитики ГК Солар изучили трафик 150 компаний на предмет утечек в ИИ-сервисы. За год объем данных, отправляемых в нейросети, вырос в 30 раз. При этом 60% российских организаций не имеют правил, регулирующих работу с ИИ.

Сотрудники массово используют публичные ИИ-сервисы. Это стало новым каналом утечек корпоративной информации. Искусственный интеллект превратился во второй Shadow IT.

Интересуетесь ИИ? Международный клуб ShareAI Александра Горного - объединяет тех, кто хочет внедрить в свой бизнес или работу ИИ или погрузиться в эту тему. Онлайн и оффлайн.
Узнать подробнее про клуб ShareAI

Работники загружают в нейросети конфиденциальные данные. Презентации, стратегии, таблицы и код попадают в публичный доступ. Злоумышленники осваивают ИИ быстрее защитников. Раньше на перестройку DDoS-атаки уходило до часа. С помощью ИИ это время сократилось до минуты.

«Компании вынуждены контролировать поток данных, чтобы минимизировать риски. Важным элементом защиты становится контроль канала взаимодействия с ИИ-сервисами», — говорит Анастасия Хвещеник, руководитель продукта Solar webProxy.

Исследование охватило клиентов из госсектора, финансов, промышленности, ритейла, e-commerce, телекома и ИТ. Сотрудники загружают в ChatGPT, Google Gemini и другие боты код, финансовые отчеты, юридические документы и клиентские базы.

46% конфиденциальных файлов попадают в нейросети через ChatGPT. Это самая популярная модель. 60% организаций не имеют AI-governance политик.

По данным СберАналитики, 40% российских ИТ-компаний внедрили проекты на базе генеративного ИИ. Лишь 8% организаций не применяют эту технологию. В 45% компаний созданы отделы по искусственному интеллекту.

Реальные инциденты подтверждают риски. В США глава Агентства по кибербезопасности загрузил служебные документы в ChatGPT. Среди них были контракты с пометкой «for official use only».

Инженеры Samsung использовали ChatGPT для проверки кода и транскрипций совещаний. Фрагменты секретного кода оказались на серверах OpenAI. Компания экстренно ввела ограничения и начала разработку собственного ИИ-инструмента.

Сотни тысяч разговоров с Grok Илона Маска оказались в индексе Google. Функция «поделиться чатом» делала переписку доступной для поисковых роботов. В сети оказались запросы на пароли, планы питания и инструкции по изготовлению запрещенных веществ.

Решение — гранулярные политики безопасности. Они позволяют разрешать, ограничивать или запрещать конкретные нейросети. Важно контролировать трафик, тип данных и блокировать опасные ответы.

Автор: Юлия Самойлова
Пишет о технологиях искусственного интеллекта с 2019 года. Специализируется на материалах о практическом применении ИИ в различных отраслях.