В Министерстве обороны США разгорается скандал . Сотрудники Пентагона как минимум два дня активно использовали китайский ИИ-чатбот DeepSeek прямо со своих рабочих компьютеров, подключаясь напрямую к серверам в Китае. Это выяснилось из информации, предоставленной источником в оборонном ведомстве.
Ситуация настолько встревожила руководство, что Агентство оборонных информационных систем экстренно заблокировало доступ к сайту китайского стартапа. Правда, блокировка сработала не везде — на следующий день часть рабочих мониторов действительно показывала сообщение «Website Blocked», но некоторые сотрудники всё ещё могли пользоваться сервисом.
А ведь DeepSeek — это не просто очередной чатбот. Эта модель, разработанная всего за $6 млн (около 8.1 млн сингапурских долларов), буквально взорвала рынок. Она молниеносно взлетела на вершину Apple Store, заставив многих, включая известного техпредпринимателя Марка Андрессена, рассыпаться в похвалах. И это при том, что американские техгиганты вкладывают в разработку ИИ сотни миллиардов долларов!
Но история началась ещё раньше — оказывается, военные начали скачивать код более ранней версии DeepSeek на свои рабочие станции ещё осенью 2024 года. Тогда это не вызвало тревоги у служб безопасности, поскольку связь с Китаем не была очевидной. Теперь же военные службы в спешном порядке пытаются найти и удалить код китайских чатботов с компьютеров сотрудников.
Впрочем, тысячи сотрудников Минобороны продолжают использовать DeepSeek через авторизованную платформу Ask Sage, которая не подключается напрямую к китайским серверам, как подтвердил Николас Шайлан, основатель и CEO платформы.
Реакция различных родов войск оказалась неодинаковой. ВМС США 31 января полностью запретили использование DeepSeek из-за потенциальных проблем с безопасностью.
ВВС специальных указаний не выпускали, но у них уже действует запрет на использование конфиденциальной информации в коммерческих ИИ-системах без соответствующих разрешений.
А Сухопутные войска ещё в июне 2024 года выпустили рекомендации по управлению генеративным ИИ, предупреждая о «уникальных вызовах в области конфиденциальности данных, безопасности и контроля над генерируемым контентом».