AI-инструмент Amazon удалил окружение и вызвал 13-часовой сбой

AI-инструмент Amazon удалил окружение и вызвал 13-часовой сбой

Издание Financial Times раскрыло интересную историю. Декабрьские сбои в Amazon Web Services были напрямую связаны с их собственными инструментами на базе искусственного интеллекта.

Самая показательная история произошла в середине декабря. Инженеры AWS поручили AI-кодеру Kiro внести определенные изменения в систему. Это агентный AI, способный самостоятельно принимать решения и выполнять действия.

Нейросеть посмотрела на задачу и прикинула варианты. Она приняла гениальное в своей простоте решение - давайте просто удалим и пересоздадим среду.

Итог этой самостоятельности оказался печальным. Клиенты столкнулись с 13-часовым простоем системы.

Представители AWS ожидаемо встали на защиту искусственного интеллекта. В комментарии Reuters они заявили, что восстания машин не было. Виноват, как всегда, человеческий фактор.

Этот короткий сбой стал результатом ошибки пользователя. А именно неправильно настроенных средств контроля доступа, а не работы AI, заявил представитель компании.

Проще говоря, нейросеть просто сделала то, что ей позволили сделать. Нечего давать AI права администратора, если система не готова к его радикальным идеям.

В AWS также попытались сгладить углы. Инцидент был крайне ограниченным. Пострадал всего один сервис в одном из регионов Китая. Вычислительные мощности, базы данных и другие сервисы AWS не задело.

Тем не менее новости звучат напряженно. Это происходит на фоне масштабного глобального сбоя AWS в октябре. Тогда легли Reddit, Roblox и Snapchat. Теперь AI-ассистенты удаляют окружения.

История поднимает важный вопрос о доверии автономному AI доступа к инфраструктуре. Это весело, пока он не решит поиграть в Таноса и не щелкнет пальцами.

Проблема в том, что AI-агенты мыслят по-своему. Для них удаление и пересоздание может казаться логичным решением. Они не понимают последствий простоя для бизнеса клиентов.

AWS права в том, что проблема в настройках доступа. Но это не снимает вопросов к самой идее давать AI такие полномочия. Даже с правильными настройками AI может принять решение, которое технически правильно, но практически катастрофично.

13 часов простоя - это серьезный инцидент для облачного провайдера. Компании теряют деньги, репутацию и клиентов. То, что пострадал только один регион в Китае, не делает ситуацию менее тревожной.

Инцидент показывает риски использования агентных AI-систем в критической инфраструктуре. Им нужны очень жесткие ограничения и многоуровневая система подтверждений для опасных операций.

Удаление окружения должно требовать явного подтверждения человека. AI не должен иметь возможность сделать это самостоятельно, какими бы правами доступа он ни обладал.

Александр Чернов
Александр Чернов

Журналист с техническим бэкграундом, пишущий о практических аспектах внедрения искусственного интеллекта. Бывший главред федерального издания. Любит сбалансированную подачу информации без хайпа.