В Google убрали запрет на разработку оружия из принципов работы с ИИ

Google внесла важные изменения в свои принципы работы с ИИ. Убрав из них запрет на использование технологии в потенциально вредных целях, включая разработку оружия. Ранее компания официально заявляла, что не будет разрабатывать «технологии, которые могут причинить вред», но теперь этот раздел исчез с её публичной страницы.

В ответ на запрос Bloomberg о причинах изменений представитель Google сослался на блог-пост, опубликованный 4 февраля. В нём старший вице-президент Google Джеймс Маника и глава Google DeepMind Демис Хассабис заявили, что демократические страны должны лидировать в развитии ИИ, руководствуясь ценностями свободы, равенства и прав человека. По их словам, компании, государства и организации с этими общими ценностями должны совместно работать над созданием ИИ, который защищает людей, способствует глобальному развитию и поддерживает национальную безопасность.

Однако такие изменения вызвали резкую критику со стороны экспертов по этике ИИ. Бывший со-глава отдела этического ИИ Google Маргарет Митчелл заявила, что удаление этого пункта стирает многолетнюю работу специалистов в области ответственного ИИ и открывает путь к разработке технологий, способных убивать. По её словам, это особенно тревожно, так как ранее Google дистанцировалась от проектов, связанных с вооружением, например, от участия в программе Пентагона Maven.

Трейси Пиццо Фрей, возглавлявшая отдел Responsible AI в Google Cloud с 2017 по 2022 год, также выразила обеспокоенность. Она подчеркнула, что принципы ответственного ИИ помогали сотрудникам компании оценивать риски технологий и формировать доверие к продуктам Google.

Этот шаг Google отражает более широкую тенденцию среди крупных технологических компаний к пересмотру своих этических обязательств. В январе Meta свернула свои инициативы по разнообразию и инклюзии, а Amazon приостановил аналогичные программы, назвав их устаревшими. Изменение политики Google может означать её готовность сотрудничать с государственными структурами в области национальной безопасности и военных технологий, что потенциально может вызвать внутренние протесты сотрудников, как это уже происходило в прошлом.

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.