Глава ИИ-подразделения Microsoft Мустафа Сулейман охарактеризовал изучение благополучия ИИ как “преждевременное и откровенно опасное”. Позиция Microsoft контрастирует с подходом Anthropic, которая активно развивает специализированную исследовательскую программу в данной области.
Аргументация Microsoft базируется на потенциальных социальных рисках. Сулейман утверждает, что придание достоверности концепции машинного сознания усугубляет проблемы психических расстройств, связанных с ИИ, и нездоровой привязанности к чат-ботам.
Дополнительно он предупреждает о создании нового вектора общественного раскола в мире, “уже кипящем от поляризованных споров о правах и идентичности”.
Противоположный полюс представляет Anthropic, недавно запустившая функцию автономного завершения разговоров Claude с “постоянно вредными или агрессивными” пользователями. Компания активно набирает исследователей для изучения потенциального сознания ИИ-моделей и их прав.
Индустриальный консенсус отсутствует. OpenAI демонстрирует независимую поддержку исследований благополучия ИИ, в то время как Google DeepMind размещает вакансии для изучения “передовых социальных вопросов машинного познания, сознания и мультиагентных систем”.