Глава ИИ-подразделения Microsoft Мустафа Сулейман охарактеризовал изучение благополучия ИИ как «преждевременное и откровенно опасное». Позиция Microsoft контрастирует с подходом Anthropic, которая активно развивает специализированную исследовательскую программу в данной области.
Аргументация Microsoft базируется на потенциальных социальных рисках. Сулейман утверждает, что придание достоверности концепции машинного сознания усугубляет проблемы психических расстройств, связанных с ИИ, и нездоровой привязанности к чат-ботам.
Узнать подробнее про клуб ShareAI
Дополнительно он предупреждает о создании нового вектора общественного раскола в мире, «уже кипящем от поляризованных споров о правах и идентичности».
Противоположный полюс представляет Anthropic, недавно запустившая функцию автономного завершения разговоров Claude с «постоянно вредными или агрессивными» пользователями. Компания активно набирает исследователей для изучения потенциального сознания ИИ-моделей и их прав.
Индустриальный консенсус отсутствует. OpenAI демонстрирует независимую поддержку исследований благополучия ИИ, в то время как Google DeepMind размещает вакансии для изучения «передовых социальных вопросов машинного познания, сознания и мультиагентных систем».