Руководитель Microsoft AI назвал опасными исследования сознания ИИ

Руководитель Microsoft AI назвал опасными исследования сознания ИИ

Глава ИИ-подразделения Microsoft Мустафа Сулейман охарактеризовал изучение благополучия ИИ как “преждевременное и откровенно опасное”. Позиция Microsoft контрастирует с подходом Anthropic, которая активно развивает специализированную исследовательскую программу в данной области.

Аргументация Microsoft базируется на потенциальных социальных рисках. Сулейман утверждает, что придание достоверности концепции машинного сознания усугубляет проблемы психических расстройств, связанных с ИИ, и нездоровой привязанности к чат-ботам.

Дополнительно он предупреждает о создании нового вектора общественного раскола в мире, “уже кипящем от поляризованных споров о правах и идентичности”.

Противоположный полюс представляет Anthropic, недавно запустившая функцию автономного завершения разговоров Claude с “постоянно вредными или агрессивными” пользователями. Компания активно набирает исследователей для изучения потенциального сознания ИИ-моделей и их прав.

Индустриальный консенсус отсутствует. OpenAI демонстрирует независимую поддержку исследований благополучия ИИ, в то время как Google DeepMind размещает вакансии для изучения “передовых социальных вопросов машинного познания, сознания и мультиагентных систем”.

Анна Маркова
Анна Маркова

Специализируется на технологической журналистике с фокусом на искусственный интеллект. Пишет о реальном применении ИИ в бизнесе и повседневной жизни.