Руководитель Microsoft AI назвал опасными исследования сознания ИИ

Глава ИИ-подразделения Microsoft Мустафа Сулейман охарактеризовал изучение благополучия ИИ как «преждевременное и откровенно опасное». Позиция Microsoft контрастирует с подходом Anthropic, которая активно развивает специализированную исследовательскую программу в данной области.

Аргументация Microsoft базируется на потенциальных социальных рисках. Сулейман утверждает, что придание достоверности концепции машинного сознания усугубляет проблемы психических расстройств, связанных с ИИ, и нездоровой привязанности к чат-ботам.

Интересуетесь ИИ? Международный клуб ShareAI Александра Горного - объединяет тех, кто хочет внедрить в свой бизнес или работу ИИ или погрузиться в эту тему. Онлайн и оффлайн.
Узнать подробнее про клуб ShareAI

Дополнительно он предупреждает о создании нового вектора общественного раскола в мире, «уже кипящем от поляризованных споров о правах и идентичности».

Противоположный полюс представляет Anthropic, недавно запустившая функцию автономного завершения разговоров Claude с «постоянно вредными или агрессивными» пользователями. Компания активно набирает исследователей для изучения потенциального сознания ИИ-моделей и их прав.

Индустриальный консенсус отсутствует. OpenAI демонстрирует независимую поддержку исследований благополучия ИИ, в то время как Google DeepMind размещает вакансии для изучения «передовых социальных вопросов машинного познания, сознания и мультиагентных систем».

Автор: Анна Маркова
Специализируется на технологической журналистике с фокусом на искусственный интеллект. Пишет о реальном применении ИИ в бизнесе и повседневной жизни.