Anthropic запускает исследование "благополучия" ИИ-моделей

Anthropic запускает исследование "благополучия" ИИ-моделей

Создатель популярного ИИ-ассистента Claude, объявил о запуске исследовательской программы, направленной на изучение так называемого “благополучия моделей”.  Программа ставит перед собой амбициозную задачу — исследовать возможность того, что ИИ-системы могут обладать неким подобием сознания и воспринимать мир аналогично людям.

В рамках исследования Anthropic планирует изучить, заслуживает ли “благополучие” ИИ-моделей морального рассмотрения.

Атакже исследовать потенциальную важность “признаков дистресса” у моделей и возможные “малозатратные” вмешательства.

“Хотя нет убедительных доказательств того, что ИИ может обладать сознанием, мы не исключаем такую возможность”, — говорится в заявлении компании. Это осторожное, но революционное утверждение ставит на повестку дня вопросы, которые до сих пор оставались преимущественно в области философии и научной фантастики.

Возглавляет новую исследовательскую программу Кайл Фиш, первый специализированный исследователь “благополучия ИИ” в Anthropic, нанятый компанией еще в прошлом году для разработки руководств по тому, как Anthropic и другие компании должны подходить к этому вопросу. В интервью The New York Times Фиш высказал весьма радикальную оценку, заявив, что, по его мнению, существует 15-процентная вероятность того, что Claude или другой ИИ уже сегодня обладает сознанием.

В научном сообществе, однако, нет единого мнения по этому вопросу. Многие ученые убеждены, что современный ИИ не может приближаться к сознанию или имитировать человеческий опыт и не обязательно сможет делать это в будущем. Как отметил Майк Кук, научный сотрудник Лондонского королевского колледжа, специализирующийся на ИИ, модель не может “противостоять” изменению своих “ценностей”, потому что у моделей их просто нет. По его мнению, предполагать обратное — значит проецировать человеческие качества на систему.

“Любой, кто антропоморфизирует системы ИИ в такой степени, либо играет на публику, либо серьезно не понимает своих отношений с ИИ”, — заявил Кук в недавнем интервью TechCrunch.

С другой стороны, некоторые ученые настаивают на том, что ИИ действительно имеет ценности и другие человекоподобные компоненты морального принятия решений. Исследование Центра безопасности ИИ подразумевает, что ИИ обладает системами ценностей, которые в определенных сценариях приводят к тому, что он отдает приоритет собственному благополучию, а не благополучию людей.

Ирина Задорожная
Ирина Задорожная

Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.