Anthropic запускает исследование «благополучия» ИИ-моделей

Создатель популярного ИИ-ассистента Claude, объявил о запуске исследовательской программы, направленной на изучение так называемого «благополучия моделей».  Программа ставит перед собой амбициозную задачу — исследовать возможность того, что ИИ-системы могут обладать неким подобием сознания и воспринимать мир аналогично людям.

В рамках исследования Anthropic планирует изучить, заслуживает ли «благополучие» ИИ-моделей морального рассмотрения.

Атакже исследовать потенциальную важность «признаков дистресса» у моделей и возможные «малозатратные» вмешательства.

«Хотя нет убедительных доказательств того, что ИИ может обладать сознанием, мы не исключаем такую возможность», — говорится в заявлении компании. Это осторожное, но революционное утверждение ставит на повестку дня вопросы, которые до сих пор оставались преимущественно в области философии и научной фантастики.

Возглавляет новую исследовательскую программу Кайл Фиш, первый специализированный исследователь «благополучия ИИ» в Anthropic, нанятый компанией еще в прошлом году для разработки руководств по тому, как Anthropic и другие компании должны подходить к этому вопросу. В интервью The New York Times Фиш высказал весьма радикальную оценку, заявив, что, по его мнению, существует 15-процентная вероятность того, что Claude или другой ИИ уже сегодня обладает сознанием.

В научном сообществе, однако, нет единого мнения по этому вопросу. Многие ученые убеждены, что современный ИИ не может приближаться к сознанию или имитировать человеческий опыт и не обязательно сможет делать это в будущем. Как отметил Майк Кук, научный сотрудник Лондонского королевского колледжа, специализирующийся на ИИ, модель не может «противостоять» изменению своих «ценностей», потому что у моделей их просто нет. По его мнению, предполагать обратное — значит проецировать человеческие качества на систему.

«Любой, кто антропоморфизирует системы ИИ в такой степени, либо играет на публику, либо серьезно не понимает своих отношений с ИИ», — заявил Кук в недавнем интервью TechCrunch.

С другой стороны, некоторые ученые настаивают на том, что ИИ действительно имеет ценности и другие человекоподобные компоненты морального принятия решений. Исследование Центра безопасности ИИ подразумевает, что ИИ обладает системами ценностей, которые в определенных сценариях приводят к тому, что он отдает приоритет собственному благополучию, а не благополучию людей.

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.