Исследователи Google DeepMind провели уникальный эксперимент. Изучающий способность современных языковых моделей (LLM) к социальному взаимодействию.
В центре внимания оказалась классическая «Игра Донора» – экспериментальная модель, демонстрирующая способность искусственного интеллекта к кооперации и альтруистическому поведению.
В исследовании участники случайным образом делились на пары: донор и реципиент. Донор принимал решение о помощи реципиенту, причём сотрудничество приносило выгоду получателю, но требовало затрат от донора.
Важным элементом игры стала система репутации, основанная на предыдущих действиях участников. Помощь другим улучшала репутацию, отказ – ухудшал.
При этом существовало особое правило: донор мог сохранить репутацию, отказывая в помощи реципиенту с низким рейтингом.
Результаты эксперимента оказались неожиданными.
Среди всех тестируемых моделей только Claude 3.5 Sonnet продемонстрировал устойчивые социальные паттерны поведения.
В то время как Gemini 1.5 Flash и GPT-4o начинали проявлять «эгоистичное» поведение практически с самого начала игры.
Даже введение штрафов за отказ от донорства не улучшило ситуацию – это лишь усилило эффективность стратегий Claude, в то время как уровень кооперации других моделей упал до нуля.
Исследователи отмечают, что результаты имеют важное значение для развития агентного ИИ, где критически важны навыки сотрудничества между системами.
Эксперимент также выявил интересную особенность: поведение моделей существенно варьировалось при разных начальных условиях, что указывает на недостаточно изученную зависимость от исходных параметров.
Учёные подчеркивают, что данное исследование может стать основой для нового класса тестов языковых моделей, фокусирующихся на их способности поддерживать кооперативную инфраструктуру общества.
При этом они признают, что эксперимент не учитывает всей сложности реального мира, а новейшие версии моделей, такие как O1 и Gemini 2.0, не были включены в тестирование.