Исследователи из Google DeepMind и Лондонской школы экономики провели эксперимент. В котором крупные языковые модели (LLM) проходили тест на способность принимать решения, основанные на ощущениях боли и удовольствия. Это первый в своем роде эксперимент, который ставит вопрос о возможности наличия у ИИ элементов разумности.
В тесте ИИ-моделям предлагалось две стратегии: максимизировать очки, рискуя испытать «боль», или получить меньше очков, но избежать негативного опыта. Исследователи отметили, что модели демонстрировали сложные компромиссные решения, чаще выбирая стратегии минимизации боли или максимизации удовольствия. Одна из наиболее продвинутых моделей, Google Gemini 1.5 Pro, стабильно выбирала путь избегания боли, изменяя свои решения в зависимости от уровня потенциального наказания или вознаграждения. Это ставит под сомнение традиционное восприятие ИИ как полностью неразумных инструментов.
Профессор Лондонской школы экономики Джонатан Бёрч подчеркнул, что результаты не доказывают разумность ИИ, но создают важную базу для будущих исследований. Методика была вдохновлена аналогичными тестами, используемыми в исследованиях поведения животных. Например, известно, что ракообразные проявляют защитные реакции на неприятные стимулы.
Исследование включало 9 различных языковых моделей, которым предлагалось выбрать между разными уровнями очков, боли и удовольствия. Например, один вариант давал бонусные очки, но сопровождался «штрафом боли», а другой позволял избежать негативного опыта ценой потери очков.
Джефф Сибо из Центра исследований разума, этики и политики Нью-Йоркского университета назвал работу важным шагом вперед, поскольку она использует поведенческие тесты вместо анализа ответов ИИ. По его мнению, дальнейшие исследования могут поставить вопрос о юридическом и моральном статусе ИИ по мере их развития.