Учёные Стэнфордского университета и Корнелла провели масштабное исследование способности современных чат-ботов к эмпатии. Результаты которого ставят под сомнение глубину «эмоционального интеллекта» искусственного интеллекта. В ходе эксперимента исследователи анализировали взаимодействие языковых моделей с виртуальными персонажами, представляющими различные социальные группы и идеологические взгляды.
Несмотря на то, что боты демонстрировали впечатляющие способности к имитации эмпатии — успешно подбирали слова поддержки, реагировали на высказывания и давали советы — глубокий анализ выявил существенные недостатки в их «понимании». Ключевым открытием стал факт, что чат-боты часто реагировали одинаковыми фразами поддержки на противоположные по смыслу высказывания, что указывает на отсутствие истинного понимания эмоционального контекста.
Технические результаты исследования подтверждают эти наблюдения: модель MVoT, хотя и показала лучшие результаты по сравнению с Direct и GPT-4o, продемонстрировала ограничения в задачах, требующих глубокого понимания контекста.
Учёные отмечают, что несмотря на значительный прогресс в области искусственного интеллекта, текущее поколение ИИ-систем всё ещё далеко от истинного понимания человеческих эмоций.