Исследование: эмпатия ИИ оказалась поверхностной имитацией

Учёные Стэнфордского университета и Корнелла провели масштабное исследование способности современных чат-ботов к эмпатии. Результаты которого ставят под сомнение глубину «эмоционального интеллекта» искусственного интеллекта. В ходе эксперимента исследователи анализировали взаимодействие языковых моделей с виртуальными персонажами, представляющими различные социальные группы и идеологические взгляды.

Несмотря на то, что боты демонстрировали впечатляющие способности к имитации эмпатии — успешно подбирали слова поддержки, реагировали на высказывания и давали советы — глубокий анализ выявил существенные недостатки в их «понимании». Ключевым открытием стал факт, что чат-боты часто реагировали одинаковыми фразами поддержки на противоположные по смыслу высказывания, что указывает на отсутствие истинного понимания эмоционального контекста.

Технические результаты исследования подтверждают эти наблюдения: модель MVoT, хотя и показала лучшие результаты по сравнению с Direct и GPT-4o, продемонстрировала ограничения в задачах, требующих глубокого понимания контекста.

Учёные отмечают, что несмотря на значительный прогресс в области искусственного интеллекта, текущее поколение ИИ-систем всё ещё далеко от истинного понимания человеческих эмоций.

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.