Исследователи из Google DeepMind нашли ответ на важный вопрос в области искусственного интеллекта: может ли существовать универсальный ИИ без внутренней модели мира. Ученые доказали математически, что это невозможно.
Согласно новому исследованию, любой ИИ-агент, способный решать сложные задачи в несколько шагов и применять опыт в новых ситуациях, обязательно создает внутреннюю модель окружающей среды. Это происходит даже если разработчики специально не программировали такую модель.
Ученые также установили прямую связь между сложностью задач и точностью внутренней модели. Чем сложнее цели, которые должен достичь ИИ, тем более детальным должен быть его “внутренний симулятор реальности”.
Команда DeepMind разработала способы извлечения этих моделей мира из политики агента - то есть из его стратегии выбора действий. Они создали алгоритмы, которые могут восстановить представление ИИ о среде, просто наблюдая за его поведением.
Это важно для понимания и безопасности систем искусственного интеллекта, так как позволяет увидеть, какие представления о мире формирует система и как они влияют на ее решения.
Исследование имеет несколько практических выводов. Во-первых, споры о подходах с моделями и без моделей теряют смысл, поскольку модели возникают в любом случае. Во-вторых, возможности любого ИИ ограничены точностью его внутренней модели мира. В простых средах модель может быть точной, но в сложных и хаотичных мирах возникают объективные ограничения.
Результаты также объясняют, почему у больших языковых моделей проявляются неожиданные способности. По мнению исследователей, эти системы вынуждены строить скрытые модели мира, чтобы справляться с разными задачами, даже если изначально их этому не учили.