Исследователи из Google DeepMind нашли ответ на важный вопрос в области искусственного интеллекта: может ли существовать универсальный ИИ без внутренней модели мира. Ученые доказали математически, что это невозможно.
Согласно новому исследованию, любой ИИ-агент, способный решать сложные задачи в несколько шагов и применять опыт в новых ситуациях, обязательно создает внутреннюю модель окружающей среды. Это происходит даже если разработчики специально не программировали такую модель.
Узнать подробнее про клуб ShareAI
Ученые также установили прямую связь между сложностью задач и точностью внутренней модели. Чем сложнее цели, которые должен достичь ИИ, тем более детальным должен быть его «внутренний симулятор реальности».
Команда DeepMind разработала способы извлечения этих моделей мира из политики агента — то есть из его стратегии выбора действий. Они создали алгоритмы, которые могут восстановить представление ИИ о среде, просто наблюдая за его поведением.
Это важно для понимания и безопасности систем искусственного интеллекта, так как позволяет увидеть, какие представления о мире формирует система и как они влияют на ее решения.
Исследование имеет несколько практических выводов. Во-первых, споры о подходах с моделями и без моделей теряют смысл, поскольку модели возникают в любом случае. Во-вторых, возможности любого ИИ ограничены точностью его внутренней модели мира. В простых средах модель может быть точной, но в сложных и хаотичных мирах возникают объективные ограничения.
Результаты также объясняют, почему у больших языковых моделей проявляются неожиданные способности. По мнению исследователей, эти системы вынуждены строить скрытые модели мира, чтобы справляться с разными задачами, даже если изначально их этому не учили.