Apple интегрирует GPT-4o в навигацию для слабовидящих

Apple совместно с Колумбийским университетом разработала исследовательский проект SceneScout, предназначенный для навигационной помощи незрячим и слабовидящим людям. Технология объединяет картографический сервис Apple Maps с языковой моделью GPT-4o для преобразования визуальной информации в подробные голосовые описания окружающей среды.

Первые испытания с участием 10 человек с нарушениями зрения показали положительные результаты. Участники отметили высокую практическую ценность сервиса, особенно выделив режим Virtual Exploration.

Однако тестирование выявило и некоторые недостатки — в частности, случаи неточной маркировки дорожных знаков и устаревшие данные о временных изменениях городской инфраструктуры, включая строительные работы и паркинг.

Система предлагает пользователям два функциональных режима работы. Режим Route Preview предоставляет предварительный обзор маршрута с описанием препятствий на тротуарах, перекрестков и визуальных ориентиров.

Второй режим — Virtual Exploration — позволяет пользователю сформулировать запрос на основе предпочтений (например, «тихий жилой район с парками»), после чего ИИ проводит пошаговую навигацию к подходящему месту.

Техническая реализация SceneScout основана на имитации поля зрения пешехода с использованием данных Apple Maps.

Система обрабатывает эту информацию и формирует структурированные текстовые описания с различной степенью детализации — короткие, средние или длинные, в зависимости от предпочтений пользователя.

Автор: Юлия Самойлова
Пишет о технологиях искусственного интеллекта с 2019 года. Специализируется на материалах о практическом применении ИИ в различных отраслях.