Эксперты из 58 стран решают проблемы предвзятости ИИ в медицине

Международная группа исследователей представила свои рекомендации. По снижению рисков предвзятости в медицинских технологиях, основанных на искусственном интеллекте.

Инициатива получила название STANDING Together (STANdards for data Diversity, INclusivity and Generalisability) и объединила более 350 экспертов из 58 стран мира.

Исследования показали тревожную тенденцию: медицинские ИИ-системы могут работать избирательно, эффективно помогая одним пациентам и игнорируя потребности других. Это не просто вопрос неравенства — речь идет о потенциальном вреде для здоровья целых групп населения.

«Данные подобны зеркалу, отражающему реальность. Когда они искажены, они могут усиливать общественные предрассудки. Но пытаться исправить данные — все равно что протирать зеркало, чтобы удалить пятно на рубашке», — заметила ведущий автор исследования Сяосюань Лю, доцент кафедры ИИ и цифровых медицинских технологий Бирмингемского университета (Великобритания).

Новые рекомендации, опубликованные одновременно в двух престижных научных изданиях — The Lancet Digital Health и New England Journal of Medicine AI, предлагают конкретные шаги по минимизации рисков. Ключевые положения включают:

— Обязательную подготовку понятных описаний наборов данных на простом языке;

— Выявление известных или потенциальных источников предвзятости и ошибок;

— Разработку планов по снижению рисков при внедрении технологий;

— Четкое документирование клинических последствий выявленных проблем;

— Постоянный мониторинг и управление рисками в процессе использования ИИ-систем.

Эксперты подчеркивают: для достижения реальных изменений в обеспечении равенства в здравоохранении необходимо устранять первопричины проблем, а не просто корректировать их последствия в данных.

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.