Международная группа исследователей представила свои рекомендации. По снижению рисков предвзятости в медицинских технологиях, основанных на искусственном интеллекте.
Инициатива получила название STANDING Together (STANdards for data Diversity, INclusivity and Generalisability) и объединила более 350 экспертов из 58 стран мира.
Исследования показали тревожную тенденцию: медицинские ИИ-системы могут работать избирательно, эффективно помогая одним пациентам и игнорируя потребности других. Это не просто вопрос неравенства — речь идет о потенциальном вреде для здоровья целых групп населения.
«Данные подобны зеркалу, отражающему реальность. Когда они искажены, они могут усиливать общественные предрассудки. Но пытаться исправить данные — все равно что протирать зеркало, чтобы удалить пятно на рубашке», — заметила ведущий автор исследования Сяосюань Лю, доцент кафедры ИИ и цифровых медицинских технологий Бирмингемского университета (Великобритания).
Новые рекомендации, опубликованные одновременно в двух престижных научных изданиях — The Lancet Digital Health и New England Journal of Medicine AI, предлагают конкретные шаги по минимизации рисков. Ключевые положения включают:
— Обязательную подготовку понятных описаний наборов данных на простом языке;
— Выявление известных или потенциальных источников предвзятости и ошибок;
— Разработку планов по снижению рисков при внедрении технологий;
— Четкое документирование клинических последствий выявленных проблем;
— Постоянный мониторинг и управление рисками в процессе использования ИИ-систем.
Эксперты подчеркивают: для достижения реальных изменений в обеспечении равенства в здравоохранении необходимо устранять первопричины проблем, а не просто корректировать их последствия в данных.