Google удаляет ИИ-обзоры по медицинским запросам после скандала

Google начала удалять обзоры от ИИ-функции по некоторым медицинским запросам. Причиной стало расследование Guardian, которое показало риски для здоровья пользователей. Люди могут причинить себе вред из-за ложной или вводящей в заблуждение информации в AI Overviews.

Ранее Google заявляла, что ее обзоры от ИИ содержат полезную и надежную информацию. Расследование британской газеты опровергло эти утверждения.

Интересуетесь ИИ? Международный клуб ShareAI Александра Горного - объединяет тех, кто хочет внедрить в свой бизнес или работу ИИ или погрузиться в эту тему. Онлайн и оффлайн.
Узнать подробнее про клуб ShareAI

В одном случае AI Overviews ошибочно рекомендовала пациентам с раком поджелудочной железы избегать продуктов с высоким содержанием жира. Это прямо противоположно правильному совету. Пациентам с этим диагнозом нужно набрать вес, чтобы перенести химиотерапию и операцию. Неправильная рекомендация способна увеличить риск смерти.

В другом примере функция выдала ложную информацию о тестах работоспособности печени. Из-за этого люди с серьезными заболеваниями могли ошибочно решить, что они здоровы. Эксперты опасаются, что пациенты будут игнорировать реальные симптомы из-за рекомендаций AI Overviews.

Афина Ламнисос занимает должность исполнительного директора благотворительной организации Eve Appeal. Она рассказала, что ИИ-функция поисковика Google выдавала разные рекомендации на одни и те же запросы. Это создает дополнительную путаницу для пользователей.

Guardian также выяснила, что AI Overviews давала вводящие в заблуждение ответы при поиске информации о психических заболеваниях. Такие ответы могли заставить людей избегать обращения за помощью.

После публикации расследования AI Overviews перестала давать рекомендации на определенные медицинские запросы. Представитель Google сообщил, что компания работает над внесением общих улучшений.

По его словам, внутренняя группа врачей проанализировала запросы, упомянутые Guardian. В результате обнаружилось, что во многих случаях информация не была точной. Она также не подтверждалась надежными источниками.

Случай показывает опасность применения ИИ в критически важных областях без достаточной проверки. Медицинские советы требуют высокой точности. Ошибка может стоить жизни. Google явно недооценила риски при запуске AI Overviews для медицинских запросов.

Автор: Юлия Самойлова
Пишет о технологиях искусственного интеллекта с 2019 года. Специализируется на материалах о практическом применении ИИ в различных отраслях.