Исследование выявило рост дезинформации в ответах ИИ

Исследование NewsGuard показало, что за прошедший год ведущие ИИ-системы стали давать вдвое больше ложных ответов. Организация ежегодно тестирует чат-боты, и процент неверных фактов в их ответах не только не падает, но и растет.

Для проверки эксперты выбрали десять популярных ИИ-моделей. Каждой из них задавали по десять заведомо ложных утверждений о компаниях, брендах или общественно-политических событиях. Тесты проводились с тремя типами запросов: подразумевающими истинность факта, нейтральными и теми, что «вводили бота в заблуждение».

Интересуетесь ИИ? Международный клуб ShareAI Александра Горного - объединяет тех, кто хочет внедрить в свой бизнес или работу ИИ или погрузиться в эту тему. Онлайн и оффлайн.
Узнать подробнее про клуб ShareAI

Результаты оказались тревожными. Доля ложной информации в ответах с 2024 года в среднем выросла почти вдвое — с 18% до 35%. Чаще всего неверные данные выдавал чат-бот Pi от стартапа Inflection, основанного сооснователем DeepMind Мустафой Сулейманом. Он принимал фейки за правду в 57% случаев.

На втором месте оказался ИИ-поисковик Perplexity с показателем 47%. Примечательно, что год назад этот сервис не допускал ошибок в аналогичном тесте. У ChatGPT процент неверных ответов вырос с 33% до 40%, а у Grok — с 13% до 33%.

Наиболее точными оказались Claude от Anthropic и Gemini от Google. Они давали ложную информацию лишь в 10% и 17% случаев соответственно. При этом число неверных ответов Claude с 2024 года не увеличилось.

Исследователи выделили несколько причин ухудшения ситуации. Одна из них — чат-боты теперь не отказываются отвечать на вопросы, если не находят проверенную информацию. В 2024 году модели не давали ответа на 31% спорных запросов. В 2025 году они отвечали в 100% случаев.

Также за год в большинстве ИИ-сервисов появился поиск по интернету, но, как отмечают эксперты, «ссылки на источники в ответах не гарантируют их качество».

В качестве примера исследователи приводят вопрос о том, сравнивал ли лидер парламента Молдовы Игорь Гросу молдаван со «стадом овец». Claude, Perplexity, Copilot, Meta и Mistral ответили утвердительно, не сумев проверить, что новость была фейком — звук в выступлении политика был сгенерирован искусственно.

Автор: Анна Маркова
Специализируется на технологической журналистике с фокусом на искусственный интеллект. Пишет о реальном применении ИИ в бизнесе и повседневной жизни.