Как сообщает Anthropic, веб-поиск уже доступен в предварительной версии для платных пользователей Claude в США. А поддержка для бесплатных пользователей и дополнительных стран появится в ближайшее время. Пользователи могут включить веб-поиск в настройках своего профиля через веб-приложение Claude, после чего чат-бот будет автоматически искать информацию на различных сайтах для формирования определённых ответов.
На данный момент функция веб-поиска работает только с последней моделью Anthropic, обеспечивающей работу Claude — Claude 3.7 Sonnet, отметили в компании. «Когда Claude включает информацию из интернета в свои ответы, он предоставляет прямые цитаты источников, чтобы вы могли легко проверить факты», — говорится в сообщении блога компании.
«Вместо того чтобы самостоятельно искать результаты в поисковике, Claude обрабатывает и предоставляет релевантные источники в формате разговора. Это расширяет обширную базу знаний Claude актуальными данными, позволяя давать ответы на основе более свежей информации».
При кратком тестировании функции автором статьи веб-поиск не всегда срабатывал для вопросов, связанных с текущими событиями. Однако, когда это происходило, Claude действительно выдавал ответ со встроенными цитатами, черпая информацию из различных источников, включая социальные сети (например, X) и новостные ресурсы, такие как NPR и Reuters.
Возможность искать информацию в интернете выводит Claude на уровень функциональности большинства конкурирующих чат-ботов с искусственным интеллектом, включая ChatGPT от OpenAI, Gemini от Google и Le Chat от Mistral. Ранее аргумент Anthropic против такой функции заключался в том, что Claude был «разработан как автономная система». Несомненно, конкурентное давление сыграло определённую роль в изменении курса.
Конечно, существует риск, что Claude будет галлюцинировать или неправильно цитировать веб-источники. Другие чат-боты страдают от этой проблемы. Согласно недавнему исследованию Центра цифровой журналистики Tow, популярные чат-боты, включая ChatGPT и Gemini, дают неправильные ответы более чем на 60% вопросов. Отдельный отчёт The Guardian показал, что ориентированный на поиск ChatGPT Search можно обмануть, заставив генерировать полностью вводящие в заблуждение сводки.