Компания Anthropic, разработчик ИИ-ассистента Claude, радикально меняет свою политику в отношении пользовательских данных. Все клиенты сервиса должны до 28 сентября принять решение: разрешить использовать свои диалоги для обучения моделей или отказаться от этого.
Ранее Anthropic не использовала данные обычных пользователей для тренировки своих систем. Теперь компания планирует обучать искусственный интеллект на основе пользовательских разговоров и сессий программирования. Для тех, кто не откажется от участия в программе, срок хранения данных увеличится до пяти лет.
Узнать подробнее про клуб ShareAI
Это серьезное изменение политики конфиденциальности. До сих пор пользователям гарантировали, что их запросы и ответы системы будут автоматически удаляться с серверов Anthropic через 30 дней. Исключения делались только по юридическим причинам или при нарушении правил сервиса — в таких случаях данные могли храниться до двух лет.
Новые правила затронут пользователей Claude Free, Pro и Max, включая тех, кто использует Claude Code. Бизнес-клиенты, работающие с Claude Gov, Claude for Work, Claude for Education или через API, останутся под защитой прежних правил, как это делает и OpenAI для своих корпоративных пользователей.
Компания утверждает, что собранные данные помогут «улучшить безопасность моделей, сделать системы обнаружения вредоносного контента более точными и снизить вероятность ложных срабатываний».
Пользователи также «помогут будущим версиям Claude улучшить навыки программирования, анализа и рассуждения, что в итоге приведет к созданию лучших моделей для всех».