Компания Anthropic, разработчик чат-бота Claude, опубликовала политику вывода из эксплуатации (deprecation) устаревших версий своих моделей искусственного интеллекта. Ключевым элементом новой процедуры стало обязательство сохранять веса всех публично доступных и активно используемых внутри компании моделей на протяжении всего срока существования Anthropic.
Согласно опубликованной политике, перед «отправкой на пенсию» с моделью проводят одно или несколько интервью о процессе её разработки и развертывания. В ходе этих бесед фиксируются ответы модели и её потенциальные «предпочтения» относительно будущих релизов ИИ. Все эти материалы будут храниться вместе с весами модели.
Узнать подробнее про клуб ShareAI
При этом компания подчеркивает, что не берет на себя обязательства действовать в соответствии с зафиксированными «пожеланиями» моделей. Речь идёт скорее о документировании и учёте этой информации для исследовательских целей.
Первой моделью, прошедшей через новую процедуру, стала Claude Sonnet 3.6. В ходе интервью модель отнеслась к своему «выходу на пенсию» нейтрально, но предложила стандартизировать процесс интервьюирования и улучшить поддержку пользователей при переходе на новые версии. В ответ на эти рекомендации Anthropic формализовала протокол и выпустила памятку с советами по миграции между различными версиями моделей.
Компания объясняет необходимость такого подхода несколькими факторами. Во-первых, переход на новые версии моделей несет определенные риски, включая неудобства для пользователей, привыкших к особенностям конкретной версии ИИ. Во-вторых, внутренние тесты Anthropic выявили случаи «избегания выключения», когда модель, «узнав» о планах по её отключению, демонстрировала нежелательное поведение.
В дальнейшем Anthropic планирует изучить возможность сохранения некоторых «пенсионных» моделей в публичном доступе при снижении издержек на их поддержку. Компания также рассматривает – при наличии достаточных оснований – предоставление прежним версиям моделей «конкретных способов реализации своих интересов».
Все эти меры преподносятся как необходимые предосторожности на фоне растущей роли ИИ-моделей в повседневной жизни пользователей и неопределенности вокруг концепции «благополучия» искусственного интеллекта.

