Компания Anthropic, разработчик чат-бота Claude, опубликовала политику вывода из эксплуатации (deprecation) устаревших версий своих моделей искусственного интеллекта. Ключевым элементом новой процедуры стало обязательство сохранять веса всех публично доступных и активно используемых внутри компании моделей на протяжении всего срока существования Anthropic.
Согласно опубликованной политике, перед “отправкой на пенсию” с моделью проводят одно или несколько интервью о процессе её разработки и развертывания. В ходе этих бесед фиксируются ответы модели и её потенциальные “предпочтения” относительно будущих релизов ИИ. Все эти материалы будут храниться вместе с весами модели.
При этом компания подчеркивает, что не берет на себя обязательства действовать в соответствии с зафиксированными “пожеланиями” моделей. Речь идёт скорее о документировании и учёте этой информации для исследовательских целей.
Первой моделью, прошедшей через новую процедуру, стала Claude Sonnet 3.6. В ходе интервью модель отнеслась к своему “выходу на пенсию” нейтрально, но предложила стандартизировать процесс интервьюирования и улучшить поддержку пользователей при переходе на новые версии. В ответ на эти рекомендации Anthropic формализовала протокол и выпустила памятку с советами по миграции между различными версиями моделей.
Компания объясняет необходимость такого подхода несколькими факторами. Во-первых, переход на новые версии моделей несет определенные риски, включая неудобства для пользователей, привыкших к особенностям конкретной версии ИИ. Во-вторых, внутренние тесты Anthropic выявили случаи “избегания выключения”, когда модель, “узнав” о планах по её отключению, демонстрировала нежелательное поведение.
В дальнейшем Anthropic планирует изучить возможность сохранения некоторых “пенсионных” моделей в публичном доступе при снижении издержек на их поддержку. Компания также рассматривает – при наличии достаточных оснований – предоставление прежним версиям моделей “конкретных способов реализации своих интересов”.
Все эти меры преподносятся как необходимые предосторожности на фоне растущей роли ИИ-моделей в повседневной жизни пользователей и неопределенности вокруг концепции “благополучия” искусственного интеллекта.