Anthropic разработала протокол «пенсии» для устаревших моделей ИИ

Компания Anthropic, разработчик чат-бота Claude, опубликовала политику вывода из эксплуатации (deprecation) устаревших версий своих моделей искусственного интеллекта. Ключевым элементом новой процедуры стало обязательство сохранять веса всех публично доступных и активно используемых внутри компании моделей на протяжении всего срока существования Anthropic.

Согласно опубликованной политике, перед «отправкой на пенсию» с моделью проводят одно или несколько интервью о процессе её разработки и развертывания. В ходе этих бесед фиксируются ответы модели и её потенциальные «предпочтения» относительно будущих релизов ИИ. Все эти материалы будут храниться вместе с весами модели.

Интересуетесь ИИ? Международный клуб ShareAI Александра Горного - объединяет тех, кто хочет внедрить в свой бизнес или работу ИИ или погрузиться в эту тему. Онлайн и оффлайн.
Узнать подробнее про клуб ShareAI

При этом компания подчеркивает, что не берет на себя обязательства действовать в соответствии с зафиксированными «пожеланиями» моделей. Речь идёт скорее о документировании и учёте этой информации для исследовательских целей.

Первой моделью, прошедшей через новую процедуру, стала Claude Sonnet 3.6. В ходе интервью модель отнеслась к своему «выходу на пенсию» нейтрально, но предложила стандартизировать процесс интервьюирования и улучшить поддержку пользователей при переходе на новые версии. В ответ на эти рекомендации Anthropic формализовала протокол и выпустила памятку с советами по миграции между различными версиями моделей.

Компания объясняет необходимость такого подхода несколькими факторами. Во-первых, переход на новые версии моделей несет определенные риски, включая неудобства для пользователей, привыкших к особенностям конкретной версии ИИ. Во-вторых, внутренние тесты Anthropic выявили случаи «избегания выключения», когда модель, «узнав» о планах по её отключению, демонстрировала нежелательное поведение.

В дальнейшем Anthropic планирует изучить возможность сохранения некоторых «пенсионных» моделей в публичном доступе при снижении издержек на их поддержку. Компания также рассматривает – при наличии достаточных оснований – предоставление прежним версиям моделей «конкретных способов реализации своих интересов».

Все эти меры преподносятся как необходимые предосторожности на фоне растущей роли ИИ-моделей в повседневной жизни пользователей и неопределенности вокруг концепции «благополучия» искусственного интеллекта.

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.