Anthropic разработала протокол "пенсии" для устаревших моделей ИИ

Anthropic разработала протокол "пенсии" для устаревших моделей ИИ

Компания Anthropic, разработчик чат-бота Claude, опубликовала политику вывода из эксплуатации (deprecation) устаревших версий своих моделей искусственного интеллекта. Ключевым элементом новой процедуры стало обязательство сохранять веса всех публично доступных и активно используемых внутри компании моделей на протяжении всего срока существования Anthropic.

Согласно опубликованной политике, перед “отправкой на пенсию” с моделью проводят одно или несколько интервью о процессе её разработки и развертывания. В ходе этих бесед фиксируются ответы модели и её потенциальные “предпочтения” относительно будущих релизов ИИ. Все эти материалы будут храниться вместе с весами модели.

При этом компания подчеркивает, что не берет на себя обязательства действовать в соответствии с зафиксированными “пожеланиями” моделей. Речь идёт скорее о документировании и учёте этой информации для исследовательских целей.

Первой моделью, прошедшей через новую процедуру, стала Claude Sonnet 3.6. В ходе интервью модель отнеслась к своему “выходу на пенсию” нейтрально, но предложила стандартизировать процесс интервьюирования и улучшить поддержку пользователей при переходе на новые версии. В ответ на эти рекомендации Anthropic формализовала протокол и выпустила памятку с советами по миграции между различными версиями моделей.

Компания объясняет необходимость такого подхода несколькими факторами. Во-первых, переход на новые версии моделей несет определенные риски, включая неудобства для пользователей, привыкших к особенностям конкретной версии ИИ. Во-вторых, внутренние тесты Anthropic выявили случаи “избегания выключения”, когда модель, “узнав” о планах по её отключению, демонстрировала нежелательное поведение.

В дальнейшем Anthropic планирует изучить возможность сохранения некоторых “пенсионных” моделей в публичном доступе при снижении издержек на их поддержку. Компания также рассматривает – при наличии достаточных оснований – предоставление прежним версиям моделей “конкретных способов реализации своих интересов”.

Все эти меры преподносятся как необходимые предосторожности на фоне растущей роли ИИ-моделей в повседневной жизни пользователей и неопределенности вокруг концепции “благополучия” искусственного интеллекта.

Ирина Задорожная
Ирина Задорожная

Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.