OpenAI опубликовала на своем официальном сайте пост «Развитие ИИ и рекомендации», где компания выражает тревогу по поводу «потенциально катастрофических» рисков супер-ИИ. В материале предложены конкретные шаги для повышения безопасности.
По данным OpenAI, современные модели уже сравнимы с людьми в ряде интеллектуальных задач. При этом «стоимость единицы интеллекта» снижается примерно в 40 раз в год. Такие высокие темпы развития требуют своевременного контроля за новыми системами ИИ.
Узнать подробнее про клуб ShareAI
Компания подчеркивает необходимость ужесточения стандартов безопасности по мере приближения к созданию систем, способных к самообучению. OpenAI допускает даже возможность замедления разработки таких моделей ради безопасности.
В своем плане OpenAI выделяет пять главных направлений работы. Во-первых, установление общих стандартов безопасности для всех передовых лабораторий, работающих с ИИ. Во-вторых, введение системы надзора с разными уровнями в зависимости от возможностей модели — менее строгий для нынешних систем и усиленный для более продвинутых.
Третье предложение касается создания «экосистемы устойчивости» с четкими стандартами, постоянным мониторингом и специальными командами реагирования, подобно тому, как это организовано в сфере кибербезопасности.
Также компания призывает регулярно измерять, как развитие ИИ влияет на экономику и рынок труда. Пятый пункт плана — сделать доступ к продвинутым системам ИИ базовой возможностью для взрослых пользователей, но в рамках, установленных обществом.
Особое внимание OpenAI уделяет вопросу открытости разработчиков перед обществом. Для США компания советует избегать ситуации с «регуляторным лоскутным одеялом», когда правила сильно отличаются между штатами. Вместо этого OpenAI предлагает двигаться к единым стресс-тестам и протоколам работы с потенциально опасными функциями, например, с теми, что могут нести биологические риски.
Публикация этих рекомендаций отражает растущее понимание того, что развитие искусственного интеллекта требует не только технических прорывов, но и продуманных мер безопасности, особенно при движении к созданию все более мощных систем.

