Meta может приостановить разработку слишком опасных ИИ-систем

Об этом говорится в новом документе компании — Frontier AI Framework. Meta* заявила, что в определенных случаях не будет выпускать созданные ею системы искусственного интеллекта, если они окажутся слишком рискованными.

В нем Meta выделяет два типа потенциально опасных ИИ: «высокий риск» и «критический риск». Первый подразумевает, что система может облегчить проведение атак в области кибербезопасности, химических или биологических угроз. Второй — что её использование может привести к катастрофическим последствиям, которые невозможно предотвратить в предложенном контексте развертывания.

Компания приводит примеры угроз: от взлома корпоративных сетей до распространения биологического оружия. Оценка рисков проводится не на основе конкретных тестов, а с учетом мнений внутренних и внешних экспертов, чьи выводы рассматриваются руководством Meta.

Если система отнесена к категории «высокого риска», Meta не будет ее публиковать до устранения угроз. В случае «критического риска» разработка будет полностью приостановлена, а система — защищена от утечки.

Этот шаг можно рассматривать как реакцию на критику политики Meta, которая активно распространяет свои ИИ-разработки в открытом формате, в отличие от OpenAI и других компаний, ограничивающих доступ к своим моделям.

*признана экстремистской и запрещена в РФ

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.