Об этом говорится в новом документе компании — Frontier AI Framework. Meta* заявила, что в определенных случаях не будет выпускать созданные ею системы искусственного интеллекта, если они окажутся слишком рискованными.
В нем Meta выделяет два типа потенциально опасных ИИ: «высокий риск» и «критический риск». Первый подразумевает, что система может облегчить проведение атак в области кибербезопасности, химических или биологических угроз. Второй — что её использование может привести к катастрофическим последствиям, которые невозможно предотвратить в предложенном контексте развертывания.
Компания приводит примеры угроз: от взлома корпоративных сетей до распространения биологического оружия. Оценка рисков проводится не на основе конкретных тестов, а с учетом мнений внутренних и внешних экспертов, чьи выводы рассматриваются руководством Meta.
Если система отнесена к категории «высокого риска», Meta не будет ее публиковать до устранения угроз. В случае «критического риска» разработка будет полностью приостановлена, а система — защищена от утечки.
Этот шаг можно рассматривать как реакцию на критику политики Meta, которая активно распространяет свои ИИ-разработки в открытом формате, в отличие от OpenAI и других компаний, ограничивающих доступ к своим моделям.
*признана экстремистской и запрещена в РФ