OpenAI может скорректировать стандарты безопасности из-за конкурентов

OpenAI обновила свой Preparedness Framework — внутреннюю систему, используемую для оценки безопасности ИИ-моделей и определения необходимых защитных мер при разработке и внедрении. В обновлении OpenAI заявила, что может «скорректировать» свои требования безопасности, если конкурирующая ИИ-компания выпустит «высокорисковую» систему без аналогичных мер защиты.

А на прошлой неделе 12 бывших сотрудников OpenAI подали заявление по делу Илона Маска против OpenAI, утверждая, что компания будет еще больше пренебрегать безопасностью, если завершит запланированную корпоративную реструктуризацию.

Это изменение отражает растущее конкурентное давление на коммерческих разработчиков ИИ, вынуждающее их быстрее внедрять модели. Возможно, предвидя критику, OpenAI утверждает, что не станет легкомысленно корректировать свою политику и сохранит защитные меры на «более высоком уровне защиты».

«Если другой ведущий разработчик ИИ выпустит высокорисковую систему без сопоставимых защитных мер, мы можем скорректировать наши требования, — написала OpenAI. — Однако мы сначала тщательно подтвердим, что ландшафт рисков действительно изменился, публично признаем, что вносим корректировку, оценим, что корректировка существенно не увеличивает общий риск серьезного вреда, и сохраним защитные меры на уровне, обеспечивающем большую защиту».

Обновленный Preparedness Framework также ясно дает понять, что OpenAI все больше полагается на автоматизированные оценки для ускорения разработки продуктов. Компания заявляет, что, хотя она не отказалась полностью от тестирования под руководством людей, она создала «растущий набор автоматизированных оценок», которые предположительно могут «успевать за более быстрым темпом выпуска».

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.