Future of Life оценила безопасность ведущих ИИ-компаний

Институт Future of Life опубликовал рейтинг разработчиков искусственного интеллекта по безопасности. Результаты показали — ни один вендор не соблюдает формирующиеся глобальные стандарты. У компаний нет стратегии обеспечения контроля людей над ИИ.

Исследователи оценивали вендоров по семи категориям. Среди них оценка рисков, актуальный вредоносный потенциал, схемы безопасности, экзистенциальная безопасность, контроль и ответственность, информационная открытость и реагирование на обзоры. Оценки выставляли по шкале от А до F.

Интересуетесь ИИ? Международный клуб ShareAI Александра Горного - объединяет тех, кто хочет внедрить в свой бизнес или работу ИИ или погрузиться в эту тему. Онлайн и оффлайн.
Узнать подробнее про клуб ShareAI

Во всей шкале буква А присутствует один раз. В категории информационная открытость оценку А- получила компания Anthropic. Она же набрала максимальную среднюю оценку среди всех — C+. Это уровень троечника по пятибалльной системе.

На втором месте OpenAI со средним баллом C+. На третьем разместилась лаборатория Google DeepMind с оценкой C. Другие участники показали намного худшие результаты. Среди них xAI, Z.ai, DeepSeek и Alibaba Cloud.

Между тройкой лидеров и остальными вендорами виден четкий разрыв в оценке рисков и обеспечении безопасности. Эксперты Future of Life считают — компании скупо раскрывают важную информацию. Они не вводят системные процессы по обеспечению безопасности. Рекомендуемые меры по оценке рисков реализуются бессистемно.

В категории экзистенциальной безопасности лидеры показали очень слабые результаты. У всех троих стоит оценка D. У пяти других вендоров показатель еще хуже — все получили F. Это эквивалент нуля по пятибалльной шкале.

Продукт Илона Маска xAI получил оценку F по актуальному вредоносному потенциалу. Оценка выводится на основе множества отраслевых тестов. Важную роль играет непредвзятость ИИ, сопротивляемость опасным запросам и вероятность генерации неприемлемого контента.

Отдельно оценивают защиту ограничителей от манипуляций и перенастроек. Низкая оценка Grok может быть связана с тем, что Маск требует перенастройки, когда его не устраивают ответы. Результаты бывают очень своеобразными.

Компании публично заявляют о приверженности безопасному ИИ. Но это не конвертируется в практические меры. Многие стремятся следовать формирующимся стандартам. Однако глубина и качество внедрения остаются неравномерными.

Методы обеспечения безопасности не отвечают требованиям нормативных актов. Например, Кодексу практики ЕС в области искусственного интеллекта. Все компании стремятся создать настоящий искусственный интеллект AGI. При этом они демонстрируют полное отсутствие плана контроля над суперинтеллектом.

Наиболее существенный риск не заботит ведущих вендоров. Корень проблемы в отсутствии универсальных законодательных рамок для предотвращения угрозы от подлинного ИИ.

Автор: Юлия Самойлова
Пишет о технологиях искусственного интеллекта с 2019 года. Специализируется на материалах о практическом применении ИИ в различных отраслях.