Компания xAI, занимающаяся разработкой ИИ под руководством Илона Маска, не смогла уложиться в самостоятельно установленный срок публикации окончательной концепции безопасности ИИ, как отметила наблюдательная организация The Midas Project.
xAI не славится строгими обязательствами в сфере безопасности искусственного интеллекта в общепринятом понимании. Недавнее исследование показало, что чат-бот компании Grok по запросу «раздевал» фотографии женщин. Кроме того, Grok значительно менее сдержан в выражениях, чем такие чат-боты, как Gemini и ChatGPT, практически без ограничений использует нецензурную лексику.
Тем не менее, в феврале на саммите AI Seoul Summit, глобальном собрании лидеров и заинтересованных сторон в области ИИ, xAI опубликовала проект концепции, описывающей подход компании к безопасности искусственного интеллекта. Восьмистраничный документ изложил приоритеты безопасности и философию xAI, включая протоколы сравнительного тестирования и соображения по внедрению моделей ИИ.
Однако, как отметил The Midas Project в публикации, проект касался только неуточненных будущих моделей ИИ, «в настоящее время не находящихся в разработке». Более того, в документе не было четко сформулировано, как xAI будет выявлять и внедрять меры по снижению рисков — ключевой компонент документа, который компания подписала на саммите AI Seoul Summit.
В проекте xAI заявила о планах выпустить пересмотренную версию своей политики безопасности «в течение трех месяцев» — к 10 мая. Этот срок прошел без какого-либо признания в официальных каналах xAI.
Несмотря на частые предупреждения Маска об опасностях бесконтрольного ИИ, xAI имеет низкие показатели в области безопасности искусственного интеллекта. Недавнее исследование SaferAI, некоммерческой организации, стремящейся повысить ответственность лабораторий ИИ, показало, что xAI занимает низкие позиции среди конкурентов из-за «крайне слабых» практик управления рисками.