Anthropic выпустила новый ИИ-инструмент под названием Mythos — и сразу же решила не давать его никому.
Mythos специализируется на поиске уязвимостей в программном обеспечении и компьютерных системах. По словам компании, он справляется с этим настолько хорошо, что выпускать его широкой публике опасно.
Доступ к Mythos получили лишь несколько тщательно отобранных организаций. Кто именно — Anthropic не раскрывает.
Логика такая: инструмент, который умеет находить дыры в системах безопасности лучше любого эксперта, в руках злоумышленников превращается в оружие. С его помощью можно легче красть данные или выводить из строя критическую инфраструктуру.
Это не первый случай, когда ИИ-компания отказывается от публичного релиза из соображений безопасности. OpenAI делала то же с ранними версиями GPT-2 в 2019 году, объясняя это риском дезинформации. Но Mythos — другой масштаб проблемы: речь идёт не о тексте, а о реальных кибератаках.
Anthropic — одна из ведущих ИИ-компаний США, основанная бывшими сотрудниками OpenAI. Компания позиционирует себя как лидера в области безопасного ИИ и регулярно публикует внутренние стандарты оценки рисков.
Anthropic сделала выбор: контроль над доступом важнее широкого распространения.