Время интеллекта — AI/ML новости
Anthropic запустила десять финансовых агентов и встроила Moody's в Claude
Huawei ждёт $12 млрд на ИИ-чипах — Nvidia в Китае обнулилась
Последние статьи
Все крупные американские ИИ-лаборатории согласились пускать правительство США к своим моделям до публичного выпуска
Google, Microsoft, xAI, OpenAI и Anthropic договорились давать правительству США доступ к ИИ-моделям до выпуска — добровольные соглашения с CAISI.
Сооснователь Anthropic: ИИ начнёт обучать себя сам уже к 2028 году — и люди не успеют за этим уследить
Сооснователь Anthropic Джек Кларк оценил вероятность появления ИИ, способного обучать себя без людей, в 60% к концу 2028 года.
Mythos напугал Белый дом: США могут ввести обязательную госпроверку ИИ перед релизом
Белый дом обсуждает обязательную госпроверку новых ИИ-моделей до релиза — поводом стала закрытая модель Anthropic Mythos, которую уже использует АНБ.
Российские нейросети получат доступ к госданным — с разрешения ФСБ и ФСТЭК
Новая версия российского законопроекта об ИИ разрешает обучать национальные модели на госданных — но только с одобрения ФСБ и ФСТЭК.
Маск против OpenAI: вторая неделя суда, на скамье свидетелей — соосновател компании
Суд Маска против OpenAI вошёл во вторую неделю: на скамью свидетелей вызвали соосновател компании Грега Брокмана и эксперта по ИИ Стюарта Рассела.
Европейские министры финансов требуют доступ к ИИ Anthropic, который находит уязвимости в любой ОС
Еврогруппа обсудила Mythos — ИИ Anthropic, который находит уязвимости нулевого дня в любой ОС. Белый дом блокирует расширение, хотя АНБ уже использует модель.
Ozon охотится за серверами Nvidia B300 по $1 млн — теми же, что скупает Китай
Ozon мониторит рынок серверов с Nvidia B300 SXM по $1 млн штука — тех же, что скупает Китай, — для создания собственных ИИ-моделей.
OpenAI создала отдельную компанию для внедрения ИИ в бизнес — уже собрала $4 млрд
OpenAI создала The Deployment Company — совместное предприятие на $10 млрд с 19 инвестфондами для помощи бизнесу во внедрении ИИ.
Ведущие ИИ-модели давали конкретные инструкции по биотерроризму
Эксперт по биобезопасности из Стэнфорда выяснил, что ведущий ИИ-чат-бот давал подробные инструкции по созданию патогена и организации масштабной биоатаки.
Учёные нашли «рубильник» безопасности в языковых моделях
Отказ языковых моделей от вредных запросов управляется одним направлением в пространстве активаций — и это делает текущую защиту крайне хрупкой.