Thinking Machines Lab, стартап Миры Мурати — бывшего технического директора OpenAI — подписала с Google Cloud многомиллиардный контракт на инфраструктуру для обучения и развёртывания ИИ-моделей. Сумма сделки исчисляется единицами миллиардов долларов.
По условиям соглашения, компания получит доступ к серверам, работающим на новейших чипах Nvidia GB300. Они вдвое быстрее предыдущего поколения как при обучении моделей, так и при инференсе. Для Thinking Machines это первый договор с облачным провайдером — до этого был только партнёрский контракт с самой Nvidia.
Мурати основала Thinking Machines в феврале 2025 года. Уже в первые месяцы компания привлекла $2 млрд инвестиций при оценке в $12 млрд — это один из крупнейших сид-раундов в истории ИИ-индустрии. Первый продукт — инструмент Tinker для автоматизированного создания кастомных ИИ-моделей — вышел в октябре.
Google подчеркнула, что её инфраструктура поддерживает задачи обучения с подкреплением (reinforcement learning) — метод, на котором строится архитектура Tinker. Это вычислительно дорогой подход: именно его используют DeepMind и OpenAI для обучения своих топовых моделей. Масштаб сделки с Google отражает цену таких экспериментов.
Сделка неэксклюзивна — Thinking Machines может работать сразу с несколькими облачными провайдерами. Тем не менее Google намеренно заходит в партнёрства с перспективными лабораториями на раннем этапе.
На этой же неделе Anthropic заключила соглашение с Amazon на до 5 гигаватт мощностей. Раньше Anthropic и Google вместе с Broadcom договорились о крупных объёмах TPU — фирменных чипов Google для машинного обучения. Облачные провайдеры сейчас буквально конкурируют за контракты с ИИ-лабораториями, которые потребляют огромные вычислительные ресурсы.
Thinking Machines остаётся одним из самых закрытых ИИ-стартапов: компания почти ничего не раскрывает о том, что именно обучает и когда планирует выйти на рынок с чем-то большим, чем Tinker.