На конференции Cloud Next ‘26 Google представила восьмое поколение TPU — и впервые разбила их на два отдельных чипа. TPU 8t оптимизирован для обучения моделей, TPU 8i — для инференса. По словам Амина Вахдата, старшего вице-президента и главного технолога Google по AI и инфраструктуре, причина в росте нагрузки от агентов, которые работают в непрерывных циклах.
С Nvidia Google не соревнуется в мощности одного чипа. Вместо этого делает ставку на масштаб. Новые TPU объединяются в кластеры по 9 600 штук внутри одного дата-центра через оптические коммутаторы. Сеть Virgo связывает несколько дата-центров в кластер до миллиона чипов. Nvidia с NVLink держит в одном домене не больше 576 ускорителей. TPU 8i для инференса жертвует частью вычислений ради большего объёма SRAM прямо на чипе — чтобы модель не простаивала в ожидании данных. Оба чипа впервые работают на Arm-процессорах Axion собственного производства Google.
На программном фронте Google собрала свои AI-сервисы в Gemini Enterprise Agent Platform на базе Vertex AI. Агентам дали долгосрочную память, изолированные среды для запуска кода, а каждому агенту — криптографическую идентичность. Для защиты от атак через подсказки добавили фильтры и детектор аномалий. Чтобы организации не плодили сотни почти одинаковых агентов, появился центральный реестр.
Отдельный слой Workspace Intelligence связывает Gmail, Docs, Drive, Meet и Chat в единое смысловое пространство — Gemini видит связи между письмами, встречами и файлами, а не обращается к каждому приложению отдельно. В Gemini Enterprise app сотрудники сами собирают агентов из готовых блоков и следят за задачами в едином интерфейсе.
На платформе доступны Gemini 3.1 Pro и ряд других моделей, включая Claude Opus, Sonnet и Haiku от Anthropic — а также новый Claude Opus 4.7.