Подразделение Google компании Alphabet в среду представило два специализированных процессора для искусственного интеллекта, что стало первым случаем разделения архитектуры тензорных процессоров на отдельные чипы для обучения и инференса.
TPU 8t разработан специально для обучения моделей ИИ, тогда как его аналог, TPU 8i, ориентирован исключительно на инференс — процесс применения обученных моделей в реальных задачах. Broadcom выступила партнёром по совместной разработке, продолжая сотрудничество, которое длится уже более десяти лет.
Alphabet Inc., GOOGL
Это представляет собой стратегический сдвиг по сравнению с предыдущими подходами. Более ранние итерации TPU объединяли возможности обучения и инференса в одном процессоре. Google объясняет это изменение появлением агентных систем ИИ — автономных моделей, работающих в непрерывных циклах обратной связи с минимальным участием человека, — которым требуется более специализированное кремниевое обеспечение.
TPU 8i, ориентированный на инференс, содержит 384 мегабайта SRAM на процессор — в три раза больше, чем у Ironwood. По данным Google, это архитектурное улучшение устраняет узкое место «зала ожидания», снижая задержки, возникающие при одновременном обращении множества пользователей к модели.
По сравнению с Ironwood TPU 8i достигает на 80% лучшей экономической эффективности. На практике организации могут обслуживать почти вдвое больше пользователей, не увеличивая бюджет.
Чип также демонстрирует до 2x улучшенную энергоэффективность на ватт, обеспеченную технологией динамического управления питанием, которая регулирует потребление энергии в соответствии с требованиями рабочей нагрузки в реальном времени.
Впервые оба процессора используют Google Axion CPU в качестве хост-процессора, обеспечивая оптимизацию на уровне системной архитектуры, а не ограничивая улучшения производительностью отдельных чипов.
Что касается возможностей обучения, конфигурация суперпода TPU 8t поддерживает кластеры из до 9 600 процессоров с 2 петабайтами высокопропускной памяти. Это вдвое превышает межчиповую пропускную способность Ironwood, и Google утверждает, что это позволяет сократить сроки разработки передовых моделей с месяцев до нескольких недель.
Тренировочный процессор обеспечивает в 2,8 раза большую вычислительную производительность по сравнению с архитектурой Ironwood седьмого поколения при аналогичной цене.
Ранее внедрение набирает обороты. Citadel Securities разработала платформы для количественных исследований на базе инфраструктуры TPU от Google. Все семнадцать национальных лабораторий Министерства энергетики США используют приложения ИИ-соучёных на этих процессорах. Anthropic взяла на себя обязательства использовать несколько гигаватт вычислительных мощностей Google TPU.
Аналитики DA Davidson в сентябре спрогнозировали, что подразделение TPU Google в сочетании с Google DeepMind может достичь оценки, приближающейся к 900 млрд $.
Google придерживается эксклюзивной модели дистрибуции TPU — они недоступны для прямой покупки и могут быть получены только через сервисы Google Cloud. Nvidia продолжает поставлять Google аппаратное обеспечение GPU, и компания подтвердила, что войдёт в число первых поставщиков облачных услуг, предлагающих платформу Nvidia Vera Rubin, когда та выйдет позднее в этом году.
Процессоры были разработаны в тесном сотрудничестве с Google DeepMind, которая применяла их для обучения языковых моделей Gemini и оптимизации алгоритмов, лежащих в основе платформ Search и YouTube.
Google объявила, что оба процессора — TPU 8t и TPU 8i — станут общедоступными для клиентов облачной платформы в конце 2025 года.
Материал Alphabet (GOOGL) Unveils Dual-Purpose 8th-Gen TPU Chips Developed With Broadcom впервые опубликован на Blockonomi.


