Google Cloud Next 2025: Упор на ИИ с помощью Кремниевых Чипов, Программного Обеспечения и Открытой Экосистемы Агентов

Лас-Вегас становится хозяином Google Cloud Next 2025, мероприятия, разворачивающегося в критический момент для индустрии технологий. Армейская гонка искусственного интеллекта среди облачных титанов – Amazon Web Services (AWS), Microsoft Azure и Google Cloud – стремительно накаляется. Google, часто рассматриваемый как третий претендент, несмотря на свои впечатляющие технологические возможности и глубокие корни в исследовании ИИ, воспользовался сценой Cloud Next, чтобы изложить широкую и агрессивную стратегию, нацеленную прямо на корпоративный рынок ИИ.

Основная идея, озвученная генеральным директором Google Cloud Томасом Курianом и поддержанная генеральным директором Google и Alphabet Сундаром Пичаи, заключалась в том, чтобы перенести трансформацию ИИ из области лишь возможностей в осязаемую реальность. Google подчеркнул свои утверждения о динамике, указав на более чем 3,000 улучшений продуктов за прошлый год, на двадцатикратный рост использования платформы Vertex AI с момента предыдущего Cloud Next, более чем четыре миллиона разработчиков активно создают с помощью его семейства моделей Gemini, и представил более 500 историй успеха клиентов во время конференции.

Тем не менее, Google Cloud Next 2025 был более чем просто демонстрацией постепенных обновлений или впечатляющих показателей. Он также представил многофакторную атаку. Запустив мощный, оптимизированный под инференс кастомный силикон ( Ironwood TPU), уточнив свой основной портфель моделей ИИ с акцентом на практичность (Gemini 2.5 Flash), открыв свою обширную глобальную инфраструктуру для предприятий (Cloud WAN), и сделав значительную стратегическую ставку на открытую, совместимую экосистему для ИИ-агентов (протокол Agent2Agent), Google активно позиционирует себя для определения следующей эволюционной фазы корпоративного ИИ – то, что компания все чаще называет «агентным периодом».

YouTube Video

Ironwood, Gemini и Сетевая Эффективность

Центральным элементом амбиций Google в области ИИ является продолжающаяся инвестиция в кастомный силикон. Звездой Cloud Next 2025 стал Ironwood, седьмое поколение тензорного процессора Google (TPU). Критически важно, что Ironwood представлен как первый TPU, специально разработанный для инференса ИИ – процесса использования обученных моделей для прогнозирования или генерации выходных данных в реальных приложениях. 

Объявленные характеристики Ironwood впечатляющие. Google уточнил конфигурации, увеличивающиеся до огромных 9,216 чипов с жидкостным охлаждением, связанных между собой в одном модуле. Эта крупнейшая конфигурация, как утверждается, обеспечивает потрясающие 42.5 экзафлопс вычислительной мощности. Google утверждает, что это представляет более чем 24-кратное увеличение вычислительной мощности на модуль по сравнению с El Capitan, который в настоящее время считается самым мощным суперкомпьютером в мире.

Хотя это и впечатляет, важно отметить, что такие сравнения часто касаются разных уровней числовой точности, поэтому прямая эквивалентность сложна. Тем не менее, Google позиционирует Ironwood как более чем десятикратное улучшение по сравнению с предыдущим поколением высокопроизводительных TPU.

Помимо вычислительной мощности, Ironwood имеет значительные достижения в области памяти и взаимосвязанности по сравнению со своим предшественником, Trillium (TPU v6).

Возможно, не менее важно акцентирование внимания на энергоэффективности. Google утверждает, что Ironwood обеспечивает в два раза большую производительность на ватт по сравнению с Trillium и практически в 30 раз более энергоэффективен, чем его первый Cloud TPU 2018 года. Это напрямую связано с растущими ограничениями доступности энергии при масштабировании дата-центров для ИИ.

Сравнение поколений Google TPU: Ironwood (v7) против Trillium (v6)

Особенность Trillium (TPU v6) Ironwood (TPU v7) Фактор улучшения
Основной фокус Обучение и инференс Инференс Специализация
Пиковая производительность/чип Непосредственно несравнимо (другое поколение) 4,614 TFLOPs (вероятно FP8)
HBM емкость/чип 32 ГБ (оценка на основе 6x) 192 ГБ 6x
HBM пропускная способность/чип ~1,6 Тбит/с (оценка на основе 4,5x) 7,2 Тбит/с 4,5x
ICI пропускная способность (двухсторонняя) ~0,8 Тбит/с (оценка на основе 1,5x) 1,2 Тбит/с 1,5x
Производительность/ватт по сравнению с предыдущим поколением Базовая для сравнения 2x против Trillium 2x
Производительность/ватт против TPU v1 (2018) ~15x (оценка) Почти 30x ~2x против Trillium

Примечание: Некоторые показатели Trillium оценены на основе заявленных Google факторов улучшения для Ironwood. Сравнение пиковых вычислений сложно из-за различий между поколениями и вероятных вариаций точности.

Ironwood составляет важную часть концепции «AI Hypercomputer» Google – архитектуры, интегрирующей оптимизированное оборудование (включая TPU и GPU, такие как Blackwell от Nvidia и ожидаемый Vera Rubin), программное обеспечение (например, распределенный исполняемый модуль Pathways), хранилище (Hyperdisk Exapools, управляемый Lustre) и сети для решения сложных задач ИИ.

В модели Google представил Gemini 2.5 Flash, стратегическую альтернативу высококачественному Gemini 2.5 Pro. В то время как Pro нацелен на максимальное качество для сложного рассуждения, Flash явно оптимизирован для низкой задержки и экономии затрат, что делает его подходящим для приложений с высоким объемом и в реальном времени, таких как взаимодействие с клиентами или быстрая сводка.

Gemini 2.5 Flash имеет динамический «бюджет мыслей», который регулирует обработку в зависимости от сложности запроса, позволяя пользователям подстраивать баланс между скоростью, затратами и точностью. Этот одновременный акцент на высокопроизводительном инференс-чипе (Ironwood) и модели, оптимизированной по затратам/латентности (Gemini Flash), подчеркивает стремление Google к практической операционализации ИИ, признавая, что стоимость и эффективность запуска моделей в производстве становятся первостепенными проблемами для предприятий.

Дополняя обновления силикона и моделей, Google запустил Cloud WAN. Компания эффективно предлагает свою огромную внутреннюю глобальную сеть – протяженностью более двух миллионов миль волокна, соединяющую 42 региона через более чем 200 точек присутствия – непосредственно для корпоративных клиентов.

Google утверждает, что эта служба может обеспечить до 40% более быстрый сервис по сравнению с публичным интернетом и сократить общую стоимость владения до 40% по сравнению с самообслуживаемыми WAN, поддерживаемую SLA надежности в 99.99%. Основное внимание уделяется высокопроизводительной связи между дата-центрами и взаимодействию с филиальными/кампусными средами, Cloud WAN использует существующую инфраструктуру Google, включая Центр сетевой связи.

Хотя Google упомянул Nestlé и Citadel Securities как ранних участников, этот шаг в корне превращает основные инфраструктурные активы в конкурентные преимущества. Он трансформирует внутреннюю операционную необходимость в конкурентное преимущество и потенциальный источник дохода, ставя перед собой цель противостоять как традиционным провайдерам телекоммуникационных услуг, так и сетевым предложениям соперничающих облачных платформ, таких как AWS Cloud WAN и Azure Virtual WAN.

(Источник: Google DeepMind)

Агентная Операция: Строительство мостов с ADK и A2A

Помимо инфраструктуры и основных моделей, Google Cloud Next 2025 выделил необычайное внимание ИИ-агентам и инструментам для их создания и соединения. Представленная концепция выходит далеко за рамки простых чат-ботов и предполагает сложные системы, способные к автономному рассуждению, планированию и выполнению сложных многошаговых задач. Очевидно, что акцент сдвигается в сторону многоагентных систем, где специализированные агенты сотрудничают для достижения более широких целей.

Чтобы облегчить эту концепцию, Google представил Набор для разработки агентов (ADK). ADK – это открытая платформа, изначально доступная на языке Python, разработанная для упрощения создания отдельных агентов и сложных многоагентных систем. Google утверждает, что разработчики могут создать функционального агента менее чем за 100 строк кода.

Ключевые особенности включают подход сориентированный на код для точного контроля, нативную поддержку многоагентных архитектур, гибкую интеграцию инструментов (включая поддержку Протокола контекста модели, или MCP), встроенные возможности оценки и варианты развертывания от локальных контейнеров до управляемого движка агентов Vertex AI. ADK также уникально поддерживает двунаправленный аудиовизуальный поток для более естественного, похожего на человеческое взаимодействия. Сопутствующий «Сад агентов» предоставляет готовые примеры и более 100 предварительно настроенных подключений для быстрого начала разработки.

Тем не менее, настоящей центральной частью стратегии Google по агентам является протокол Agent2Agent (A2A). A2A – это новый открытый стандарт, созданный специально для совместимости агентов. Его базовая цель – позволить ИИ-агентам, независимо от того, на каком фреймворке они были созданы (ADK, LangGraph, CrewAI и т.д.) или каким вендором они были созданы, безопасно общаться, обмениваться информацией и координировать действия. Это напрямую решает серьезную проблему изолированных ИИ-систем в рамках предприятий, где агенты, созданные для разных задач или отделов, часто не могут взаимодействовать.

Этот шаг к открытому протоколу A2A представляет собой значительное стратегическое рисковое предприятие. Вместо того чтобы создавать собственную закрытую экосистему агентов, Google пытается установить фактический стандарт для коммуникаций агентов. Этот подход потенциально жертвует краткосрочным замыканием в пользу возможностей долгосрочного лидерства в экосистеме и, что важно, снижает трение, мешающее внедрению сложных многоагентных систем в предприятиях.

Поддерживая открытость, Google стремится ускорить весь рынок агентов, позиционируя свою облачную платформу и инструменты как основные средства.

Как работает A2A (Источник: Google)

Перекалибровка облачной гонки: конкурентная игра Google

Эти объявления соотносятся с контекстом текущих облачных войн. Google Cloud, несмотря на впечатляющий рост, часто подпитываемый принятием ИИ, все же занимает третье место по доле рынка, уступая AWS и Microsoft Azure. Cloud Next 2025 продемонстрировал стратегию Google по перекалибровке этой гонки, активно опираясь на свои уникальные сильные стороны и решая воспринимаемые слабости.

Ключевые отличия Google были в полном объеме. Долгосрочные инвестиции в кастомный силикон, увенчавшиеся TPU Ironwood, сосредоточенные на инференсе, обеспечивают четкий аппаратный нарратив по сравнению с чипами Trainium/Inferentia от AWS и ускорителем Maia от Azure. Google постоянно подчеркивает лидерство в производительности на ватт, что может быть решающим фактором при росте энергетических требований ИИ. Запуск Cloud WAN превращает непревзойденную глобальную сетевую инфраструктуру Google в явное преимущество в области сетевого взаимодействия.

Более того, Google продолжает использовать свое наследие в области ИИ и машинного обучения, восходя к исследованиям DeepMind и проявляясь в комплексной платформе Vertex AI, обеспечивая согласование с восприятием рынка как лидера в области ИИ и аналитики данных.

В то же время Google заявляет о своих усилиях по решению исторических проблем предприятий. Масштабная $32-миллиардная покупка компании Wiz по облачной безопасности, объявленная незадолго до Next, является ясным заявлением о намерении укрепить свою безопасность и улучшить удобство и качество своих предложений в сфере безопасности – области, критически важных для доверия со стороны предприятий.

Продолжительная акцентуация на отраслевых решениях, готовности к работе с предприятиями и стратегических партнерствах направлена на дальнейшую перестройку восприятия рынка с простого поставщика технологий на надежного партнера для бизнеса.

В целом, стратегия Google кажется менее сосредоточенной на том, чтобы сопоставлять услуги AWS и Azure в полном объеме, и больше ориентирована на использование своих уникальных активов – исследование ИИ, кастомное оборудование, глобальная сеть и расположение к открытым исходным кодам – для установления лидерства в том, что она воспринимает как следующую критически важную волну облачных вычислений: ИИ в масштабе, особенно эффективный инференс и сложные агентные системы.

Будущее Google в области ИИ

Google Cloud Next 2025 продемонстрировала убедительную нарратив амбиций и стратегической согласованности. Google делает ставку на искусственный интеллект, мобилизуя свои ресурсы вокруг кастомного силикона, оптимизированного для эпохи инференса (Ironwood), сбалансированного и практичного портфеля моделей ИИ (Gemini 2.5 Pro и Flash), уникальной глобальной сетевой инфраструктуры (Cloud WAN) и смелого, открытого подхода к бурно развивающемуся миру ИИ-агентов (ADK и A2A).

В конечном итоге мероприятие показало, что компания активно движется к трансформации своих глубоких технологических возможностей в комплексное, дифференцированное предложение для эпохи ИИ. Интегрированная стратегия – аппаратное обеспечение, программное обеспечение, сетевое взаимодействие и открытые стандарты – выглядит обоснованной. Тем не менее, предстоящий путь требует большего, чем просто инновации. 

Наибольшим вызовом для Google может стать не столько технология, сколько преодоление инерции внедрения среди предприятий и построение прочного доверия. Превращение этих амбициозных заявлений в устойчивые темпы увеличения доли рынка против глубоко укоренившихся конкурентов требует безупречного исполнения, ясных стратегий выхода на рынок и способности последовательно убеждать крупные организации в том, что Google Cloud является незаменимой платформой для их будущего, управляемого ИИ. Агентное будущее, которое видит Google, выглядит захватывающе, но его реализация зависит от навигации по этим сложным рыночным динамикам еще долго после того, как огни Лас-Вегаса тускнеют.

Статья Google Cloud Next 2025: Удвоение ставки на ИИ с помощью силикона, ПО и открытой экосистемы агентов впервые появилась на Unite.AI.

Перейти к источнику
AI Daily

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *