在 Google Cloud Next'25 大会上,Google 的表现十分突出。今年的大会不能简单地被视为一场常规的发布会,而更像是 Google Cloud 在全球 AI 军备竞赛中的一次明确表态。亚马逊 AWS 和微软 Azure 这两大巨头对 Google Cloud 形成挤压。Google Cloud 虽手握 DeepMind 等顶尖 AI 研究力量,但在市场份额上长期处于“第三名”。这一次,Google 似乎下决心不再只是追随,而是要抢先行动。
Google Cloud CEO Thomas Kurian 与 Alphabet CEO 桑达尔·皮查伊在台上多次强调的主题,是怎样把 AI 从“可能性”转化为企业的“生产力”。
VertexAI 平台的使用量激增了二十倍,有超过四百万的开发者在使用 Gemini 模型,这些漂亮的增长数据确实能提升士气。然而,在这些数字的背后,Google 真正所展现出的关键之处在于对 AI Agent 未来潜力的全面投入与押注。
其中,最具野心的是开放 Agent 互操作协议 Agent2Agent(A2A)。
在从 MCP 到 A2A 的转变中,Agent 间的“通用语言”之争已然开始。
在 Google 的 A2A 发布之前,一种给 AI Agent 赋予“通用语言”的趋势正在逐渐形成,并且这个趋势的主角是 Anthropic 的 MCP。
去年 11 月,Anthropic 把“模型上下文协议”(MCP)开源了。这个协议能将大模型直接和数据源连接起来。其核心目标是处理 AI 模型与数据孤岛相互隔离的问题。它通过提供统一的协议,来替代那些碎片化的自定义集成。MCP 采用客户端 - 服务器架构。AI 应用,像 Claude Desktop 或者 IDE 等,会通过 MCP 客户端与 MCP 服务器相连接。并且,前者能够提供对数据源或者工具的访问。
简单来说,现在企业和开发者若要将不同的数据接入 AI 系统,都必须单独开发对接方案。而 MCP 所要做的事情,就是提供一个“通用”的协议,以解决这个问题。
MCP架构包含以下几个部分:
MCP 之所以具有强大的能力,部分是因为它能够通过同一协议来处理本地的资源,比如数据库、文件以及服务等,同时也能处理远程的资源,像 Slack 或者 GitHub 的 API 等。当时 Anthropic 给出的“推荐语”是这样的。而这个统一的标准在刚刚推出的时候,并没有马上成为整个行业的共识。但最近一个月 AI Agents 产品出现了井喷式发展,它很快就成为了当下最为人们所认可的“标准”。
有模型从业者从接口标准化的视角来看待 MCP,他们把 MCP 类比成 Mac 笔记本的接口。他们表示,充电、外接显示器以及插入本地 U 盘等操作都可以用一个接口统一起来。人们认为该协议的核心价值在于为大模型数据集成提供了统一标准,这样不仅能够提升开发和使用的效率,还能够增强大模型的实际应用能力。
在技术方面,在 MCP 出现之前,业界主要依靠 RAG 和微调等方案,以及各种 Agent 应用来达成数据集成,这种方式不够统一。像 Dify 平台和 Coze 平台,它们都是借助 llamaindex 和 langchain 来构建的。虽然这些方案能够满足需求,但是总体来看比较零散,缺少统一标准。
本质上,Google 的 A2A 是想要去解决这样一个问题,即孤岛与统一之间的矛盾。
目前有众多工具在努力让大家能够便捷地“造出”Agent,然而这远远达不到足够的程度。企业内部很快将会遭遇新的“筒仓效应”,即不同的团队、不同的任务以及使用不同框架(像 ADK、LangGraph、CrewAI 等)所构建的 Agent 可能无法进行有效的沟通,从而形成新的信息孤岛。
这是 Agent2Agent(A2A)协议所力图解决的关键问题。A2A 被界定为一种全新的、开放的互操作性协议,它的雄心壮志在于,能够让由任何来源、在任何框架中构建的 AI Agent,都可以安全地开展通信、交换信息以及协调行动。销售部门的 Agent 能够顺畅地调用财务部门的 Agent 以核实信用额度,并且客服 Agent 能够自动引发供应链 Agent 来查询订单状态,A2A 的目的是为这种跨系统、跨领域的 Agent 协作提供一套标准化的“握手”及“对话”机制。
Google 介绍称,A2A 协议的运作基于一些关键原则,包括能力发现,即 Agent 通过 JSON 格式的“Agent Card”来发布自身能力;还有任务管理,能实现任务生命周期的同步;以及协作和用户体验协商等。并且该协议建立在成熟的 HTTP 和 JSON 标准之上,以此来确保兼容性和安全性。
Google 清楚地知道,标准的构建并非仅仅依靠一家公司的力量。所以,他们把 A2A 当作开源项目进行了发布。并且已经联合了五十多家技术合作伙伴,这些合作伙伴涵盖了 Salesforce、SAP、ServiceNow、MongoDB、德勤等在行业中处于领先地位的巨头。他们一起参与了协议的开发以及推广工作。这个合作伙伴的阵容体现出了 A2A 在企业软件领域所具有的初步吸引力。正如 ServiceNow 的执行副总裁乔·戴维斯所讲:“这是关于打破壁垒以及打破孤岛的,要让 Agent 能够真正地进行协作。”
A2A 的野心或许远非仅仅让 AI Agent 聊天这般简单。有评论明确指出,Google 试图借助 A2A 去解决一些自互联网诞生起就一直存在的根本性问题,包括服务发现、互操作性以及身份认证。这些挑战并非仅在 AI 时代存在。曾经,微软凭借 OLE(对象连接与嵌入)技术在桌面软件时代构建了生态壁垒。同时,蒂姆·伯纳斯 - 李爵士有一个宏大的“语义网”梦想,但这个梦想未能完全实现。
目前业界热议的“自动函数调用”只是处理了“Agent如何使用工具”的事宜。Anthropic 的 MCP 是这方面的一个关键标准。A2A 在这个层面上对其予以了补充支持。然而从长期来看,A2A 是想要解决“Agent 如何与 Agent 协作”这个更为宏大且更复杂的问题。这体现了Google在技术战略上依然怀有的“大图景”野心。
Google 表示,A2A 的设计具备支持多种模态的能力,这些模态包括文本、音频、视频等。并且,将 A2A 进行开源,邀请社区参与其中,这既是一种能够加速标准成熟的策略,同时也是一种能够争取到开发者和企业认同的高明做法。
当天发布之后,Google 没有明确指出它与 Anthropic 之间存在竞争,而是将两者形容为“互补”的关系。然而,经过仔细对比可以发现,这场竞争注定会发生。
MCP 最初出现是为了解决 Agents 的互通问题。在 Anthropic 的定义中,模型能力自身可解决,而 Agents 需要调用工具的能力则需要一个生态。这使得它更像是传统的 API 思路,参与者只需提供自身能力,至于能否有完整的自身应用并不重要。
Google 这次的 A2A,正在探索新的 AI 时代是否能够从一开始就改变 API 的模式。在 A2A 的设想中,加入的 AI Agent 有“掌握”一个自身应用产品的可能性。它不像 MCP 那样可能需要提供数据的权利,而是以完整 Agent 的形式参与到一个更大的市场中。
Google 这次发布的一些细节值得细细品味。在 Google 当天宣布的合作伙伴名单里,微软和 OpenAI 这样的玩家并未在列。然而,OpenAI 在前不久刚刚非常高调地宣布接入了 Anthropic 的 MCP。一个明显的判断是,OpenAI 这样的野心家,MCP 它可以不进行相关操作。然而,对于 Google 这种更直接且可能统一应用生态的标准,它是有意愿去做的。
Google 抓住发布 A2A 的时机很准确。在模型水平持续拉近的情况下,曾经落后的 Gemini 早已赶上 OpenAI 。在制定标准这一方面,Google 绝对不想让 Anthropic 占据所有。这场竞争已然开始。
二、配套A2A的更大野心:要让AI Agent无处不在
要使生态繁荣起来,就必须先降低门槛。基于此,Google推出了 Agent Development Kit(ADK)。
这是一个开源的框架,初期是以 Python 来实现的。它的目的是极大地简化单个 Agent 以及复杂多 Agent 系统的创建过程。Google 宣称,开发者只需使用不到 100 行的代码,就能够构建出一个具有功能的 Agent。
ADK 的目标很明确,即鼓励开发者和企业围绕 Google Cloud 构建各种不同的 Agent。这些 Agent 可以用于响应客户,也可以用于编写代码,还可以用于生成营销文案,或者用于优化运营流程。Google 通过提供易用的工具,希望能够加快 Agent 应用的落地。这存在着商业目的。一个繁荣的 Agent 生态,会自然而然地增加对其底层云服务的依赖与消耗。这样就能提振 Google Cloud 的收入,或许还能够在一定程度上缓解投资者对于生成式 AI 高昂成本以及资本支出(Alphabet 预计今年高达 750 亿美元)的担忧。
Google 在 Agent 蓝图的范畴之外,正在加快步伐把自身的能力融入到实际的工具当中,使得 Agent 能够成为可以被使用的生产力。
它的 AI 编程助手 Code Assist 进行了 Agent 化升级。其核心是引入了能够执行多步骤复杂任务的 AI 代理,像根据需求文档生成应用以及自动代码迁移等。同时还扩展了对 Android Studio 等环境的支持。这样做的目的是为了应对日益激烈的 AI 编程助手竞争,不过新功能还需要等待发布。
Google 推出了 Firebase Studio,它是一个全栈 AI 工作区,基于云和 Gemini。其目标是大幅降低 AI 应用开发的门槛,使得开发者以及非技术用户都能够在浏览器中一站式地进行应用的构建、发布和监控,以此来加快 AI 应用的创新与普及。
Google 通过深化 Code Assist 并拓宽 Firebase Studio,正在将 Agent 能力注入从专业开发到低代码的整个流程。这表明它有完善工具与平台的决心,并且会配合底层 ADK 与 A2A 协议,以加速 Agent 战略在 Google Cloud 生态中的落地。
在这一系列关键产品发布的背后,Google 清楚地知道成为标准制定者有着重要意义。在 AI Agent 迈向繁荣的关键节点,它必然不想让所有的 AI Agents 都听从 Anthropic 的。Google 希望 AI Agents 能够无处不在,并且要让它们都构建在 Google 的生态之中。