跨越“演示”到“生产”鸿沟,亚马逊云科技开启AI Agents新纪元
进入2025年后,Agentic AI可以说是讨论度最高的科技词汇。
从自主预定机票的“数字同事”,到主动编写并调试代码的编程助手,AI已经从简单的问答工具,向能够执行复杂任务的系统演进。
只是大多数企业还处于初步测试和概念验证阶段,尚未跨越横亘在“演示”与“现实”之间的鸿沟:
比如怎么管理AI Agents的长期记忆?如何确保AI Agents在访问敏感数据时的身份与权限可控?当成千上万个AI Agents协作运行时,能否观测、调试并保证其稳定性?
这些棘手的工程问题,已然成为AI落地必须迈过的一道坎,也是留给厂商们的必答题。
7月16日晚上举办的亚马逊云科技纽约峰会上,针对Agentic AI的核心议题,亚马逊云科技率先交出了答卷——发布了一系列全新的能力与工具,帮助客户大规模、安全部署和运行高性能AI Agents。
01 架构创新,重塑Agent开发的新范式
Agentic AI示范的的应用图景不可谓不诱人。
不同于被动响应的对话机器人、只能解决特定任务的AI Agent,Agentic AI可以看做是多个AI Agents组成的协作系统,能够在没有人为干预的情况下,独立地进行决策、规划、分配角色,并执行复杂行动。
但在落地部署的过程中,开发者们不得不投入大量的时间和精力在基础设施上,包括会话管理、身份权限控制、记忆系统、可观测性机制等等,需要保障运行的稳定性、满足企业级安全与合规要求,以至于Gartner在报告指出30%的AI项目在PoC阶段后即宣告失败。
在“纽约峰会”现场,亚马逊云科技给出了不同的解法——通过Amazon Bedrock AgentCore,帮助开发者打通AI Agents从概念验证到生产部署的关键环节,跨越从原型验证到生产落地的鸿沟。
不同于在虚拟机或容器中运行的部署方式,Amazon Bedrock AgentCore提供了一种新的开发架构,将Agent所需的一系列工程能力,抽象成了一套模块化的云服务:
AgentCore Runtime(运行时环境):Agents需要一个既安全又具弹性、能够应对多变任务负载的运行环境。AgentCore Runtime提供具有会话隔离的低延迟无服务器环境,支持任何代理框架,包括流行的开源框架、工具和模型,并且可承载长达8小时工作负载的运行时环境。
AgentCore Memory(记忆系统):正如人类需要依赖短期与长期记忆,Agents同样依赖复杂的记忆结构实现高效运行。AgentCore Memory支持统一管理会话记忆与长期记忆,为模型提供关联上下文,同时支持Agent基于历史交互的持续学习。
AgentCore Observability(可观测性):在生产环境中,全面跟踪和追踪Agent的每个动作对于性能表现至关重要。AgentCore Observability可提供Agent执行过程可视化追溯,支持元数据标记、自定义评分、轨迹检查及故障诊断/调试过滤器。
AgentCore Identity(身份管理):Agents在执行用户请求时,需基于正确的授权方式安全访问各类工具与资源。AgentCore Identity支持AI Agents安全访问亚马逊云科技服务及GitHub、Salesforce、Slack等第三方工具,既可代表用户操作,也可在获得预先授权后自主执行。
AgentCore Gateway(网关服务):AI Agents需要访问多种工具以执行现实任务。AgentCore Gateway为Agent提供安全路径以发现与调用各类工具,轻松将API、Lambda函数等转换为Agent可兼容工具。
AgentCore Browser Tool(浏览器功能):一款不依赖具体模型的、快速且安全的云端浏览器工具,让AI Agents大规模的与网站进行交互,可用于填写表单、网页导航等任务。
AgentCore Code Interpreter(代码解释器):AI Agents在执行复杂计算、验证推理、处理数据或生成可视化内容时,需要在安全的沙箱环境中编写并执行代码。AgentCore Code Interpreter允许开发者根据安全要求,自定义执行环境的实例类型与会话参数。
不夸张的说,亚马逊云科技正在定义一种新的开发范式:企业可以使用任意框架、任意模型构建Agent,按需灵活组合相应的功能模块,无须在安全、可靠等环节耗费精力。
AI Agents的开发不再是手工作坊式的探索,进入到了标准化的“流水线时代”,极大地降低了企业的应用门槛。
02 夯实地基,驱动Agent从“可用”走向“好用”
创新开发范式仅仅是AI走向生产的第一步。
大模型作为Agentic Al系统的“大脑”,承载着将非结构化的自然语言转化为系统可理解的意图和目标、推理与决策、理解上下文并进行连贯的多轮对话等职责,很大程度上左右着AI Agents的能力上限。
对应的挑战也很直接。
比如大模型的准确性,目前主流的大模型均可通过提示词工程和检索增强技术,实现80%以上的准确性。但对一些关键应用来说,80%的准确性并不能满足要求,必须要提升到90%乃至更高。
再比如多模型混合使用,单个模型的性能总有瓶颈,在实际的业务场景中,常常需要部署不同的大模型,根据具体的任务调用每个大模型最擅长的能力,并在多个模型间灵活切换、高效协同。
亚马逊云科技在“纽约峰会”上进行了对症下药。
首先是Amazon Nova大模型的升级,提供了监督微调、对齐、持续预训练、知识蒸馏等自定义技术,客户可以在整个模型训练生命周期中自定义Nova Micro、Nova Lite和Nova Pro等模型,不断提升准确性。
其中麻省理工学院利用Nova模型的定制能力,将超材料研究的属性预测错误率降低了95%。
为了满足AI Agents的应用形态,亚马逊云科技还上线了用于构建在浏览器上执行操作的Agent的大模型Amazon Nova Act、构建具有类似人类对话能力的语音Agent的Nova Sonic、最先进的多模态模型Nova Premiere等等。其中Nova Act使用了数百万个用户界面交互进行专门训练,在早期的企业用例中实现了超过90%的端到端任务完成率。
其次是对第三方大模型的适配,目前Amazon Bedrock上的大模型提供商已经从一年前的7家增长到了12家,包括Meta、DeepSeek、Anthropic、Cohere等等,只需10天时间就能将最新的开源大模型集成到平台上。
亚马逊云科技深知“没有一个模型能适用于所有用例”,不能依赖某一个“万能模型”来解决所有问题,将选择权还给了客户,根据自身业务需求、成本和性能考量,灵活地选择最合适的大模型,并通过Amazon Bedrock的统一接口便捷访问,避免被某一种技术路线“锁死”。
这种开放、灵活、可组合的模型服务能力,使大模型真正融入到了企业业务之中,不再是孤立的“AI孤岛”。
另一个不应该被忽略的服务是Amazon Marketplace,新增了AI Agents工具类别,可以理解为提供AI Agents和工具的一站式商店。
企业可在“商店”中发现、采购、部署并管理来自领先提供商的AI Agents与相关工具,借助即插即用的解决方案,以及Agent构建、运维与扩展经验的专业服务,更高效地构建AI系统。
做一个总结的话,亚马逊云科技正从底层的推理能力、模型定制,到上层的Agent编排、跨模型协作,再到生态层的标准协议与开放,构建了一条开发、部署到运营的“Agent生产线”,驱动AI系统从“可用”走向“好用”。
03 务实落地,搭建连接新旧系统的“桥梁”
企业怎么将Agentic AI落地部署到业务系统中呢?
看似是一个技术集成的问题,实则是对组织认知、数据基础、架构能力乃至管理方式的全面挑战。毕竟不同行业的业务流程千差万别,企业的数字化程度、组织结构、人才能力、数据基础、成本预算等“禀赋”各不相同,很难像“套模板”一样复制AI Agents。
亚马逊云科技让外界看到了深刻的务实主义,围绕千行万业的高频需求,提供了多元化的工具和服务。
针对开发人员对效率和智能化的要求,亚马逊云科技将Agent能力融入到了软件开发的全生命周期。
面向开发人员的IDE智能体Kiro,引入了规范驱动的开发,帮助开发者通过自然语言规范和架构图清晰地表达他们对复杂功能的意图;内置的智能代理钩子,可以自动处理生成文档、编写测试、优化性能等任务;同时提供了一个专门设计的界面,能够适应开发者的工作方式,轻松掌控开发过程。
如果开发者比较喜欢现有的开发环境,可以将Amazon Q Developer集成到当前的IDE中,实现功能编写、代码补全、安全扫描等功能。
针对.NET框架、VMware等系统的迁移痛点,AWS Transform提供了自动化代码重构和迁移的选项。
以VMware Transform智能体为例,实现了简化并自动化本地应用发现、迁移波次规划、端到端迁移过程的编排,并且解决了VMware网络配置、防火墙规则转换等难点,迁移速度最高可提升80倍。
其中拥有160年历史的汤森路透,面临着改造数十年.NET遗留代码的挑战。通过Amazon Transform,汤森路透.NET应用的现代化改造速度提升了4倍,每月处理150万行代码,让开发者从维护“技术债”的泥潭中解放了出来,将更多的精力专注于创新。
针对向量数据存储的成本压力,亚马逊云科技推出的Amazon S3 Vectors,最高可节省90%的成本。
由于AI Agents需要海量的知识和记忆,而这些数据通常以向量形式存储,动辄数十亿的向量数据带来的成本压力不言而喻。
Amazon S3 Vectors堪称一次“移花接木”式的创新,对于批处理和非实时的智能体任务,可以将长期向量数据集存储在S3 Vectors中,适用亚秒级的OpenSearch服务,处理需要高查询吞吐量和低延迟的工作负载,进而从根本上解决AI Agents长期记忆和知识库的成本瓶颈,让大规模、长周期的Agent应用成为可能。
可以找到的创新还有很多,譬如轻松实现AI Agent间协同工作的Strands 1.0、同步处理视频中的图像、音频与文本元素的TwelveLabs AI模型......隐藏在新工具和新服务背后的,恰恰是亚马逊云科技帮助客户解决“历史包袱”和“成本高墙”的决心。
每一个创新都是不是“炫技”,瞄准了企业落地过程中的真实痛点,解决“怎么落地”、“怎么迁移”、“怎么控本”的核心问题,为企业搭建起一座从传统系统迈向未来架构的“桥梁”,让AI Agents不再停留在愿景。
04 写在最后
当AI从工具演变为基础设施,一场时代洪流正席卷而来。
著名咨询公司Gartner在报告中预测:到2028年,33%的企业软件应用程序将包含Agentic AI,相比2024年不到1%的占比显著提升。
另一家咨询机构MarketsandMarkets也给出了乐观判断:AI智能体市场规模将从2024年的52.5亿美元,增长到2030年的526.2亿美元。
至少亚马逊云科技已经开始转动飞轮:不断完善Amazon Bedrock AgentCore等基础设施,吸引越来越多的开发者和服务商入驻Amazon Marketplace;丰富的工具和智能体解决方案,赋能更多的企业向智能体时代转型;而客户需求和反馈,将反过来驱动亚马逊云科技进行更深入的研发和投入。
一旦正向循环转动起来,AI Agents将是一种新常态。
