实测Kimi首个Agent:智能体与模型之间的区隔消失了?
这两天,月之暗面上线了名为 Kimi-Researcher 的产品,以“模型即Agent”的思路切入,标志着其在 Agent 路线上的一次明显发力。
如果大家还记得的话,就在 Kimi 发布的前一天,MiniMax 在 MiniMax Week 的第三天也启动了通用 Agent 的灰度测试。这两家此前一度低调的公司几乎在同一时段重新进入公众视野,也让原本趋于平静的 AI 四小强格局再次活跃起来。
Kimi、MiniMax、智谱、阶跃星辰,这几位曾经在大模型初期阶段高频出现的名字,如今正借助 Agent 的新赛道寻找新的突破口。不管是技术报告的更新、产品形态的演进,还是实际功能的迭代,几家厂商都在以各自的节奏向外界释放信号。
这一轮产品集中露面的时间节点并非巧合。从时机上看,这一波集中亮相并非偶然。当前,大模型正从纯粹的问答工具演进为具备自主规划、任务执行与上下文记忆能力的智能体系统。Agent 正在从“增强生产力”转向“替代部分人类任务角色”。对于具备模型研发和产品整合能力的厂商来说,这是一次相对公平的新起点。
01
报告,不只是写完,还得像
在这样的背景下,Kimi 推出的 Kimi-Researcher 选择了一个很明确的切入口:深度研究。
这个定位本身就带着浓厚的判断意味。它不打资讯助手、也不打日常问答,而是瞄准了原本需要专业助理团队完成的任务,例如梳理产业政策、比对跨国法规、生成调研报告等。
这类任务对模型的检索、思考、组织、判断能力要求极高,几乎是对 Agent 体系的全方位考验。
话不多说,我们直接开测。
比如说我想让它分析下2025年上半年黄金价格波动与美联储政策走向的关联性。
它没有立刻开始写,而是反问了我一些问题,从研究逻辑本身出发,主动确认这个任务到底该怎么做才不空转。
这种主动澄清机制,是过去在 Deep Research(左图展示为:ChatGPT的 research 模式)里很熟悉的,也不像 MiniMax (右图展示为MiniMax Agent)那种一口气跑完所有流程后才看结果的虚拟机结构,更接近一个“你提一个话题,它开始一步步推”的助研模型。
Kimi比GPT更贴心增添了“Include everything”按钮,不是单纯放开信息源,而是直接把它切换到一种更倾向生成完整结构报告的工作状态。
经过大概十几分钟的等待,它一共生成了两种版本。
一种是我们熟悉的文字版研究报告,段落结构清晰,语气沉稳,整体逻辑偏向内容层次 + 政策推导;另一种则是自动渲染的 HTML 格式报告,已经配好封面、标题、摘要、分节说明,标注出“核心发现”“关键风险”“历史规律”这些结构化小标签。
网页稿链接在这,有兴趣的朋友们可以打开看一看:
https://www.kimi.com/preview/d1bpb4criic9fe1hgdk0?blockId=108
内容还是很丰富的。
对经常要做对内材料和对外汇报的人来说,这种“写+排+渲”一体的体验,确实提高了交付效率。
你可以把它当成是Word+Notion+研究助理的混合体,不仅能输出内容,还知道怎么让内容看起来像一份真的报告。
然后我们也测了测生成PPT的能力。给它的任务是这样的:
梳理一下 Stable Diffusion 从最初发布到最新版本的演进路线,列出各阶段关键改进与社区贡献节点,并作出PPT
看起来是一个非常结构化的问题,理论上应该正对 Researcher 的下怀。但实际操作过程中,我们也发现了一些限制。
1. 当前版本仍未支持多任务并行(当然,这可能只是内测阶段的限制,正式版是否优化还有待观察。)
2. 并不能生成传统PPT,只能是 HTML 格式报告。
我们还是把report链接放在这里:
https://www.kimi.com/preview/d1bmvgb1cvf506sb6okg?blockId=108
不过也不能说它表现不好。作为一个学术型Agent,它在报告里自动加上了参考文献链接,并用下划线标注出处。可以完成一整套可交付内容。
而这,恰恰就是很多 AI 工具还停留在段落生成时无法做到的部分。
但当我们把这个任务交给 MiniMax Agent 时,体验就完全不同了:
它不仅生成了 PPT,还一并打包了 PDF 报告、Markdown 研究文档、图表文件、项目任务表(todo.md)和用于可视化的 Python 脚本。
你可以下载 .pptx 源文件,二次修改内容和格式。也能查看 .md 的版本记录、调图的 .py 脚本,每一阶段的中间产物全都可查。
从产出形式来看,它给你的是一整个PPT 制作系统,而不是一份静态报告。
02
Kimi-Researcher和
MiniMax Agent,哪个更适合你
从执行力上来说,两者都已经远超传统意义上的聊天机器人——你不用再一句一句提示,它们可以自己补全问题、拆解任务,甚至按你没说出口的逻辑推下去。但使用下来,两者的Agent 感其实来自不同的方向。
Kimi-Researcher 是任务导向的,它的逻辑很清楚:你给我一个研究型问题,我就像一个训练过的助理那样,问你三件事、查五份资料、最后给你一份成稿。
但 MiniMax 不太一样。
它更像一个运行在虚拟机里的多工系统——你可以把它理解成你装了一个干活的人,但这个人是你组装出来的。他自己并不主张“要做研究”还是“要做运营”,而是你怎么设计,他就按你的指令一步步走。有时候你会觉得,它像是个开着调试模式的智能体,你能看到它每一步调用了什么插件、在哪个页面抓了数据、用了哪个文档里的知识。这种透明度很高的体验,本质上更像是你操控一个流程机器人,而不是和一个人打交道。
如果说 Kimi 是把一个智能体藏在了模型背后,让你感受到结果;那 MiniMax 更像是把智能体摊开在你眼前,让你参与构建过程。两者谁更强,不一定,但它们带来的使用心智是完全不一样的。
还有一个重要差别,是默认角色设定。
Kimi 很明显是自带性格的——不夸张地说,它的Researcher标签决定了它的行为方式,比如它更关注严谨表达、更倾向于做出规范排版、更容易使用资料比对视角进行总结。
而 MiniMax 给你的更多是空角色模板——你自己来写 prompt,自己搭建链路,它才启动真正的 Agent 能力。
我不是说哪个更好,我只是说它们在实现Agent这件事上,走的是完全不同的路径。
在我们深度体验两者后,给出用户一句话结论:如果你更在意“我提个需求就能直接拿到结果”,Kimi 会是更顺手的选择;但如果你希望掌控整个任务的执行流程、甚至自己定义智能体的逻辑结构,那 MiniMax 可能更适合你。
03
Kimi 做结果,MiniMax 做过程
说到底,Kimi 和 MiniMax 的这次同步出招,看起来像是在做 Agent,其实是在做一次底层策略切换。
Kimi 把“模型即 Agent”这件事做得非常彻底。你看不到 Agent 配置、插件安装、工作流设计这些 Developer 套路,它不是在鼓励你搭建 Agent,而是干脆告诉你:“Agent 本身就是模型的一部分了”。你想研究政策,它就用研究员的方式回应你。它把智能体的控制权从用户界面撤回到了模型内部,交给了系统自动调度。
这一点是很多人没意识到的。
过去我们理解的智能体,是我来设计、我来组合,但 Kimi 的思路是,你不需要设计,你只要告诉我你要什么结果,我来决定应该找谁干活、用什么方法、怎么安排流程。
它把整个 Agent 系统做成了一个黑箱,你丢任务进去,它自己完成任务拆解、插件调用、资料组织和内容生成。就像你发了封工作邮件,过一阵就能收到一份干净利落的文档回复。
很多人还在找插件入口,Kimi 已经在去插件化。
这两种产品方向的不同,其实也能看出背后公司在策略上的侧重点。Kimi 一直强调“长文本”能力和“系统性表达”,在 Researcher 这个产品上被推到极致,它更注重交付内容的完整性和逻辑性。
Kimi不是做开发者平台,它要做的是“懂结构、能调度”的模型本体。这也解释了为什么它一上来就定位在最复杂的研究类任务,因为这种任务能最大程度激活它预设的 Agent 内部机制:澄清问题、检索并行、结构统筹、表达生成。这不是让你看到它能干什么,而是逼你意识到,你其实可以不再亲自干。
这点对用户心智的冲击,其实比 MiniMax 更强。
MiniMax 反而是最像 Agent的那一个。你真的可以看到它调用了哪些函数,爬了哪些网页,引用了哪段语料,它给你一个完整的操作轨道,你像是在 Debug 一个机器人的思路流程。这让它特别适合那些自己有一套流程、知道怎么干活的人。你可以把它当成 Agent 的 IDE ——你是工程师,它是执行层。
但这个过程中,大多数用户其实是有门槛的。
你需要理解:插件怎么绑定、变量怎么配置、路径怎么切换、长文本怎么缓存……你得像在搭一个流程工厂。而 Kimi 则直接告诉你:“你什么都不用管,只要告诉我要结果。”
这个差别说到底,是两家公司对智能体未来形态的不同下注。
MiniMax 赌的是:AI 应该成为一个流程平台,你来决定它长成什么样。
Kimi 赌的是:AI 应该直接成为一个能干事的角色,让你不再需要流程本身。
这两条路背后的预设完全不同。一个相信每个用户都该拥有自己的Agent,一个相信模型应该成为能自动执行复杂任务的交付体。
Kimi 是在重新定义什么是工具,MiniMax 是在放大工具能到多深。
这场Agent战役其实不是从用户开始的,而是从怎么分配任务这件事开始的。而这,恰恰是大模型能力真正能走入现实的起点。
你以为你在选一个Agent工具,其实你在决定的是:你愿不愿意把解决问题的方式,也一并交给它。
