国内 AI Coding Plan 价格战全景(2026 Q1):9大平台28款套餐深度横评
发布日期:2026-04-03 | 数据截止:2026-03-31 | 覆盖平台:9家 | 覆盖套餐:28款
一、引子:从"13小时烧掉200美元"说起
2025年底,一个帖子在国内开发者社区炸开了锅。
一位开发者用 OpenClaw(前身为 ClawdBot)完成一个复杂任务,13小时后收到了一张200美元的账单。一次普通的编程任务,因为 Agent 反复调用模型、多轮推理、工具链协同,轻松消耗了数百万 Token。
这不是个案。随着 AI 编程 Agent 从"代码补全"进化到"自主开发",按 Token 计费的模式正在暴露其致命缺陷:你无法预测一次 Agent 任务会消耗多少 Token,但账单会告诉你。
2025年9月,Anthropic 推出 Claude Max——以固定月费替代按量计费的订阅模式,彻底封死了账单焦虑。这个模式很快被国内厂商嗅到了机会。
2025年底,智谱 AI 率先推出 GLM Coding Plan,成为国内第一个吃螃蟹的大模型原厂。2026年2月25日,阿里云百炼以"7.9元/月"的首月价格强势入场,腾讯云、百度千帆、火山方舟紧随其后。到2026年3月,9家平台28款套餐已经形成了两条清晰的竞争路线:
- 云平台聚合型:阿里云、腾讯云、火山方舟、百度千帆——把多家模型打包进同一个套餐,以"全家桶"模式吸引用户
- 大模型原厂型:智谱、Kimi、MiniMax、快手、摩尔线程——只提供自家模型,以深度优化和生态整合为卖点
价格战已经白热化。但表面的价格数字之下,隐藏着计量单位差异、额度陷阱、模型能力鸿沟等大量需要拆解的信息。本文将从定价体系、额度机制、模型能力、工具兼容性、生态完整性五个维度,给出一份完整的横评报告。
二、Coding Plan 是什么?为什么你需要它?
2.1 从按量付费到固定月费
传统大模型 API 的计费逻辑很简单:输入 Token 单价 × 输入量 + 输出 Token 单价 × 输出量。对于简单的问答、翻译、摘要任务,这个模式完全可控。
但 AI 编程 Agent 改变了游戏规则。
以 OpenClaw 为例,一次"帮我修复这个 Bug"的任务,背后可能触发 10-30 次模型调用:读取文件、分析代码、定位问题、生成修复方案、验证修复、运行测试……每一步都在消耗 Token。一个中等复杂度的任务,Token 消耗可能达到 5000-10000 个(含思考部分);一个复杂任务,轻松突破 50000 个。
按国内主流模型的 API 价格(约 ¥0.6-2.2 / 百万 Token 输出),一个月重度使用下来,API 费用可能达到数百甚至上千元。
Coding Plan 的核心逻辑:用固定月费锁定成本,把 Token 计费转化为请求次数封顶。 你付 ¥40/月,就不用担心这个月会收到一张 ¥200 的账单。
2.2 Think 模式:不开等于浪费一半的钱
这是很多开发者忽略的关键点。
大模型默认的工作方式是"看到问题→直接输出答案"(直觉模式)。而 Think 模式(也叫深度思考、推理模式)会让模型先进行内部推理:拆解问题、验证逻辑、排除错误路径,然后再输出结果。
根据实际使用体验,国内模型开启深度思考后,对话任务的完成质量基本能达到 95% 以上。但代价是:Thinking Token 的消耗量可能是普通模式的 3-10 倍。
如果你还在按量付费,开 Think 确实会贵很多。但如果你已经用了 Coding Plan——月费固定,Token 消耗不再按量计费,为什么不让模型把能力发挥到最好?
这就引出了 Coding Plan 的核心价值主张:让你从"省着用"变成"放开用"。
2.3 两种计量体系:Prompts vs 次请求
这是国内 Coding Plan 最大的"坑",也是最容易让开发者困惑的地方。
以"Prompts"计量(大模型原厂型):
智谱 GLM、MiniMax、快手 KwaiKAT 采用这种方式。1个 Prompt = 1次完整的用户提问。但实际上,一次提问会触发多次内部模型调用(简单任务约 5-15 次,复杂任务约 15-30 次),每次调用都消耗 1 个 Prompt 额度。
所以智谱 GLM Lite 的"每5小时 80 Prompts",实际上意味着你只能发起约 80 次对话。
以"次请求"计量(云平台聚合型):
阿里云百炼、腾讯云、火山方舟、百度千帆采用这种方式。1次请求 = 1次模型调用。一次用户提问触发 10 次内部调用,就消耗 10 次额度。
所以阿里云百炼 Lite 的"每5小时 1200 次请求",看似数字比智谱的 80 大得多,但折算下来实际可完成的对话数量约为 120 次(按简单任务 10 次调用/任务计算),和智谱的 80 次差距并不像数字看起来那么大。
关键结论:比较额度时,必须先统一计量单位,否则毫无意义。
三、九大平台全景扫描
3.1 云平台聚合型:全家桶路线
阿里云百炼——模型最多的"超市"
入场时间:2026年2月25日
阿里云百炼是本轮价格战的引爆者。7.9元/月的新用户首月价格,几乎把入门门槛踩到了地平线以下。
其核心策略是"全家桶":在一个套餐内打包 Qwen3.5-Plus、Qwen3-Max、Qwen3-Coder-Next/Plus、GLM-5、Kimi-K2.5、MiniMax-M2.5、GLM-4.7 等多达 8 款主流编程模型。开发者可以在 Qwen Code、OpenClaw、Claude Code、Cursor、Cline、CodeX 等 10 余款工具中自由切换。
| 套餐 | 标准月费 | 新用户首月 | 每5小时额度 | 每月上限 |
|---|---|---|---|---|
| Lite | ¥40/月 | ¥7.9/月 | ~1,200次请求 | ~18,000次 |
| Pro | ¥200/月 | ¥39.9/月 | ~6,000次请求 | ~90,000次 |
亮点: 模型多样性国内第一,工具兼容性最广。新用户首月 7.9 元几乎零门槛体验。
注意: 截至2026年3月底,Lite 套餐已停止新购,仅限已购用户续费。这意味着"7.9元体验"窗口正在关闭。
腾讯云 Coding Plan——双协议兼容的后来者
入场时间:2026年3月5日
腾讯云是本轮竞争中入场最晚的大型云厂商,但定价策略精准对标阿里云和火山方舟。
| 套餐 | 标准月费 | 新用户首月 | 每5小时额度 | 每月上限 |
|---|---|---|---|---|
| Lite | ¥40/月 | ¥7.9/月 | ~1,200次请求 | ~18,000次 |
| Pro | ¥200/月 | ¥39.9/月 | ~6,000次请求 | ~90,000次 |
支持模型: 腾讯自研的混元系列(Hunyuan-T1、HY 2.0 Instruct/Think、Hunyuan-TurboS)为核心,同时聚合 GLM-5、Kimi-K2.5、MiniMax-M2.5。
核心差异化:同时提供 OpenAI 兼容协议和 Anthropic 兼容协议。 这意味着你不需要修改任何配置,就能把 Claude Code 的 API 端点直接指向腾讯云——迁移成本几乎为零。
适用场景: 腾讯云生态用户(小程序开发、Serverless、Go/C++ 后台),以及需要 Hunyuan 模型能力的开发者。
火山方舟(字节跳动)——Auto 模式的灵活性
入场时间:2026年2月
火山方舟的差异化在于多模型聚合 + Auto 智能路由。在同一套餐下,开发者可自由切换豆包(Doubao)、GLM、DeepSeek、Kimi 等模型,或开启 Auto 模式由系统自动匹配最优模型。
| 套餐 | 标准月费 | 首月优惠 | 每5小时额度 | 每月上限 |
|---|---|---|---|---|
| Lite | ¥40/月 | ¥9.9/月 | ~1,200次请求 | ~18,000次 |
| Pro | ¥200/月 | ¥49.9/月 | ~6,000次请求 | ~90,000次 |
| Max | ¥400/月 | — | — | — |
亮点: Auto 模式是真正的"懒人福音"——系统根据任务类型自动选择最合适的模型,开发者完全不需要操心模型选择。此外,字节还提供 Max Plan(¥400/月,季付¥1,200),满足更高用量需求。
配套工具: MarsCode(原豆包MarsCode)提供 IDE 插件 + Cloud IDE 双形态,已免费开放给所有用户。
百度千帆——DeepSeek 的独占优势
百度千帆的套餐结构与阿里云百炼几乎完全对齐(Lite ¥40/月、Pro ¥200/月),但有一个独特卖点:支持 DeepSeek-V3.2,这是其他云平台聚合型套餐中较少包含的模型。
DeepSeek-V3.2 在 SWE-bench Verified 上得分 73.0%,且在数学推理(AIME、IOI 金牌)方面表现突出。对于需要兼顾编程和数学推理的开发者,这是一个有价值的差异化。
3.2 大模型原厂型:深度优化路线
智谱 GLM——最早入局者的涨价争议
智谱 AI 是国内最早推出 Coding Plan 的大模型原厂。2026年2月,随着 GLM-5(744B 参数,40B 激活)正式发布,智谱同步对套餐进行了调价,整体涨幅约 30%,引发开发者广泛讨论。
| 套餐 | 标准月费 | 每5小时额度 | 每周限额 | 支持模型 |
|---|---|---|---|---|
| Lite | ¥49/月 | ~80 Prompts | ~400 Prompts | GLM-5、GLM-4.7 |
| Pro | ¥149/月 | ~400 Prompts | ~2,000 Prompts | GLM-5、GLM-4.7 |
| Max | ¥469/月 | ~1,600 Prompts | ~8,000 Prompts | GLM-5(含专精版) |
核心问题: 智谱 Coding Plan 仅支持自家 GLM 系列模型,模型多样性为零。在阿里云百炼已经把 GLM-5 打包进 7.9 元套餐的背景下,智谱 49 元只能用 GLM 的性价比显得有些尴尬。
但智谱也有自己的护城河:GLM-5 的 SWE-bench Verified 得分 77.8%,是 MIT 协议下开源模型中的最高分。Pro 套餐额外赠送 AutoGLM-OpenClaw 一个月使用权。工具兼容性覆盖 20+ 款主流编程工具,包括联网搜索和视觉理解等 MCP 能力。
额外注意: 智谱设置了每周限额(Lite 约 400 次/周),这是其他平台没有的限制。即使 5 小时内额度未用完,超过周限额后也会受限。
Kimi(月之暗面)——Agent 生态的独孤求败
Kimi 的 Coding Plan 是所有平台中最有"个性"的一个。
命名体系: 音乐术语命名(Moderato ¥19 → Allegretto ¥39 → Allegro ¥99 → Vivace ¥199),暗示着"速度"与"节奏"的产品哲学。
核心差异化:Agent 深度整合。 Kimi 是目前国内唯一将 AI 编程与 Agent 自动化工作流深度整合的订阅计划。Allegretto 档(¥39/月)即可解锁 Agent 集群功能,支持多 Agent 并行执行任务。Kimi Claw(云端 Agent 工作流)、深度研究、PPT 生成等能力与 Coding Plan 共享额度。
模型能力: Kimi K2.5 是国内唯一达到 1T 参数规模的编程模型,原生多模态能力支持截图→代码的 Vibe Coding 工作流。SWE-bench Verified 76.8%,但 LiveCodeBench 高达 85.0%——这是所有模型(包括闭源)中的最佳成绩,说明其在竞技编程和算法任务上有独特优势。
注意: Kimi 的额度以"倍数"形式叠加在基础会员权益上,缺乏明确的 5 小时绝对数量,透明度低于其他平台。
MiniMax——极速版的差异化
MiniMax 的套餐体系最为复杂,分为标准版和极速版两条产品线。极速版使用 MiniMax M2.5-highspeed 模型,推理速度达到 100+ TPS(Tokens Per Second),代码几乎是"瞬间蹦出来"。
| 套餐 | 月费 | 每5小时额度 | 特点 |
|---|---|---|---|
| Starter | ¥29/月 | 40 Prompts | 入门首选 |
| Plus | ¥49/月 | 100 Prompts | 高性价比 |
| Max | ¥119/月 | 300 Prompts | 大用量 |
| Plus-极速 | ¥98/月 | 100 Prompts | 极速响应 |
| Max-极速 | ¥199/月 | 300 Prompts | 超值之选 |
| Ultra-极速 | ¥899/月 | 2,000 Prompts | 硬核开发者 |
亮点: 无每周限额(每 5 小时自动刷新),Plus 版 ¥29/月的入门价在原厂型中最低。M2.5 的 SWE-bench Verified 达到 80.2%,是开源模型中的最高分。
注意: Agent 会员计划与 Coding Plan 相互独立,需分开购买。Ultra-极速版年费高达 8,990 元,是目前国内最贵的 Coding Plan 套餐。
快手 KwaiKAT 与摩尔线程
快手 KwaiKAT 仅支持自研单一模型(KAT-Coder-Pro V1),入门价 ¥29/月但 Max 档高达 ¥350/月,灵活性不足,不推荐作为主力。摩尔线程以"国产算力+国产模型"为卖点,仅提供 GLM-4.7,按季度计费,定位为国产算力展示窗口。这两家对大多数开发者而言优先级较低。
四、硬核对比:五个维度横向测评
4.1 价格竞争力
| 排名 | 平台 | 入门档月费 | 首月优惠 | Pro档月费 |
|---|---|---|---|---|
| 1 | Kimi Moderato | ¥19 | 无 | ¥99 |
| 2 | MiniMax Starter | ¥29 | 无 | ¥49(Plus) |
| 3 | 火山方舟 Lite | ¥40 | ¥9.9 | ¥200 |
| 3 | 阿里云百炼 Lite | ¥40 | ¥7.9(停新购) | ¥200 |
| 3 | 腾讯云 Lite | ¥40 | ¥7.9 | ¥200 |
| 3 | 百度千帆 Lite | ¥40 | ¥7.9 | ¥200 |
| 7 | 智谱 GLM Lite | ¥49 | 无 | ¥149 |
| 8 | 快手 KwaiKAT | ¥29 | ¥8.8 | ¥70 |
入门档价格集中在 ¥19-49 区间。首月优惠形成了"7-10元体验门槛"的市场共识,但这只是获客策略,续费价格才是真实成本。
4.2 额度实际可用量
统一折算为"可完成简单对话数 / 5小时"(按每任务 10 次模型调用估算):
| 平台 | 原始额度 | 计量方式 | 折算对话数 | 周限额 |
|---|---|---|---|---|
| 火山方舟 Lite | 1,200次/5h | 次请求 | ~120次 | 无 |
| 阿里云百炼 Lite | 1,200次/5h | 次请求 | ~120次 | 无 |
| 腾讯云 Lite | 1,200次/5h | 次请求 | ~120次 | 无 |
| 百度千帆 Lite | 1,200次/5h | 次请求 | ~120次 | 无 |
| MiniMax Starter | 40 Prompts/5h | Prompts | ~40次 | 无 |
| 快手 KwaiKAT Mini | 40 Prompts/5h | Prompts | ~40次 | 无 |
| 智谱 GLM Lite | 80 Prompts/5h | Prompts | ~80次 | 400次/周 |
结论: 云平台聚合型的额度充裕度普遍优于大模型原厂型,Lite 档的实际可用量约为 MiniMax/快手的 3 倍。但智谱的每周限额是额外的约束,需要特别注意。
4.3 模型能力对比
基于公开 benchmark 数据(SWE-bench Verified / HumanEval / LiveCodeBench):
| 模型 | SWE-bench Verified | HumanEval | LiveCodeBench | 参数规模 | 可通过Coding Plan使用 |
|---|---|---|---|---|---|
| MiniMax M2.5 | 80.2% | ~92% | ~65% | 229B/10B | 百炼/腾讯/千帆/火山/MiniMax |
| GLM-5 | 77.8% | 94.2% | 52.0% | 744B/40B | 智谱/百炼/腾讯/千帆/火山 |
| Kimi K2.5 | 76.8% | ~90% | 85.0% | 1T/32B | Kimi/百炼/腾讯/千帆 |
| DeepSeek V3.2 | 73.0% | ~92% | ~70% | 685B/~37B | 千帆/火山 |
| Qwen3-Coder-Next | 70.6% | ~85% | ~60% | 80B/3B | 百炼 |
| Claude Opus 4.6(参考) | 80.8% | — | — | — | Anthropic |
| GPT-5.2(参考) | 80.0% | — | — | — | OpenAI |
关键发现:
- MiniMax M2.5 以 80.2% 领跑开源模型,距 Claude Opus 4.6 仅 0.6 个百分点,但 LiveCodeBench 偏低,说明其在算法竞赛类任务上不占优
- GLM-5 的 HumanEval 94.2% 最高,但 LiveCodeBench 仅 52.0%——反而不如前代 GLM-4.7(84.9%),说明 GLM-5 针对 SWE-bench 做了定向优化,在竞技编程上可能不如 GLM-4.7
- Kimi K2.5 的 LiveCodeBench 85.0% 是所有模型中的绝对王者,适合算法密集型任务
- Qwen3-Coder-Next 只有 3B 激活参数却达到 70.6% SWE-bench,是效率之王,可在 46GB 内存的单机上运行
4.4 工具兼容性
| 平台 | OpenClaw | Claude Code | Cursor | Cline | OpenCode | CodeX | Kilo Code |
|---|---|---|---|---|---|---|---|
| 阿里云百炼 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
| 腾讯云 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
| 火山方舟 | ✅ | ✅ | ✅ | ✅ | ✅ | — | — |
| 百度千帆 | ✅ | ✅ | ✅ | ✅ | — | — | — |
| 智谱 GLM | ✅ | ✅ | ✅ | ✅ | ✅ | — | — |
| Kimi | ✅ | ✅ | ✅ | ✅ | — | — | — |
| MiniMax | ✅ | ✅ | ✅ | ✅ | — | — | — |
阿里云百炼和腾讯云工具兼容性最广,均支持 10 款以上主流编程工具。腾讯云的双协议兼容(OpenAI + Anthropic)理论上可接入任何支持这两种协议的工具。
4.5 生态完整性
| 维度 | 阿里云百炼 | 腾讯云 | 火山方舟 | 智谱GLM | Kimi | MiniMax |
|---|---|---|---|---|---|---|
| Agent工作流 | 一般 | CodeBuddy | MarsCode | AutoGLM | Kimi Claw | 独立购买 |
| 多模态 | 部分 | 部分 | 部分 | MCP | 原生 | 无 |
| IDE集成 | Qwen Code | CodeBuddy | MarsCode | 插件 | Kimi Code | 插件 |
| 企业服务 | 完整 | 完整 | 完整 | 一般 | 一般 | 一般 |
| 云服务协同 | 最强 | 强 | 中 | 无 | 无 | 无 |
Kimi 在 Agent 生态上独树一帜。 ¥39/月的 Allegretto 档即可解锁 Agent 集群,是目前国内唯一在订阅计划中原生支持多 Agent 并行的平台。如果你需要"AI 帮你自动完成一整套开发任务",Kimi 是目前最成熟的选择。
五、隐藏陷阱与避坑指南
陷阱一:计量单位不同,不要只比数字
1200次请求 ≠ 1200次对话。云平台聚合型的"次请求"和大模型原厂型的"Prompts"是完全不同的计量单位。比较前必须折算。
陷阱二:首月优惠≠长期价格
7.9元是获客手段,不是真实成本。Lite 档续费价格统一为 ¥40/月。阿里云百炼 Lite 甚至已停止新购——"体验窗口"正在关闭。
陷阱三:额度不结转
所有平台的额度都是"每5小时刷新"或"每周刷新",未用完的额度不会累积到下一周期。买 Pro 档但使用频率低,等于浪费。
陷阱四:Think 模式消耗翻倍
开 Think 后,每次任务的模型调用次数可能从 10 次翻倍到 20-30 次。如果你的套餐额度本来就紧张,开 Think 可能导致额度提前耗尽。
陷阱五:部分平台不支持退订
充值前务必查看退订政策。部分平台的季度/年度套餐不支持中途退款。
避坑建议
- 轻度用户别买重度套餐:每月编程 <20 次,MiniMax Starter ¥29 或 Kimi Moderato ¥19 足够
- 重度用户别贪低价入门档:每天编程 >10 次,直接上 Pro 档,Lite 的额度会让你抓狂
- 优先薅首月优惠:新用户先花 ¥7.9 体验一个月,测试模型适配度和平台稳定性,再决定长期订阅
- 避开隐藏条款:确认是否支持退订、是否禁止企业使用、额度是否结转
六、按开发者画像推荐
| 开发者类型 | 推荐方案 | 月费 | 理由 |
|---|---|---|---|
| 首次体验/尝鲜 | 火山方舟 Lite | ¥9.9(首月) | Auto模式省心,多模型可切换 |
| 首次体验/尝鲜 | 腾讯云 Lite | ¥7.9(首月) | 双协议兼容,迁移成本最低 |
| 轻度日常(<20次/月) | Kimi Moderato | ¥19 | 最便宜的标准价,含Kimi会员权益 |
| 轻度日常 | MiniMax Starter | ¥29 | 无周限额,100+ TPS极速版可选 |
| 中度开发(20-50次/天) | 阿里云百炼 Pro | ¥200 | 模型最多(8款),额度最充裕 |
| 中度开发 | 火山方舟 Pro | ¥200 | Auto智能路由,Max Plan可升级 |
| 多模型切换需求 | 阿里云百炼 | ¥200 | "模型超市",一个套餐用遍所有顶流模型 |
| Agent/自动化工作流 | Kimi Allegretto | ¥39 | Agent集群+Kimi Claw,唯一原生支持 |
| 腾讯生态(小程序/Serverless) | 腾讯云 | ¥40-200 | 混元模型+CodeBuddy,微信API语料优势 |
| GLM 深度依赖 | 智谱 GLM Pro | ¥149 | GLM-5专精版,AutoGLM赠送 |
| 极致性价比(长期) | MiniMax Plus | ¥49 | 无周限额,100TPS,标准价最低中档 |
七、趋势展望
价格战还能打多久?
短期来看,¥40/月的 Lite 档和 ¥200/月的 Pro 档已经形成了市场共识价格,进一步下探的空间有限。但首月补贴战可能还会持续——获客成本远低于用户终身价值,云商有充足的动力继续"烧钱换用户"。
中期来看,真正的竞争焦点将从价格转向模型能力和生态整合。当所有平台都能提供同样的模型时,差异化将来自:Agent 工作流的成熟度、IDE 集成的深度、企业级服务的完善度。
长期来看,Coding Plan 可能只是过渡形态。随着开源模型能力逼近闭源(MiniMax M2.5 距 Claude Opus 4.6 仅 0.6 分),本地部署 + 按需调用的混合模式可能成为新常态。届时,Coding Plan 的价值将更多体现在"免运维"和"工具集成"上,而非模型本身。
从 API 到 IDE 到 Agent 的全链路竞争
当前的竞争已经超越了单纯的"卖 API 额度"。阿里有 Qwen Code,腾讯有 CodeBuddy,字节有 MarsCode,Kimi 有 Kimi Code + Kimi Claw——每家都在试图构建"模型→API→IDE→Agent"的完整链路。
这条链路中,Agent 层是最有想象力的战场。Kimi 已经率先在订阅计划中整合了 Agent 集群能力,其他平台大概率会跟进。2026年下半年,我们可能看到 Coding Plan 演变为更广义的"AI Developer Plan"——不仅包含编程,还涵盖自动化测试、部署、监控等完整开发流程。
开源模型逼近闭源:订阅模式的可持续性
一个不容忽视的事实:2026年2月,开源模型(MiniMax M2.5、GLM-5、Kimi K2.5)已经把与闭源模型的差距压缩到了个位数百分点。当开源模型"够用"时,开发者为什么要为闭源 API 付费?
Coding Plan 的答案是:你付的不是模型的钱,而是生态的钱。 一个 ¥200/月的 Pro 套餐,你买到的是 8 款模型的灵活切换、10+ 款工具的无缝集成、Agent 工作流的原生支持——这些是本地部署开源模型难以复制的体验。
这个商业模式能否持续,取决于云商能否在"模型同质化"的背景下,构建足够深的生态护城河。
附录:完整套餐对比速查表
| 平台 | 类型 | 入门档 | Pro档 | 计量 | 模型数 | Auto路由 | 特色 |
|---|---|---|---|---|---|---|---|
| 阿里云百炼 | 云平台 | ¥40 | ¥200 | 次请求 | 8款 | ✅ | 模型最多 |
| 腾讯云 | 云平台 | ¥40 | ¥200 | 次请求 | 7款 | ✅ | 双协议兼容 |
| 火山方舟 | 云平台 | ¥40 | ¥200 | 次请求 | 4款+ | ✅ | Auto模式 |
| 百度千帆 | 云平台 | ¥40 | ¥200 | 次请求 | 4款 | ❌ | DeepSeek支持 |
| 智谱GLM | 原厂 | ¥49 | ¥149 | Prompts | 2款 | ❌ | 工具兼容广 |
| Kimi | 原厂 | ¥19 | ¥99 | 倍数 | 1款 | ❌ | Agent生态 |
| MiniMax | 原厂 | ¥29 | ¥49(Plus) | Prompts | 4款 | ❌ | 极速版 |
| 快手KwaiKAT | 原厂 | ¥29 | ¥70 | Prompts | 1款 | ❌ | — |
| 摩尔线程 | 算力 | ¥40/季 | ¥200/季 | — | 1款 | ❌ | 国产算力 |
参考来源
- 阿里云百炼 Coding Plan 官方文档 (developer.aliyun.com)
- 腾讯云 CodeBuddy 官方定价 (copilot.tencent.com)
- 火山方舟 MarsCode 官方 (marscode.cn)
- 智谱 AI GLM Coding Plan (open.bigmodel.cn)
- Kimi K2.5 官方 (kimi.com)
- Qwen3.5-Max-Preview 官方数据 (qwen-ai.com/qwen-max/)
- GLM-5 Benchmark (datalearner.com)
- MiniMax M2.5 Benchmark (morphllm.com)
- lightnote.com.cn 横评报告(2026年3月)
- 少数派 Think模式与Coding Plan指南 (sspai.com)
- CSDN 国内AI Coding Plan调研报告(2026年2月)
- 知乎 腾讯云Coding Plan报道
- 量子位 阿里云百炼发布报道
- 知乎 国产编程模型三国杀
- CSDN 2026年2月大模型性能对比
- SWE-bench Verified 官方排行榜 (benchlm.ai)
- Kilo Model Leaderboard (kilo.ai)
本文所有价格和数据截至2026年3月31日,请以各平台官方最新公告为准。SWE-bench数据为各模型方自报,scaffolding方法不同可能导致分数不完全可比。