人工智能开发已然成为一场过度竞争。更多参数、更多计算、更多 GPU。这不过是试图通过添加更多大脑(而不是开发一个大脑)来提升智能。每个新版本都炫耀规模而非实质。但新模型已经证明了一件事:真正的进步不仅仅在于你能做多大,而在于你能多么巧妙地利用你所拥有的资源。
尤其是开发者,每天都能感受到这种压力。他们不需要另一个运行成本高昂、拥有万亿参数的炫耀产品。他们需要像助手这样实用的东西,它可以帮助调试混乱的代码、跨多个文件重构,并在不消耗资源的情况下保持上下文感知。
这就是 MiniMax M2 的用武之地。
什么是MiniMax M2?

MiniMax M2 是由 MiniMax AI 构建的大型语言模型,旨在高效运行,性能接近 LLM 的前沿水平。理论上,它是一个拥有 2300 亿个参数的模型,但实际上,它只会针对任何给定任务激活其中约 100 亿个参数。此功能类似于 Qwen3-Next 提供的功能。
您可以将其想象成一台高性能发动机,只点火所需的气缸。这种选择性激活是其核心创新:它使 M2 能够以极低的成本和速度损失提供与大型模型相当的智能。

MiniMax M2 的价格仅为 Claude Sonnet 的 8%,速度却是后者的两倍,现限时免费提供!
M2 专注于占用开发者大部分时间的两个领域:
- 编码:跨真实的多文件项目编写、编辑、重构和调试。
- 代理工作流:需要多步骤规划、推理和执行的任务。
让我们看看该模型在上述任务中进行测试时的表现如何。
动手实践:它真的有效吗?
任何编码模型的试金石都是:它能在实际场景中表现良好吗?
我能够在 Openrouter.ai 免费测试 MiniMax M2 模型。您也可以在 MiniMax 的官方页面上访问该模型。
基础数学
这个看似简单的问题困扰了 LLM 很长时间。
提示词:“9.11 and 9.9, which one is larger?”
输出:

仅凭模型的思维回溯就足以证明这个问题的价值。模型一开始错误地假设 9.11 大于 9.9。但后来,模型弥补了这个错误,并给出了简洁的解释。这听起来可能有点令人惊讶,但迄今为止,很多模型都未能正确回答上述问题。
创造力
一些轻松的笑话怎么样?
提示词:“Tell me about a joke on Coffee“
输出:
在我之前关于口头提示的文章中,我意识到 LLM 的一个常见问题是,当被要求生成同一主题的内容时,它们会产生冗余的输出。但 MiniMax M2 不仅能够识别相同的请求,还能以可区分的方式对其进行响应。这是许多知名模型都做不到的。
编程
让模型用 3 种不同的语言生成“101 代码”。
提示词:“Give me ‘Hello World’ code in 3 programming languages: Python, Java, C.”
输出:
提供的三个代码片段令人满意,运行时没有任何错误。代码简洁(对于一个简单的程序来说就应该如此),易于理解。
工作原理:选择性参数激活
MiniMax M2 的巧妙之处在于它不会在每个请求上都运行整个参数集,而是只激活参数集中与当前任务最相关的子集,这些子集仅占总参数数量的一小部分。
这种选择性激活有两个主要作用:
- 提高速度:更少的计算意味着更快的推理时间。
- 降低成本:您无需为每个小任务都启动一个庞大的模型。
这种设计选择反映了人类的工作方式。您不会一次性考虑所有已知的内容。通过访问存储相关信息的思维模块,我们可以简化思维过程。M2 也是如此。
超越代码:代理优势
M2 的真正优势体现在多步推理中。大多数模型可以很好地执行一条指令,但在必须规划、研究和调整多个步骤时就会出现问题。让 M2 研究一个概念、综合研究结果并提出技术解决方案,它不会失去思路。它可以自我规划、执行和修正,处理人工智能研究人员所说的代理工作流。
性能和效率
如果模型无法跟上真实用户的节奏,世界上所有的理论都毫无意义。M2 速度很快,不是“大型模型的快速”,而是真正的响应速度。
由于它每次请求激活的参数更少,因此其推理时间足够短,可以进行交互式使用。这使得它非常适合实时编程助手或工作流自动化工具等响应速度至关重要的应用程序。

与最佳模型媲美的性能
在成本方面,数学计算同样具有吸引力。更少的活动参数意味着更低的能源和基础设施成本,这使得大规模部署变得合理。对于企业而言,这直接降低了运营成本;对于初创公司而言,这相当于自由实验和限制 API 调用之间的区别。
对于开发者而言,这意味着无需再重复地向模型输入相同的上下文。对于团队而言,这意味着一致性:模型能够记住跨会话的决策、命名约定和架构逻辑。
| 类别 | MiniMax-M2性能指标 | 对比平均值 | 备注 |
|---|---|---|---|
| 智力 | 人工分析智能指数:61 | 更高 | 表明具有更优的推理能力和输出质量 |
| 价格 | 每百万标记0.53美元(混合比例3:1) 输入:0.30美元 输出:1.20美元 |
更便宜 | 大规模使用具备显著成本效益 |
| 速度 | 84.8标记/秒 | 更慢 | 可能影响实时流式任务处理性能 |
| 延迟(TTFT) | 1.13秒 | 更低 | 首个标记响应更快,提升交互式体验 |
| 上下文窗口 | 20万标记 | 更小 | 对长文本或多文档场景支持有限 |
小结
我们已经了解了 MiniMax M2 是什么、它如何运作以及它为何与众不同。它是一个像开发者一样思考、像代理一样规划、像商业工具一样扩展的模型。它的选择性激活架构挑战了业界“多多益善”的思维模式,表明 AI 的未来可能不取决于添加参数,而是取决于优化参数。
对于开发者来说,它是了解代码库的编码伙伴。对于团队来说,它是 AI 驱动产品的经济高效的基石。而对于整个行业来说,它暗示着下一波突破并非来自规模,而是来自精准和智能设计。
常见问题解答
问:MiniMax M2 与其他模型有何不同?
答:它采用选择性参数激活技术,每个任务仅运行 230B 参数中的 10B,从而以更低的成本和延迟提供高性能。
问: Minimax M2 的编码能力如何?
答:非常出色。它能够理解多文件依赖关系,执行“编译-运行-修复”循环,并在 SWE-Bench Verified 等基准测试中取得了优异的成绩。
问:Minimax M2 是否已投入生产?
答:是的。其高效、快速和稳定性使其非常适合在初创企业和企业环境中进行大规模生产部署。


评论留言