龙虾爆火之后,全网的注意力都盯着「它该怎么用」——本地部署还是云端、一键安装还是敲命令、要不要接微信飞书……反而没人再认真问那个老问题:驱动龙虾的那颗「大脑」,够不够聪明? 这倒不奇怪。OpenAI 和 Google 最近发布的几款新模型,清一色都是 Mini、Flash 款,官方潜台词几乎写在脸上:专门给 Agent 大量消耗 Token 准备的。 模型本身的能力边界,反而成了最不被讨论的话题。
大家好,我是袋鼠帝。 前两天刷 X 的时候,我看到一条日区帖子,上面说目前世界上最受欢迎的模型,是国产的 MiniMax M2.5。 而且它在 OpenClaw 中的使用率排名第一,在 OpenRouter 的总体使用率也是排名第一。
作者:BruceBlue有网友问我为什么选择用MiniMax,原因无他,量大管饱,效果还不差!结果我自己一看额度……用不完压根用不完(买的是Max Coding Plan)!自己订阅了Cursor和Gemini(Antigravity)里的Claude额度也躺尸,我就不服了:凭什么不把Claude Code这个终端神器也拉进来一起白嫖?我就是不想买Claude ...
两周前,我在写 MiniMax M2 开源首发那篇文章的时候,当时就被它的性能和价格震撼到了——全球榜单第五,价格却只有 Claude 的 8%。 果然,M2 火了。 收到很多粉丝和朋友反馈,有人已经接入 Claude Code 在用,有人在 Cursor 里跑起来了,也有几个创业公司的伙伴把 AI ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果