感觉token消耗量大的,推荐用kimi的k2模型,我测试了,消费还能接受。 #911
Replies: 15 comments
-
|
老哥 ,太有钱了,直接充值2W |
Beta Was this translation helpful? Give feedback.
-
|
将带有缓存命中价格的 1. 输入价格对比
对比总结:
2. 输出价格对比
对比总结:在 0 - 32k 区间,两个模型输出价格相同;在 32k - 128k、128k - 256k 和 256k - 1M 区间, 3. 其他差异
总体而言,在输入成本上, |
Beta Was this translation helpful? Give feedback.
-
😅这不是重点啊 |
Beta Was this translation helpful? Give feedback.
-
对比下来kimi感觉算是最便宜的 |
Beta Was this translation helpful? Give feedback.
-
是的,主要是不只看价格,还要看效果,测试k2可以用,不知道是不是心理作用,我感觉不如gemini-2.5模型效果好,但能用,可以做为代替方案。 |
Beta Was this translation helpful? Give feedback.
-
Token 消耗太大了,我也觉得2.5pro更好一些,最近在考虑自己搞32b 的 coder一类的模型试试 |
Beta Was this translation helpful? Give feedback.
-
|
新出的GLM 4.5好像更便宜了 |
Beta Was this translation helpful? Give feedback.
-
GLM 4.5 他们有两种收费模式,一种是扣费模式,一种是资源包模式。我看到资源包在打折,就买了来试用,发现token消耗很大,命中缓存依旧是按原token计算扣除。 |
Beta Was this translation helpful? Give feedback.
This comment was marked as off-topic.
This comment was marked as off-topic.
-
|
如果有自定义模型的需求,可以用claude code呀,现在K2, GLM-4.5都支持claude code,系统变量里填上对应的url和api key就行 |
Beta Was this translation helpful? Give feedback.
-
我也在用了,目前国内阿里Qwen3-Coder-Plus、kimi kimi-k2-turbo-preview、智谱GLM-4.5都提供了接入支持,只用在系统环境变量 QWEN base_url:https://dashscope.aliyuncs.com/api/v2/apps/claude-code-proxy 不过,不管用啥模型都的确太消耗token。用到最后我还是用gemini-cli了,要不你看这token得花多少钱,用国内的我很心疼钱~
|
Beta Was this translation helpful? Give feedback.
-
|
千万级的token使用量确实遭不住...毕竟写码的话基本上是整个项目的代码作为context,确实开销很大。如果有cache就还好,但看了一些使用反馈,包括qwen3、GLM-4.5在内,好像都把cache命中的token按一般使用计算了。 |
Beta Was this translation helpful? Give feedback.
-
|
平时你们是怎么用的? |
Beta Was this translation helpful? Give feedback.
-
控制不住,我8月一个月用了1600了,而且还是不是天天用。
|
Beta Was this translation helpful? Give feedback.
-
这才是重点啊~~~ 😄 |
Beta Was this translation helpful? Give feedback.




Uh oh!
There was an error while loading. Please reload this page.
Uh oh!
There was an error while loading. Please reload this page.
-
What would you like to be added?
我用Qwen的测试,的确几个问题花了200多万的token,产生近百块的账单。不过这个Qwen-code相比Gemini-cli最大的优势是可以自己定义模型,那就可以接kimi家新出的编程模型k2了。测试用k2完全从零写了一个小项目,代码量虽然不是很大,但因我测试时自己一句代码和文档没写,全让AI自己来,从开发到修BUG等消耗token是绝对不少的,账单不到20,可以接受,从我用Qwencode测试就修了一点小问题产生上百元的账单强多了。
项目示例:https://github.com/oiuv/MoonPalaceDB 我不知道直接用QwenCode会花多少钱,不敢测试。
而且我用这个还不只是测试开发了这一个项目,还测试分析其它项目,用了特别久,结果这里账单只有20元。
用kimi模型的优势价格低,官方提供了自动的缓存机制,命中缓存时消费低很多,虽然Qwen-code-plus也有缓存命中优惠,但是只在低token区间有优势,在高token区间也很贵,而要知道api的记忆功能就是每次请求都把你所有对话历史重复发一次,这样token的消耗真的是指数级的增长的,在高token消耗区间是常态的。关于价格对比,后面回贴中有详细内容,可以看看k2的价格优势很明显,除非Qwen-code-plus把价格降下来,否则对比起来太贵了。
用kimi模型的另一个好处是,你可以用moonpalace调试接口,清楚的记录接口到底发了什么东西,消耗的明明白白,不存在隐藏消费,数据自己都有记录可查。
从数据库的记录可以看到每次发的数据都包括很长的system prompt、大量的工具和每一次的历史会话,一直在滚雪球,聊多了真的会爆炸。这也是为什么明明感觉没聊多少,几百万token没了。
Why is this needed?
为了新中国
Additional context
No response
Beta Was this translation helpful? Give feedback.
All reactions