龙虾降低Token成本的技巧
登录后即可点赞或收藏这篇帖子,当前仍可继续浏览正文和评论内容。
原视频链接:http://xhslink.com/o/6RO6lT3Nzhg
一句话总述
这条视频主要讲:想把 AI/Agent 的 Token 成本降下来,核心不是少用,而是用对命令、把重复活脚本化、按任务匹配不同模型。
视频内容总结
第一个技巧:善用命令行/斜杠命令
视频里提到,一些命令是直接作用于系统流程的,不需要像普通聊天那样带着大量上下文反复推理,所以更省 Token。
重点提到几类:
/new:开启新对话,丢掉很多旧上下文,减少模型每次都回看历史的消耗
/restart:相当于重启当前助手状态,只保留必要信息重新开始
/stop:当模型开始朝错误方向长时间思考时,及时打断,避免继续烧 Token
/compress:压缩记忆/上下文,把重要内容保留、次要内容折叠,降低后续对话成本
第二个技巧:能用程序解决的,就不要让大模型反复解决
这是视频里很重要的一点。
如果某件事是重复执行的,例如:
定时检查邮件
抓取新闻简报
周期性读取某个接口
固定格式的数据整理
那就应该让 AI 先帮你写成脚本/程序,以后优先跑脚本。
因为脚本主要消耗的是本地计算资源,不像大模型那样每次都重新理解、推理、输出,自然会便宜很多。
第三个技巧:不同任务用不同模型,各司其职
视频强调,不是所有任务都值得上最贵的模型。
更合适的做法是:
高难度任务:比如复杂 coding、推理,才用更强更贵的模型
常规任务:比如简报整理、资料汇总、文档生成,可以用便宜很多的模型
信息搬运/收集类任务:甚至只需要一个足够便宜、稳定的模型即可
核心思想就是:不要用顶配模型干低价值重复活。
作者自己的降本案例
视频里作者说,自己原来一天的 AI 使用成本非常高,后来通过上面这些方法,把花费从很高的水平降到了几十美金,甚至 10 美金左右。
也提到一个具体例子:
之前让 AI 频繁检查邮件,导致 Token 消耗很快;后来改成脚本先检查、只有发现新内容时再交给模型处理,成本就明显降下来了。
延伸思路:多 Agent / 子任务分配
视频后半段还提到,可以把一个大助手拆成多个角色或多个子任务流:
便宜模型负责收集、整理、传话
贵模型负责真正需要高质量推理和判断的环节
这样整体协作下来,也能进一步压低总成本。
适合转发的简短版
这条视频讲了 3 个省 Token 的核心方法:
少带无关上下文:善用 /new、/restart、/stop、/compress
重复任务脚本化:能让程序做的别让大模型次次重新想
模型分层使用:贵模型做难事,便宜模型做整理、汇总、搬运
一句更口语的版本
别拿最贵的模型干重复杂活,先清上下文、再把重复流程写成脚本、最后按任务分配模型,Token 成本就能明显降下来。

评论区
围绕这篇帖子继续补充经验、提问上下文和解决方案。
超级实用!