用RTK把AI编程Token消耗暴降70%!Claude Code/Cursor用户的省钱神器
用RTK把AI编程Token消耗暴降70%!Claude Code/Cursor用户的省钱神器
小新软件平替你是否遇到过这种情况:用 Claude Code 或 Cursor 写代码,模型明明只想看一眼 git status,结果却要把整段终端输出塞进上下文。输出越长,账单越疼——每次跑测试、lint、构建日志,都在悄无声息地烧掉你的 Token。
RTK 就是来解决这个问题的。这是一个用 Rust 编写的高性能开源工具,作为 CLI 代理夹在你和 AI 之间,专门在命令输出进入模型之前做过滤、压缩与去重。GitHub 已累计超过 45,000 颗星,官方宣称在常见开发工作流中可节省 60-90% 的 Token 消耗。
核心问题:为什么 AI 编程一直在浪费 Token?
在日常 AI 编程中,”命令执行”的成本往往不在命令本身,而在于命令输出。当你反复运行测试、lint、构建日志、目录树、git diff 时,输出里大量内容其实是模型根本不需要的噪声:
cargo test输出的 262 个测试通过信息,全是重复的 “ok”grep搜出来的几十行匹配结果,路径前缀重复出现ls / tree递归出来的目录树,占用了大量上下文却没提供结构洞察git diff里 90% 是行号和上下文,模型真正需要的只是变更内容
这些问题在按 Token 计费的 API(OpenAI、Anthropic、Gemini)上直接反映为账单,在固定额度套餐上则加速耗尽上下文窗口、导致会话被迫重启。
RTK 是什么
RTK(Rust Token Killer 的缩写)是一个用 Rust 编写的单二进制 CLI 工具,通过中间层代理的思路,在命令输出进入模型之前做针对性的”信息密度压缩”。
官方数据展示了真实效果:一个中等规模 TypeScript/Rust 项目 30 分钟 Claude Code 会话:
| 操作 | 频次 | 原始 Token | 经 RTK 处理后 | 节省 |
|---|---|---|---|---|
| ls / tree | 10x | 2,000 | 400 | ~80% |
| cat / read | 20x | 40,000 | 12,000 | ~70% |
| grep / rg | 8x | 16,000 | 3,200 | ~80% |
| git status | 10x | 3,000 | 600 | ~80% |
| git diff | 5x | 10,000 | 2,500 | ~75% |
| cargo test / npm test | 5x | 25,000 | 2,500 | ~90% |
| 合计 | — | ~118,000 | ~23,900 | ~80% |
💡 提示:以上为方向性参考,实际节省幅度取决于项目规模、命令频率和输出形态。你可以用
rtk gain命令实时查看自己项目的真实节省数据。
四大压缩策略
RTK 的核心在于四条针对不同命令类型的压缩策略:
智能过滤 — 去掉噪声:移除冗余注释样式信息、空行、引导语(banner)、无关紧要的元数据。比如 cargo test 输出中 262 次 “ok” 重复刷屏,RTK 会压缩成一条简洁摘要。
分组聚合 — 同类信息合并:把相同类型的文件按目录归组展示,同类错误归类聚合,不需要逐行展开。
截断保留 — 宁可少而精:保留最关键的上下文骨架,裁剪次要细节,确保模型拿到的是”高密度信息”而非”全量原始输出”。
去重重叠 — 折叠重复日志:对于重复刷屏的日志行(如堆栈追踪中的重复行)进行折叠,并附带计数摘要。
如何工作:中间层代理
从整体链路看,模型仍然发出 git status 这类指令,但经过 RTK hook 重写后,执行的是 rtk 包装版本,从而让模型拿到的返回更短、更精准。
1 | 你 → AI模型 → git status → 实际执行 → RTK压缩 → 模型拿到精简结果 |
⚠️ 注意:hook 只作用于 Bash 工具调用。如果 AI 产品内置了 Read、Grep、Glob 这类不走 bash 的路径,RTK 不会自动重写这些调用。官方建议在这些场景下改用 shell 命令的
cat/head/tail、rg/grep、find,或者显式调用rtk read、rtk grep、rtk find。
快速上手
安装
1 | # Homebrew(macOS/Linux) |
集成到 AI 编程工具
1 | # Claude Code / Copilot(默认) |
安装后需要重启 AI 编程工具,RTK 的 hook 才会生效。
查看节省统计
1 | # 查看整体节省数据 |
真实效果对比
官方给出了一个 cargo test 的实际对比。原始输出是 262 个测试逐条显示的完整日志,经 RTK 压缩后变成:
1 | ✓ cargo test: 262 passed (1 suite, 0.08s) |
从 5,000+ tokens 直接压缩到一句话。这就是”喂模型高密度信息,而不是全量饲料”的实际效果。
换个更具体的场景:如果你的团队有 10 人,每人每天用 Claude Code 工作 4 小时,按 Anthropic API 的计费标准估算,RTK 每月大约能帮你节省 $1,200–$1,800 的 Token 账单(具体取决于项目规模和命令频率)。这个数字是保守估计——实际使用中命令输出越冗长,节省比例越高。
隐私与遥测
RTK 在文档中明确说明:可能存在匿名聚合的使用统计,但默认关闭,需要在 rtk init 或 rtk telemetry enable 时明确同意才会开启。也可以通过环境变量强制关闭:
1 | # 禁用遥测 |
若在公司环境中推广,建议阅读仓库中的 docs/TELEMETRY.md 并与内部安全规范对齐。
关键要点
📌 使用 RTK 之前,你需要知道的三件事:
- Hook 依赖 Bash:RTK hook 只作用于 Bash 工具调用,非 bash 路径的工具(如 Cursor 内置的 Read/Glob)不会被自动重写,需显式调用
rtk read、rtk grep等命令- tee 机制保底:RTK 提供 tee 机制,失败时自动落盘保存未过滤的全量输出,不会因压缩导致关键信息丢失
- 结果因项目而异:压缩率随项目规模、命令频率和输出形态波动,官方数据是方向性参考而非承诺,用
rtk gain看自己项目的真实数据
总结
RTK 切中的是 AI 编程里一个长期被忽视的成本中心——命令行输出噪声。它的工程表达也很”工程师友好”:单二进制、覆盖面广、与多家主流工具集成、用 rtk gain 把效果量化。
但也要有合理预期:它不是魔法。对不走 bash hook 的工具链路径、以及你确实需要完整输出的场景,它不会替你做”无损压缩”。它最适合作为默认基础设施:让模型更少被噪声拖累,让你的 Token 真正花在”买信息密度”而不是”买重复内容”上。
👉 官网:https://www.rtk-ai.app/
👉 GitHub:https://github.com/rtk-ai/rtk







