你可以把 CCR 想象成一个**“智能包工头”**。当你在终端里使用 ccr code 敲代码时,官方的 Claude Code 程序会在后台发出各种不同类型的请求。CCR 会拦截这些请求,并根据你 Router 里的规则,自动把任务分配给最合适的模型。
具体来说,这些路由规则是这样在实际中发挥作用的:
1. default(默认路由)
- 如何触发: 当你在终端里正常提问,比如输入“帮我写一个测试函数”或“解释一下这段代码”时。
- 原理: 这是你最常感知的常规对话,CCR 会把你的直接指令发送给配置的默认主力模型(如你的
gpt-5.2-codex)。
2. background(后台路由)
- 如何触发: 全自动触发,你无需干预。
- 原理: Claude Code 在运行中,经常会在后台偷偷做一些“杂活”。比如:你刚打开项目时它会悄悄扫描目录结构、你需要修改长文件时它会先在后台总结一下文件大纲、或者帮你自动生成 Git 提交信息。这些任务不需要极高的智商,但需要速度快、成本低。CCR 识别到这些后台请求时,就会自动使用
background指定的模型去悄悄处理。
3. think(深度思考路由)
- 如何触发: 通常是在你面临极其复杂的架构设计、难以排查的 Bug 时,通过特定的命令(比如在交互界面输入
/think相关的指令,或者启动时带上特定参数)触发。 - 原理: 当系统判定当前任务需要极其严密的逻辑推理时,CCR 会把这个请求单独剥离出来,发送给专门擅长推理的模型(比如 DeepSeek-R1 或开启了 thinking 模式的 Claude 3.7)。
4. longContext(长上下文路由)
- 如何触发: 根据你的对话长度自动触发。
- 原理: 你的配置里有一个
longContextThreshold: 60000。当你们的对话越来越长,或者你让 AI 一次性读取了好几个巨大的代码文件,导致上下文的词汇量(Token)超过了 60,000 时,CCR 会立刻判定:“内容太多了,默认模型可能处理不了或者会丢失记忆!” 然后它会自动、无缝地切换到你指定的longContext模型来接管对话。
5. webSearch(联网搜索路由)
- 如何触发: 全自动。当你问的问题需要最新的互联网知识(比如“查一下最新的 React 官方文档关于某个 API 的用法”),Claude Code 决定调用联网搜索工具时。
- 原理: 这个搜索的动作会被路由到你指定的模型去执行。
"Router": {
"default": "openrouter-channel,anthropic/claude-3.5-sonnet", // 默认日常敲代码的主力模型
"background": "official-anthropic,claude-3-5-haiku-20241022", // 后台轻量级任务(如总结、快速分析)
"think": "openrouter-channel,deepseek/deepseek-r1", // 专门处理复杂思考 (thinking) 模式
"longContext": "my-custom-proxy,gemini-2.5-pro" // 遇到超长上下文(如大文件读取)时自动切换
}
总结一下:
在实际使用中,你的操作方式没有任何改变,依然是和 AI 正常聊天下指令。Router 配置的意义在于帮你省钱和提效——它把简单的杂活分给便宜快速的模型,把核心代码交给主力模型,遇到超大文件自动换能支持长文本的模型。
