用 GLM 模型驱动 OpenAI Codex CLI:codex-glm-proxy 使用指南

OpenAI Codex CLI 是一个强大的终端 AI 编程助手,但它默认只支持 OpenAI 自家的模型。如果你更倾向于使用国内的大模型,比如智谱 AI 的 GLM 系列,该怎么办? codex-glm-proxy 就是解决这个问题的工具——一个轻量级的本地代理,让 Codex CLI 无缝对接 GLM 模型。 它做了什么? 简单来说,Codex CLI 使用的是 OpenAI 的 Responses API 格式,而智谱 GLM 使用的是 Chat Completions API 格式。两者协议不同,无法直接通信。 codex-glm-proxy 在中间做双向格式转换: Codex CLI ──Responses API──▶ 本地代理 (localhost:18765) ──Chat Completions──▶ GLM API 你不需要改 Codex 的源码,也不需要等官方适配,启动代理、改个配置文件就行。 核心特性 流式响应:实时 SSE 流式输出,打字效果和 OpenAI 原生体验一致 工具调用:完整支持 apply_patch、exec 等 Codex 全部工具,AI 可以直接帮你改代码、跑命令 多轮对话:完整保持上下文,支持连续追问和迭代 连接池复用:内置 TCP+TLS 连接池,多实例并发时性能更好 单文件无依赖:整个代理就一个 proxy.py,纯 Python 标准库,不用 pip install 任何东西 支持哪些模型? 代理支持智谱 GLM 全系列 Coding 模型: ...

2026年5月6日 · 2 分钟 · Jid

Claude Code + clangd 实战笔记:大代码项目的高效 AI 辅助开发

一、问题:代码量大,AI 上下文装不下 当项目代码量很大时,Claude Code 直接从头到尾阅读代码很容易超过上下文窗口限制。解决方案是让 Claude Code 通过 LSP(Language Server Protocol) 精准定位代码,而不是全文阅读。 有无 LSP 的区别 无 LSP 有 LSP(clangd) 以文本形式解析代码,用 Grep 模糊搜索 直接调用语言服务器,获取精确语法结构 查找引用/定义需反复搜索,Token 消耗高 单次查询到位,Token 消耗降低 40%+ 不理解类型信息 能获取类型签名、跨文件引用 没有 LSP,Claude Code 是"聪明的文本搜索";有了 LSP,才具备 IDE 级别的代码理解能力。 二、clangd 是什么 clangd 是 LLVM/Clang 项目提供的 C/C++ 语言服务器,它能: 精确的代码补全(比 VS 原生 IntelliSense 在复杂模板代码中更准) 跨文件的符号查找(定义、引用、调用关系) 实时诊断(类型错误、未使用变量等) 代码导航(跳转到定义、查找所有引用) clangd 的局限 clangd 不是实时分析的,它依赖一个 compile_commands.json 文件来了解每个文件的编译参数(包含路径、宏定义、编译选项等)。没有这个文件,clangd 就无法正确工作。 三、轻量方案:手动创建 .clangd 配置文件 如果你的项目结构比较简单,或者不想安装额外工具生成 compile_commands.json,可以手动创建一个 .clangd 配置文件来告诉 clangd 需要检索的包含目录。 在项目根目录创建 .clangd 文件(YAML 格式): ...

2026年3月28日 · 2 分钟 · Jid