用 GLM 模型驱动 OpenAI Codex CLI:codex-glm-proxy 使用指南

OpenAI Codex CLI 是一个强大的终端 AI 编程助手,但它默认只支持 OpenAI 自家的模型。如果你更倾向于使用国内的大模型,比如智谱 AI 的 GLM 系列,该怎么办? codex-glm-proxy 就是解决这个问题的工具——一个轻量级的本地代理,让 Codex CLI 无缝对接 GLM 模型。 它做了什么? 简单来说,Codex CLI 使用的是 OpenAI 的 Responses API 格式,而智谱 GLM 使用的是 Chat Completions API 格式。两者协议不同,无法直接通信。 codex-glm-proxy 在中间做双向格式转换: Codex CLI ──Responses API──▶ 本地代理 (localhost:18765) ──Chat Completions──▶ GLM API 你不需要改 Codex 的源码,也不需要等官方适配,启动代理、改个配置文件就行。 核心特性 流式响应:实时 SSE 流式输出,打字效果和 OpenAI 原生体验一致 工具调用:完整支持 apply_patch、exec 等 Codex 全部工具,AI 可以直接帮你改代码、跑命令 多轮对话:完整保持上下文,支持连续追问和迭代 连接池复用:内置 TCP+TLS 连接池,多实例并发时性能更好 单文件无依赖:整个代理就一个 proxy.py,纯 Python 标准库,不用 pip install 任何东西 支持哪些模型? 代理支持智谱 GLM 全系列 Coding 模型: ...

2026年5月6日 · 2 分钟 · Jid