<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>智谱AI on 疯狂的键盘</title><link>https://jidzhang.github.io/tags/%E6%99%BA%E8%B0%B1ai/</link><description>Recent content in 智谱AI on 疯狂的键盘</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Wed, 06 May 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://jidzhang.github.io/tags/%E6%99%BA%E8%B0%B1ai/index.xml" rel="self" type="application/rss+xml"/><item><title>用 GLM 模型驱动 OpenAI Codex CLI：codex-glm-proxy 使用指南</title><link>https://jidzhang.github.io/posts/2026-05-06-codex-glm-proxy/</link><pubDate>Wed, 06 May 2026 00:00:00 +0000</pubDate><guid>https://jidzhang.github.io/posts/2026-05-06-codex-glm-proxy/</guid><description>&lt;p&gt;OpenAI Codex CLI 是一个强大的终端 AI 编程助手，但它默认只支持 OpenAI 自家的模型。如果你更倾向于使用国内的大模型，比如智谱 AI 的 GLM 系列，该怎么办？&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;codex-glm-proxy&lt;/strong&gt; 就是解决这个问题的工具——一个轻量级的本地代理，让 Codex CLI 无缝对接 GLM 模型。&lt;/p&gt;
&lt;h2 id="它做了什么"&gt;它做了什么？&lt;/h2&gt;
&lt;p&gt;简单来说，Codex CLI 使用的是 OpenAI 的 &lt;strong&gt;Responses API&lt;/strong&gt; 格式，而智谱 GLM 使用的是 &lt;strong&gt;Chat Completions API&lt;/strong&gt; 格式。两者协议不同，无法直接通信。&lt;/p&gt;
&lt;p&gt;codex-glm-proxy 在中间做双向格式转换：&lt;/p&gt;
&lt;pre tabindex="0"&gt;&lt;code&gt;Codex CLI ──Responses API──▶ 本地代理 (localhost:18765) ──Chat Completions──▶ GLM API
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;你不需要改 Codex 的源码，也不需要等官方适配，启动代理、改个配置文件就行。&lt;/p&gt;
&lt;h2 id="核心特性"&gt;核心特性&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;流式响应&lt;/strong&gt;：实时 SSE 流式输出，打字效果和 OpenAI 原生体验一致&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;工具调用&lt;/strong&gt;：完整支持 &lt;code&gt;apply_patch&lt;/code&gt;、&lt;code&gt;exec&lt;/code&gt; 等 Codex 全部工具，AI 可以直接帮你改代码、跑命令&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;多轮对话&lt;/strong&gt;：完整保持上下文，支持连续追问和迭代&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;连接池复用&lt;/strong&gt;：内置 TCP+TLS 连接池，多实例并发时性能更好&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;单文件无依赖&lt;/strong&gt;：整个代理就一个 &lt;code&gt;proxy.py&lt;/code&gt;，纯 Python 标准库，不用 pip install 任何东西&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="支持哪些模型"&gt;支持哪些模型？&lt;/h2&gt;
&lt;p&gt;代理支持智谱 GLM 全系列 Coding 模型：&lt;/p&gt;</description></item></channel></rss>