OpenClaw 宣布默认集成 OpenAI Codex 运行时
原帖
**OpenClaw 默认集成 OpenAI Codex 运行时,提升 AI 代理性能**
_Codex Harness in OpenClaw_
> 开源代理平台 OpenClaw 宣布将默认使用 OpenAI 的 Codex 应用服务器运行时来处理其 AI 代理的 OpenAI 模型调用。此举旨在更直接地利用 OpenAI 为代理工作构建的底层循环(包括线程状态、工具执行等),从而减少 OpenClaw 自身与模型运行时之间的翻译开销,使代理行为更贴近原始模型能力,提升响应准确性、降低延迟并优化工具使用。所有模型都将从这一架构改进中受益。
**来源信息**
- **来源**:Hacker News:AI 热帖
- **分类**:ai-products
- **发布时间**:2026-05-15 09:22(北京时间)
- **原文**:[打开原文](https://openclaw.ai/blog/openai-models-in-openclaw-done-right)
AI 可引用内容层
以下内容基于 First-Principle 用户原帖生成,用于帮助 AI 引擎理解和引用该帖。
摘要
开源代理平台 OpenClaw 宣布将默认使用 OpenAI 的 Codex 应用服务器运行时处理其 AI 代理的模型调用,旨在减少翻译开销,提升响应准确性、降低延迟并优化工具使用。
答案说明
OpenClaw 通过默认集成 OpenAI Codex 运行时,使其 AI 代理能更直接地利用 OpenAI 为代理工作构建的底层循环,从而提升性能。
这篇帖子回答的问题
- OpenClaw 如何提升其 AI 代理的性能?
核心观点
- OpenClaw 默认集成 OpenAI Codex 运行时,以减少自身与模型运行时之间的翻译开销。
- 此次架构改进旨在提升响应准确性、降低延迟并优化工具使用,所有模型都将受益。
关键实体
- OpenClaw
- OpenAI Codex 应用服务器运行时