分享一下如何配置OpenAI Codex接入OpenRouter的任意模型
Codex可以通过修改配置文件的方式改变默认使用的模型及模型提供方,只需要两步👇
1⃣修改 ~/.codex/config.toml 配置文件,增加如下配置:
profile = "openrouter"
[model_providers.openrouter]
name = "OpenRouter"
base_url = "https://t.co/7uT3wMHjv1"
env_key = "OPENROUTER_API_KEY"
wire_api = "chat"
[profiles.openrouter]
model = "openai/gpt-5-codex"
model_provider = "openrouter"
model_reasoning_effort = "high"
注意这里的 model="xxx" 定义,可以配置任意支持推理的openrouter模型
2⃣在环境变量中增加OPENROUTER_API_KEY:
export OPENROUTER_API_KEY="你的OpenRouter API KEY"
启动 codex 即可看到,model已经指向配置文件中的模型:
点击图片查看原图