什么时候需要看这页
Provider Agent 会调用本机 Ollama 执行推理。启动 Provider Agent 前,需要先安装 Ollama,并把要提供的模型下载到本地。
安装 Ollama
打开 Ollama 下载页,按你的系统选择安装方式。
macOS 用户可以下载图形安装包。Ollama 下载页也提供终端安装命令:
curl -fsSL https://ollama.com/install.sh | sh
Linux 用户通常使用同一条终端安装命令。Windows 用户请在下载页选择 Windows 安装包并按安装向导完成安装。
安装后确认命令可用:
ollama --version
如果提示找不到 ollama 命令,先重新打开终端;仍不可用时,检查 Ollama 是否安装成功,以及命令是否已加入系统 PATH。
启动 Ollama
macOS 和 Windows 安装桌面应用后,通常会自动启动 Ollama 后台服务。也可以手动启动:
ollama serve
如果提示端口已被占用,通常表示 Ollama 已在后台运行,不需要重复启动。
下载模型
在 Ollama 模型库 中选择模型,记下模型名。下载命令是:
ollama pull <model_name>
例如:
ollama pull qwen3.5:9b
这里的 <model_name> 要和 Provider Agent 的 --model 保持一致。例如下载的是 qwen3.5:9b,启动 Provider Agent 时也应使用:
./token-provider-agent start --api-key sk-... --model qwen3.5:9b
验证模型
查看本地模型列表:
ollama ls
确认输出中包含你准备使用的模型名。
再做一次简单推理:
ollama run qwen3.5:9b "你好,请用一句话介绍你自己。"
如果能正常返回文本,说明模型基本可用。
最后确认 Provider Agent 能访问同一个 Ollama 服务:
./token-provider-agent models --json
如果 ollama ls 能看到模型,但 Provider Agent 看不到,优先检查 --ollama-base-url 或 PROVIDER_AGENT_OLLAMA_BASE_URL 是否指向同一个 Ollama 地址。默认地址是 http://127.0.0.1:11434。