天池Token
Token 在线
注册
文档Ollama

Ollama 本地模型准备

Provider Agent 启动前准备 Ollama、本地模型和基础验证的操作说明。

什么时候需要看这页

Provider Agent 会调用本机 Ollama 执行推理。启动 Provider Agent 前,需要先安装 Ollama,并把要提供的模型下载到本地。

安装 Ollama

打开 Ollama 下载页,按你的系统选择安装方式。

macOS 用户可以下载图形安装包。Ollama 下载页也提供终端安装命令:

curl -fsSL https://ollama.com/install.sh | sh

Linux 用户通常使用同一条终端安装命令。Windows 用户请在下载页选择 Windows 安装包并按安装向导完成安装。

安装后确认命令可用:

ollama --version

如果提示找不到 ollama 命令,先重新打开终端;仍不可用时,检查 Ollama 是否安装成功,以及命令是否已加入系统 PATH

启动 Ollama

macOS 和 Windows 安装桌面应用后,通常会自动启动 Ollama 后台服务。也可以手动启动:

ollama serve

如果提示端口已被占用,通常表示 Ollama 已在后台运行,不需要重复启动。

下载模型

Ollama 模型库 中选择模型,记下模型名。下载命令是:

ollama pull <model_name>

例如:

ollama pull qwen3.5:9b

这里的 <model_name> 要和 Provider Agent 的 --model 保持一致。例如下载的是 qwen3.5:9b,启动 Provider Agent 时也应使用:

./token-provider-agent start --api-key sk-... --model qwen3.5:9b

验证模型

查看本地模型列表:

ollama ls

确认输出中包含你准备使用的模型名。

再做一次简单推理:

ollama run qwen3.5:9b "你好,请用一句话介绍你自己。"

如果能正常返回文本,说明模型基本可用。

最后确认 Provider Agent 能访问同一个 Ollama 服务:

./token-provider-agent models --json

如果 ollama ls 能看到模型,但 Provider Agent 看不到,优先检查 --ollama-base-urlPROVIDER_AGENT_OLLAMA_BASE_URL 是否指向同一个 Ollama 地址。默认地址是 http://127.0.0.1:11434