11434 是 Ollama 的 默认 API 服务端口。
当 Ollama 运行时,会在本机启动一个 HTTP 服务:
http://localhost:11434
所有模型推理、模型管理其实都是通过这个端口完成的。
1 常见 API 地址
查看模型列表
GET http://localhost:11434/api/tags
示例:
curl http://localhost:11434/api/tags
返回:
{
"models": [
{
"name": "qwen2.5:7b",
"size": 4661224670
}
]
}
调用模型推理
POST http://localhost:11434/api/generate
示例:
curl http://localhost:11434/api/generate -d '{
"model": "qwen2.5:7b",
"prompt": "你好"
}'
Chat 对话接口
POST http://localhost:11434/api/chat
示例:
curl http://localhost:11434/api/chat -d '{
"model": "qwen2.5:7b",
"messages": [
{"role": "user", "content": "你好"}
]
}'
2 如果想让局域网访问
默认只监听:
127.0.0.1:11434
需要改环境变量:
export OLLAMA_HOST=0.0.0.0
ollama serve
或者:
OLLAMA_HOST=0.0.0.0:11434 ollama serve
访问地址就变成:
http://服务器IP:11434
例如:
http://10.1.60.15:11434
3 检查端口是否启动
lsof -i :11434
或
ss -lntp | grep 11434
看到类似:
LISTEN 0 4096 127.0.0.1:11434
说明 Ollama 正在运行。
4 一个很多人不知道的点
Ollama 的 API 100% 兼容 OpenAI 风格封装,很多工具(如 Dify / LangChain / LobeChat)其实都是通过:
http://localhost:11434
来调用本地模型。
