Ollama 验证

半兽人 发表于: 2026-03-06   最后更新时间: 2026-03-06 14:40:28  
{{totalSubscript}} 订阅, 12 游览

11434 是 Ollama 的 默认 API 服务端口
当 Ollama 运行时,会在本机启动一个 HTTP 服务:

http://localhost:11434

所有模型推理、模型管理其实都是通过这个端口完成的。

1 常见 API 地址

查看模型列表

GET http://localhost:11434/api/tags

示例:

curl http://localhost:11434/api/tags

返回:

{
  "models": [
    {
      "name": "qwen2.5:7b",
      "size": 4661224670
    }
  ]
}

调用模型推理

POST http://localhost:11434/api/generate

示例:

curl http://localhost:11434/api/generate -d '{
  "model": "qwen2.5:7b",
  "prompt": "你好"
}'

Chat 对话接口

POST http://localhost:11434/api/chat

示例:

curl http://localhost:11434/api/chat -d '{
  "model": "qwen2.5:7b",
  "messages": [
    {"role": "user", "content": "你好"}
  ]
}'

2 如果想让局域网访问

默认只监听:

127.0.0.1:11434

需要改环境变量:

export OLLAMA_HOST=0.0.0.0
ollama serve

或者:

OLLAMA_HOST=0.0.0.0:11434 ollama serve

访问地址就变成:

http://服务器IP:11434

例如:

http://10.1.60.15:11434

3 检查端口是否启动

lsof -i :11434

ss -lntp | grep 11434

看到类似:

LISTEN 0 4096 127.0.0.1:11434

说明 Ollama 正在运行。

4 一个很多人不知道的点

Ollama 的 API 100% 兼容 OpenAI 风格封装,很多工具(如 Dify / LangChain / LobeChat)其实都是通过:

http://localhost:11434

来调用本地模型。

更新于 2026-03-06

查看Ollama更多相关的文章或提一个关于Ollama的问题,也可以与我们一起分享文章