Python使用Ollama

半兽人 发表于: 2025-11-11   最后更新时间: 2025-11-11 15:05:43  
{{totalSubscript}} 订阅, 34 游览

安装Ollama(Mac/Linux系统):在终端中输入brew install ollama,等待安装完成。
下载并运行模型:在终端输入ollama run mistral,即可下载并运行Mistral模型。
调用Ollama的API:在Python环境中,使用以下代码调用API:

import requests
response = requests.post("http://localhost:11434/api/generate", json={"model": "mistral", "prompt": "Tell me a joke"})
print(response.json())

安装依赖:

uv pip install requests

运行:

uv run llm/ollama.py

上述代码中,首先导入requests库,然后使用requests.post方法向本地的Ollama API发送请求,请求地址为http://localhost:11434/api/generate,并在请求中指定使用的模型为mistral,输入的提示内容为“Tell me a joke”。最后,打印API返回的结果。

更新于 2025-11-11
在线,1小时前登录

查看Ollama更多相关的文章或提一个关于Ollama的问题,也可以与我们一起分享文章