Skip to content

使用Ollama运行本地模型

binary-husky edited this page Dec 1, 2024 · 2 revisions
  1. 【外部ollama配置】下载ollama:
https://ollama.com/
  1. 【外部ollama配置】打开powershell,用ollama运行通义千问小模型:
ollama run qwen2.5:1.5b
  1. 【本项目配置】打开本项目的配置 config.py,将其中 LLM_MODEL 修改为
# 解释"ollama-"前缀代表自动使用ollama在localhost的默认服务端口,"qwen2.5:1.5b"代表模型名称,和第二步保持一致
LLM_MODEL = "ollama-qwen2.5:1.5b"

然后保存即可。

  1. 运行本项目,点击界面左上角“更换模型” -> “更换LLM模型/请求源” -> ollama-qwen2.5:1.5b