-
Notifications
You must be signed in to change notification settings - Fork 8.1k
使用Ollama运行本地模型
binary-husky edited this page Dec 1, 2024
·
2 revisions
- 【外部ollama配置】下载ollama:
https://ollama.com/
- 【外部ollama配置】打开powershell,用ollama运行通义千问小模型:
ollama run qwen2.5:1.5b
- 【本项目配置】打开本项目的配置
config.py
,将其中 LLM_MODEL 修改为
# 解释"ollama-"前缀代表自动使用ollama在localhost的默认服务端口,"qwen2.5:1.5b"代表模型名称,和第二步保持一致
LLM_MODEL = "ollama-qwen2.5:1.5b"
然后保存即可。
- 运行本项目,点击界面左上角“更换模型” -> “更换LLM模型/请求源” -> ollama-qwen2.5:1.5b