- vsctor store 本地存储
- 提供PaddlePaddle版本和AIStudio环境
- 增加推荐Embedding Model
- 修复modelscope引用chatglm_llm错误问题
- 修复相关注释问题
- 更新微信群二维码
- 完善FAQ和部署文档
- 增加Vicuna-13B-1.1模型
- 更改向量存储为Qdrant(尝试)
- 优化Jina Serving API,支持批量文件
- 增加Jina Serving API调用
- 完善Readme描述
- 修复切换模型时可能的潜在问题
- 修复Jina Serving的Crul命令
- 增加model cache目录@AliscaCL
- 更新Docker镜像地址@online2311
- gradio发布时增加多项参数@godlockin
- 修复安装依赖冲突@online2311
- 上传项目镜像至阿里云:
registry.cn-beijing.aliyuncs.com/public-development-resources/langchain-chatglm-webui:latest
- 优化Docker部署说明
- 提供单独的config.py配置文件
- Dockerfile增加aria2c unzip
- 优化Dockerfile
- config.py 增加本地Models参数
- 构建基础镜像:
registry.cn-beijing.aliyuncs.com/public-development-resources/langchain-chatglm-webui:Base
上述由@online2311贡献
- 提供群聊沟通
- 更新Dockerfile及requirements.txt
- 优化模型加载机制
- 修复对不同系列模型推理的bug
- 修改参数不参与重新加载模型
- 增加对Belle系列模型的支持
- 优化UI设计
- 完善Readme描述
- 提供对
Vicuna
模型的支持 - ModelScope版本支持Web Search
- 在HuggingFace和ModelScope的APP上支持了由Jina.ai提供的
ViT-B-32::laion2b-s34b-b79k
Embedding Inference
- 优化对
.pdf
的支持 - 优化UI设计
- 修改对于Docker镜像的描述
- 提供HuggingFace的在线体验
- 完善Readme描述
- 提供视频部署教程
- 提供Docker部署及文字教程
- 支持多卡推理ChatGLM-6B
- 增加外部访问支持
- 增加ChatGLM-6b-local以及本地模型读取路径
- 修复text2vec无法加载的错误
上述2-6由社区@online2311贡献
- 更新ModelScope版本
- 完善Readme描述
- 提供部署文档
- 支持
.pdf
格式 - 更新Docker镜像地址
- 完善Readme描述
- 提供模型下载链接
- 完善Prompt设计
- 修复上下文的bug
- 支持更多的LLM和Embedding Model
- 同步更新ModelScope版本
- 完善Readme描述
- 完善Readme描述
- 提供离线的
nltk_data
依赖文件, 用户无需再次下载 - 支持上下文
- 增加支持的Embedding Model
- 增加参数
history_len
、temperature
、top_p
- 同步更新ModelScope版本
- 完善Readme描述
- 提供ModelScope版本,支持在线体验
- 使用langchain中的
RetrievalQA
替代之前选用的ChatVectorDBChain
- 提供选择参数
VECTOR_SEARCH_TOP_K
- 删除提供的错误Docker地址
- 增加对Embedding Model推理设备的定义
- 提供部署镜像
- 完善Readme描述
- 提供多种LLM和Embedding Model可选择
- 增加显存清理机制
- 完善Readme描述
- 初始化仓库, 提交Readme和Licence
- 提交基础关键代码: app.py和chatglm_llm.py
- 支持ChatGLM-6B的LLM和GanymedeNil/text2vec-large-chinese的Embedding Model