Skip to content

Latest commit

 

History

History
40 lines (34 loc) · 1.73 KB

README.md

File metadata and controls

40 lines (34 loc) · 1.73 KB

chatgpt_all 一站式本地GPT搭建工具

介绍

一个all_in_one合集,包含大模型微调、部署、langchain开发,方便大家使用 初步设想几个部分:

说明

欢迎大家关注,后续持续更新,做方便你用的工具

其他说明:

如果要搭建一个本地的chatGPT模型,需要借助开源的力量,大体上要解决两个主要问题:基础大模型用什么,怎么用指令微调(instruction)。开源项目众多,鱼龙混杂,这么一个索引式记录可以让大家少走弯路,欢迎贡献。

数据

预训练数据: 指令数据:

热门项目汇总

项目名称 github地址 基础大模型 训练方法 备注
Alpaca https://github.com/tatsu-lab/stanford_alpaca LLaMA Alpaca 大家熟知的羊驼,入门推荐
Alpaca https://github.com/Facico/Chinese-Vicuna LLaMA Vicuna 一个中文低资源的llama+lora方案

加微信交流群,备注: 公司/学校-方向

微信号:zhou759405