一个all_in_one合集,包含大模型微调、部署、langchain开发,方便大家使用 初步设想几个部分:
- langchain例子:
- 统一微调
- 统一api
- chatglm2-6b
- Baichuan
- LLaMa2
- 讲课demo快速入口,按时间排序
欢迎大家关注,后续持续更新,做方便你用的工具
如果要搭建一个本地的chatGPT模型,需要借助开源的力量,大体上要解决两个主要问题:基础大模型用什么,怎么用指令微调(instruction)。开源项目众多,鱼龙混杂,这么一个索引式记录可以让大家少走弯路,欢迎贡献。
预训练数据: 指令数据:
项目名称 | github地址 | 基础大模型 | 训练方法 | 备注 |
---|---|---|---|---|
Alpaca | https://github.com/tatsu-lab/stanford_alpaca | LLaMA | Alpaca | 大家熟知的羊驼,入门推荐 |
Alpaca | https://github.com/Facico/Chinese-Vicuna | LLaMA | Vicuna | 一个中文低资源的llama+lora方案 |