Skip to content

This repo offers advanced tutorials for LLMs, BERT-based models, and multimodal models, covering fine-tuning, quantization, vocabulary expansion, and tasks like text classification, similarity calculation, and image-text matching.

Notifications You must be signed in to change notification settings

WangRongsheng/LLM101

Repository files navigation

LLM101

  1. 检查 Tokenizer 词表大小与 LLM 的 Embedding 和 LM_head 输入大小是否匹配
  2. 对 SBert 进行训练、预测、评估使其进行相似度计算
  3. 对 BERT 进行训练、预测、评估使其进行文本分类
  4. 使用 CLIP 模型进行文本图像匹配
  5. 对 JoinBERT 进行训练、预测使其进行对话意图和槽位联合识别
  6. 对比LoRA微调、模型Last Layers微调以及模型全参数微调对比,并且使用网格搜索 LoRA 最佳参数设置
  7. 对 Qwen2-0.5B 模型进行 LoRA 微调
  8. 对 RoBERTa 进行训练、预测使其进行中文/英文文本分类
  9. 利用 SBert 进行Embedding、文本相似度计算、语义检索、检索ReRank、图像检索等
  10. 简单的文本分类实现
  11. LLM 不同精度(FP16,FP32,BF16)下显存占用、精度转换
  12. 使用 Sentencepiece 进行LLM词表的扩展与中文化
  13. 扩展LLM词表后对 Embedding 以及 LM_head 进行随机初始化
  14. Qwen2 的 LoRA、QLoRA、全参数微调以及 FastAPI 部署
  15. Proxy Tuning 微调
  16. Gemma2、Jamba 的 LoRA 微调
  17. 向 Tokenizer 中添加新的 Tokens / Special Tokens 并且初始化Embedding矩阵
  18. 对多个 LoRA 权重进行卸载和切换使用
  19. 对新添加 Tokens 进行 Embedding 训练 (区别于13和17)
  20. 在 VGG19 图像分类任务中应用 LoRA 方法进行微调测试
  21. 实现 Position Embedding、测试 Word Embedding、测试 GPT-2 的NTP过程、实现 Transformer 的模型训练与测试
  22. 实现 vLLM 在 GPU 和 CPU 情况下进行推理
  23. 对 LLM 实现类似于 o1 逻辑推理的 Prompt
  24. 使用代码数据对CodeLlama进行微调
  25. 微调 Llama 进行文本分类任务
  26. 利用预训练的 BERT 系模型实现 LLM Router,同时进行 CPT 50%和80% 评测计算
  27. 结合Autotrain-advanced 对 LLM 进行白盒知识蒸馏
  28. 使用 Transformers 和 Faiss 实现图片相似检索
  29. 解析如何利用 CLIP 为 VLMs 的 Visual Encoder 提供视觉信息
  30. 对比多模态模型中不同的 Input Projector 的特点以及简单实现
  31. 基于 SetFit 实现 NLP 模型的知识蒸馏
  32. Ollama的基本使用与并发多模型使用
  33. 使用 AWQ 对 LLM 进行量化训练
  34. 使用 llama.cpp 对模型进行 GGUF 量化
  35. LLM 采样方法详解 - Top-K、温度、贪心搜索等
  36. BLIP2 推理
  37. 对 LLM 进行 o1-like reasoning 微调训练并且进行 add special token 和 embedding 重训练
  38. 使用 Ollama 进行 Function Calling/Tool Use 调用
  39. 使用 BertViz 对 LLM 的 Attention 计算进行可视化展示
  40. 通过修改指定层参数对 LLM 的拒绝回答进行越狱

本repo大部分内容非首发,如有疑问,请联系:wrs6@88.com

About

This repo offers advanced tutorials for LLMs, BERT-based models, and multimodal models, covering fine-tuning, quantization, vocabulary expansion, and tasks like text classification, similarity calculation, and image-text matching.

Resources

Stars

Watchers

Forks