两种模型:
-
一种是类似于bert的模型,从这里下载模型https://huggingface.co/hfl/chinese-roberta-wwm-ext
-
一种是llama结构的模型,这里使用了Qwen1.5-0.5B-Chat模型,点击链接下载。
将数据准备成json格式,参考bge
的数据要求
{"query": str, "pos": List[str], "neg": List[str]}
如果是图片数据,参考如下数据要求
{"query_img_dir": str, "pos_img_dir": List[str], "neg_img_dir": List[str]}
- 如果是使用类似于bert的模型,参考
hz_run_embedding.sh
脚本,进行训练 - 如果是使用类似于llama的模型,参考
hz_run_embedding_qwen.sh
脚本,进行训练