鲁迅说过:有多少人工,才有多少智能
当前的聊天对话模型数据集主要都是由英文构成,但是当前中文聊天模型构建的需求也较为迫切,因此我们将斯坦福的alpaca数据集进行中文翻译,并再制造一些对话数据,并开源提供。
我们发现翻译API的效果不如chatGPT,因此我们现在将切分成17份的数据集使用chatGPT替代了使用翻译API进行翻译。
此翻译并非完全的chatgpt机翻,会进行人工校验,遇到英文特异性表达的时候会变为较为中文化的表述,因此每日翻译量有限。
遇到完全不能翻译为中文的数据,可能会跳过,因此这将不是一个纯中文或中文--英文数据集。可能不适合拿来做翻译相关训练
分配下去的数据集应该能够确保全部翻译,预计alpaca每日增量约2500行,额外的非alpaca中文数据集我们预计也会以工作日120条左右的速度增加记录,预计每天会500行左右的数据
我们把github上代码都试了一下,现在能看出明显变化的就是https://github.com/ssbuild/chatglm_finetuning, 我们将尝试写一段脚本,把我们的数据集变成这种对话形式数据集
我们基于我们的数据集在colab上跑了微调代码,代码还没整理,是基于https://github.com/yuanzhoulvpi2017/zero_nlp 项目做的微调 但是目前我们发现微调后的模型和之前的几乎毫无区别,因此现在正在研究原因,也喜欢和大家一起探讨,预计在今天放出代码
看到了其他项目相关issue如mymusise/ChatGLM-Tuning#59 目前正在测试中
我们发现https://github.com/carbonz0/alpaca-chinese-dataset 这个项目已经通过机器翻译把alpaca数据进行了翻译,我们后续会逐条查看carbonz01的翻译数据,并人工校对将非中文化的表述跳过,并添加更多中国特色数据集。
- 阿扣扣 清华大学工工(alpaca_data-0-3252-英文)
- 黄堃淏 电子科大软院(alpaca_data-3252-6382-英文)
- 焦丽华 电子科大软院(alpaca_data-6382-9407-英文)
- 何余晨 电子科大软院(alpaca_data-9407-12345-英文)
- 张瑞钦 电子科大软院(alpaca_data-12345-15323-英文)
- 梁渊 电子科大软院(alpaca_data-15323-18280-英文)
- 王银杉 电子科大软院(alpaca_data-18280-21320-英文)
- 其他数据集当前暂无人认领,等待我们之前的数据标记完或者其他小伙伴认领~
- 阿扣扣(企业管理问题、三国问题)
- 黄堃淏 电子科大软院(名词解释类问题)
- 焦丽华 电子科大软院(党建类数据集)
- 何余晨 电子科大软院(建议类数据集)
- 张瑞钦 电子科大软院(历史类数据集)
- 梁渊 电子科大软院(学习类数据集)
- 王银杉 电子科大软院(科技类数据集)
- 加入除了alpaca之外的其他中文聊天对话
- 人工微调,部分并不中文化的问题,我们将重新询问chatgpt或文心一言,重新获取回答并覆盖掉alpaca的回答
- chatglm问题数据集:针对chatglm中我们发现的问题,使用文心一言或chatgpt进行回答,并重新收录