Skip to content

Latest commit

 

History

History
39 lines (24 loc) · 2.09 KB

README.md

File metadata and controls

39 lines (24 loc) · 2.09 KB

中文生成式预训练模型

NLU的预训练模型大家应该见过不少了,NLG的预训练资源还比较少。这里汇总一些中文的生成式预训练模型,给出bert4keras下的加载方式。

模型列表

GPT

以GPT为代表的单向语言模型预训练。

GPT Base(NEZHE-GEN)

CDial-GPT

GPT2-ML

其他

一般情况下,直接在BERT等NLU式预训练模型中加入UniLM式的Attention Mask,也可以用来做Seq2Seq参考,例子可以参考task_seq2seq_autotitle_csl.py

交流

QQ交流群:67729435,微信群请加机器人微信号spaces_ac_cn