Skip to content

BeHappyForMe/UniLM_summarization

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

4 Commits
 
 
 
 
 
 

Repository files navigation

UniLM_summarization

使用中文BERT预训练模型结合微软的UniLM实现中文文本摘要

Unified Language Model Pre-training微软提出的预训练模型,融合了四种LM,即MLM、从左至右的LM、从右至左的LM 及seq2seq LM,在多任务上达到 state-of-the-art。BERT模型因为使用的MLM方式,在 文本生成方面是一大短板,UniLM通过灵活应用mask技术,将文本生成中seq2seq模型 完美融入BERT中,补齐了BERT在文本生成方面的短板

本文在崔一鸣教授开源的中文BERT预训练模型基础上,使用UniLM进行微调,实现中文文本摘要任务。代码基于PyTorch实现,数据集链接: TODO

About

使用UniLM实现中文文本摘要

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages