Popular repositories Loading
-
buaa_nlp_project3
buaa_nlp_project3 Public从给定的语料库中均匀抽取200个段落(每个段落大于500个词), 每个段落的标签就是对应段落所属的小说。利用LDA模型对于文本建模,并把每个段落表示为主题分布后进行分类。验证与分析分类结果。
Python 5
-
buaa_nlp_project4
buaa_nlp_project4 Public利用给定语料库(或者自选语料库),利用神经语言模型(如:Word2Vec, GloVe等模型)来训练词向量,通过对词向量的聚类或者其他方法来验证词向量的有效性。
Python 3
-
buaa_nlp_project1
buaa_nlp_project1 Public北航研究生三系深度学习与自然语言处理课程第一次作业,阅读文章:Entropy_of_English_PeterBrown 参考此文章来计算中文(分别以词和字为单位)的平均信息熵。
Python 1
-
-
-
Something went wrong, please refresh the page to try again.
If the problem persists, check the GitHub status page or contact support.
If the problem persists, check the GitHub status page or contact support.