• 词袋模型(Bag of Words)
    将每篇文章看成一袋子词,并忽略每个词出现的顺序.

具体来说,就是将整段文本以词为单位切分开,然后每篇文章可以表示成一个长向量,向量中的每一维表示一个单词,而该维对应的权重则反应了这个词在原文章中的重要程度.常用TF-IDF计算权重,公式为:
T F I D F ( t , d ) = T F ( t , d ) + I D F ( t ) TF-IDF(t,d)=TF(t,d)+IDF(t) TFIDF(t,d)=TF(t,d)+IDF(t)
其中TF-IDF(t,d)为单词t在文档d中出现的频率,IDF(t)是逆文档频率,用来衡量单词t对表达语义所起的重要性,表示为:
I D F ( t ) = log t + 1 IDF(t)=\log \frac{文章总数}{包含单词t的文章总数+1} IDF(t)=logt+1

  • TF-IDF(Term Frequency-Inverse Document Frequency)
  • 主题模型(Topic Model)
    用于从文本库中发现有代表性的主题(得到每个主题上面词的分布特性)
  • 词嵌入模型(Word Embedding)
    词嵌入是一类将词向量化的模型的统称,核心思想是将每个词都映射成低维空间(通常k=50~300维)上的一个稠密向量(Dense Vector)
  • 深度学习模型
  1. 卷积神经网络
  2. 循环神经网络