1. word embedding

word embedding 的意思是:给出一个文档,文档就是一个单词序列比如 “ A B A C B F G A B A C B F G ABACBFG”, 希望对文档中每个不同的单词都得到一个对应的向量(往往是低维向量)表示。比如,对于这样的“ A B A C B F G A B A C B F G ABACBFG”的一个序列,也许我们最后能得到:A对应的向量为[0.1 0.6 -0.5],B对应的向量为[-0.2 0.9 0.7] (此处的数值只用于示意)之所以希望把每个单词变成一个向量,目的还是为了方便计算,比如“求单词A的同义词”,就可以通过“求与单词A在cos距离下最相似的向量”来做到。

2. epoch和iteration

概念一:
iteration: 数据进行一次前向-后向的训练(也就是更新一次参数)
batchsize:每次迭代(iteration)训练图片的数量
epoch:1个epoch就是将所有的训练图像全部通过网络训练一次
例如:假如有1280000张图片,batchsize=256,则1个epoch需要1280000/256=5000次iteration
假如它的max-iteration=450000,则共有450000/5000=90个epoch

概念二:
深度学习中经常看到epoch、 iteration和batchsize,下面按自己的理解说说这三个的区别:
(1)batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练;
(2)iteration:1个iteration等于使用batchsize个样本训练一次;
(3)epoch:1个epoch等于使用训练集中的全部样本训练一次;
举个例子,训练集有1000个样本,batchsize=10,那么:
训练完整个样本集需要:
100次iteration,1次epoch。
epoch和iteration都是指的深度学习中的。

3. 独热表示法(One-hot Representation)

这种方法是先将语料库中的所有词汇汇总得到N个词汇,并将语料库中的每个文档个体生成一个N维的向量, 如果存在某个词,就把这个词对应的维度置1,否则为0。

参考:

  1. NLP常用术语解析
  2. NLP专业术语
  3. NLP常见术语
  4. epoch的定义 和 iteration的定义
  5. epoch和iteration的区别