*. Tips:
- loga(x)在机器学习中默认为 ln(x)
0. 主要参考:
CS224n专栏
AILearners/blog/nlp/cs224n/
1. note1:
2. note2:
- CS224n笔记2 词的向量表示:word2vec
- CS224n 学习笔记(2) Word2Vec
- Word2vec之公式推导笔记
- CS224n研究热点1 一个简单但很难超越的Sentence Embedding基线方法
- word2vec原理推导与代码分析
- 【2019斯坦福CS224N笔记】(1)如何计算机理解人类语言
3. note3:
4. note4:
5. note5:
- CS224n研究热点3 高效文本分类的锦囊妙计
- CS224n笔记5 反向传播与项目指导
- 【2019斯坦福CS224N笔记】(4)反向传播
- 【笔记4】反向传播
- 一文弄懂神经网络中的反向传播法——BackPropagation
- Charlotte77——数学系的数据挖掘民工
- 你真的理解反向传播吗?面试必备
- 一文搞懂反向传播算法
- 理解back propagation反向传播
6. note6:
- CS224n研究热点4 词嵌入对传统方法的启发
- CS224n笔记6 句法分析
- 基于神经网络的高性能依存句法分析器
- HanLP:面向生产环境的自然语言处理工具包
- 自然语言处理 中文分词 词性标注 命名实体识别 依存句法分析 新词发现 关键词短语提取 自动摘要 文本分类聚类 拼音简繁
- 【2019斯坦福CS224N笔记】(5)依存结构语法
- 基于神经网络的高性能依存句法分析器
7. note7:
8. note8:
- CS224n研究热点6 基于转移的神经网络句法分析的结构化训练
- CS224n笔记8 RNN和语言模型
- vanishing_grad_example.html
- vanishing_grad_example.ipynb
- 用于视觉识别的CS231n卷积神经网络
- 1.4 向量和矩阵的范数
- 【2019斯坦福CS224N笔记】(6)Language Models and RNNs
9. note9:
- CS224n研究热点7 迈向更好的语言模型
- CS224n笔记9 机器翻译和高级LSTM及GRU
- 【2019斯坦福CS224N笔记】(7)Fancy RNNs
- 零基础入门深度学习(6) - 长短时记忆网络(LSTM)
- Understanding LSTM Networks
- 一文带你理解LSTM网络
- RNN梯度消失和爆炸的原因
- 【深度学习】一文读懂LSTM
- [译] 理解 LSTM 网络
10. note10:
- CS224n研究热点8 谷歌的多语种神经网络翻译系统
- CS224n笔记10 NMT与Attention
- 【2019斯坦福CS224N笔记】(8)Translation, Seq2Seq, Attention
11. note11:
- CS224n研究热点9 读唇术
- CS224n笔记11 GRU和NMT的进一步话题
- 【2019斯坦福CS224N笔记】(9)Deep Learning for NLP Best Practices
- 【2019斯坦福CS224N笔记】(9)Deep Learning for NLP Best Practices
12. note12:
- CS224n笔记12 语音识别的end-to-end模型
- 【2019斯坦福CS224N笔记】(10)Question Answering
- 【2019斯坦福CS224N笔记】(10)Question Answering
13. note13:
- CS224n研究热点10 Character-Aware神经网络语言模型
- Character-Aware神经网络语言模型的实现代码
- CS224n笔记13 卷积神经网络
- 【2019斯坦福CS224N笔记】(11)ConvNets for NLP
14. note14:
- CS224n研究热点11 深度强化学习用于对话生成
- CS224n笔记14 Tree RNN与短语句法分析
- 【2019斯坦福CS224N笔记】(12)Information from parts of words: Subword Models
15. note15:
- CS224n研究热点12 神经网络自动代码摘要
- CS224n笔记15 指代消解
- 【2019斯坦福CS224N笔记】(13)Contextual Word Representations and Pretraining