闲敲code落灯花
闲敲code落灯花
全部文章
机器学习基础
CSNote学习笔记(3)
我的面试(17)
技术咨询(1)
深度学习基础(1)
算法与数据结构(8)
统计学基础(1)
计算机基础(3)
语法基础(22)
面试经验(10)
归档
标签
去牛客网
登录
/
注册
努力努力再努力
全部文章
/ 机器学习基础
(共18篇)
对交叉熵的理解
参考 https://blog.csdn.net/tsyccnh/article/details/79163834参考https://charlesliuyx.github.io/2017/09/11/%E4%BB%80%E4%B9%88%E6%98%AF%E4%BF%A1%E6%81%AF%E7%...
2020-11-03
0
472
决策树
决策树笔记参考 https://plmsmile.github.io/2018/03/05/29-desicion-tree/https://blog.csdn.net/u012328159/article/details/70184415 决策树的复杂度 决策树模型的复杂度由生成的树的叶子节点数量...
2020-11-03
0
422
阅文基础题
1、判别式模型于生成式模型的区别以及常见模型?2、机器学习中的最优化方法有哪些,优点缺点都是什么?3、主要的聚类算法有哪些?有点缺点?4、节点的度,出度入度5、满二叉树与完全二叉树6、满二叉树节点数与深度的关系2^k-1,叶子节点个数2^(k-1)
2020-10-21
0
372
Recall与Precision
recall体现了分类模型对正样本的识别能力precision体现了分类模型对负样本的区分能力F1score是两者的综合,越高2说明分类模型越稳健 以下参考https://zhuanlan.zhihu.com/p/78204581 Precision的定义为: [公式] Recall的定义为: ...
2020-10-18
0
508
如何处理样本分布不均衡
SMOTE过采样算法 参考https://blog.csdn.net/qq_33472765/article/details/86561557 简单来说smote算法的思想是合成新的少数类样本,合成的策略是对每个少数类样本a,从它的最近邻中随机选一个样本b,然后在a、b之间的连线上随机选一点作为...
2020-10-17
0
453
介绍一下排列熵
参考 [1]张碧晗.抑郁症脑磁图的多尺度排列熵与符号转移熵的研究[D].江苏:南京邮电大学,2018. 优势 排列熵对于复杂系统的动力学突变有着较好的检测 算法流程 相空间重构,相当于对时序序列进行窗口扩增,比如设置窗口为6,对各个时间再向后取6个时间点的值,得到一个长度为7的重构分量;以此类推原...
2020-10-16
0
1874
介绍一下word2vec
参考https://www.kesci.com/home/project/5e78854998d4a8002d2c4696 概述 word2vec是一种处理文本的模型,它本质就是一个双层神经网络输入是文本的onehot编码,输出对应的向量Word2vec通过上下文学习单词的矢量表示 之前的方法有什么...
2020-10-16
0
545
Bagging与Boosting
摘自https://www.cnblogs.com/xiaoyun94/p/7382221.html Bagging是从原数据集中有放回的抽样,得到一组和原训练集同样大小的数据集用于模型训练得到一组分类器/回归模型,再这一组模型的输出通过投票/求平均得到最终结果。是一种并行集成的方法。(baggin...
2020-10-13
0
515
首页
上一页
1
2
下一页
末页