丿回到火星去
丿回到火星去
全部文章
机器学习
Linux之路(4)
MyCode(5)
YOLOv3(1)
优化算法(6)
未归档(2)
深度学习(9)
环境配置(3)
归档
标签
去牛客网
登录
/
注册
月上柳梢头,相约去青楼
非让我设置标题和颜色,不然就显示默认一句话。
全部文章
/ 机器学习
(共34篇)
集成算法(AdaBoost基本原理)
文章目录 1. 引言 2. 算法 3. 算法描述 4. 小结 1. 引言 提升算法大多都是基于这样的一个思想;对于一个复杂的任务来说,将多个专家的判断进行适当的综合所得出的判断,要比其中任何一个专家单独判断的好。实际上就是 三个臭皮匠,顶个诸葛亮的...
2018-11-20
0
330
集成算法(Bagging,随机森林)
引言(关于集成学习) 集成算法包括很多种包括Bagging,随机森林,Boosting 以及其他更加高效的集成算法。在这篇博客上只介绍Bagging算法及随机森林,Boosting提升算法及其他高效的算法在下一篇详细讲解。 集成算法就是通过构建多个学习器来完成学习任务,是由多个基学习器或者是个体学...
2018-11-18
0
514
决策树 ( decision tree)详解
决策树算法的基本流程 决策树顾名思义就是基于树对问题的决策和判别的过程,是人类在面对决策问题时一种很自然的处理机制,下面有个例子 通过决策树得出最终的结果。 我们所要做的就是去得到这样一个树去帮助我们决策问题,使样本通过这个树实现分...
2018-11-16
0
1157
SVM(Support Vector Machin) 支持向量机 详解
吴恩达的课程中跟国内的一些教程中分析问题的思路还是有些不同的,吴恩达的课程从简单的LR开始让我们先去理解优化目标,一步步的引导我们去理解SVM,然后揭开他神秘的面纱,便于理解,是很不错的课程。我学习的国内课程是直接重点讲解,讲到SVM核心内容。在这里我总结下自己学习SVM的一些想法(目标函数的优化,...
2018-11-13
0
1030
KNN(k-nearest neighbors) K近邻算法深入
K近邻法是机器学习中一种很基本的算法,可以用做分类和回归,主要的思想跟我们生活中近墨者黑,近朱者赤的思想雷同。例如我们看一个人人品的好坏只需要看与之相交的人的品格好坏。KNN算法分类和回归主要区别在于最后做预测时候的决策方式不同:分类时我们选取与之相近的K个样本采取多数表决法来判断类别,回归时我们选...
2018-11-10
0
529
在调用sklearn fit时出现 Unknown label type: 'unknown'错误
在调用sklearn selectKBest().fit时出现 Unknown label type: 'unknown'错误: 当出现此问题时一般来说是你传入的数据类型被调用函数不接受, 你需要改变数据类型。 1. 例如采用卡方验证选取特征时,如果你传入的是标签是float类型,会产生...
2018-11-01
0
660
JupyterLab快捷键
Jupyter Notebook 有两种键盘输入模式。编辑模式,允许你往单元中键入代码或文本;这时的单元框线是绿色的。命令模式,键盘输入运行程序命令;这时的单元框线是灰色。 命令模式 (按键 Esc 开启) Enter : 转入编辑模式 Shift-Enter : 运行本单元,选中下个单元 Ctr...
2018-09-18
0
494
机器学习从公理到算法
ML算法模型 简单总结一下在学习的过程中对Machine Learning算法模型理解: 决策树 ( decision tree)详解 集成算法(Bagging,随机森林) 集成算法(AdaBoost基本原理) Boosting算法(GBDT,XGBoost,LightGBM)...
2018-09-04
0
463
几种距离计算算法及相似度计算算法
在机器学习算法中很多会用到距离计算算法和相似度计算算法,在这里简单总结下方便以后查看。 距离计算算法 欧几里得距离 欧几里得度量(eucl...
2018-09-03
0
613
最优化—梯度下降法
最优化问题 最优化问题就是求解函数极值的问题, 包括极大值和极小值, 几乎所有机器学习算法归根到底都是在求解最优化问题。在高等数学/微积分中有求极值统一的思路:找函数导数等于0的点,只要函数可导我们就可以用这种方法。在机器学习中我们一般求函数的极小值,若求极大值我们只需要整体加负号。有些时候我们会...
2018-09-02
0
557
首页
上一页
1
2
3
4
下一页
末页