喵星人_Cat
喵星人_Cat
全部文章
分类
Hadoop Yarn(1)
Python爬虫(1)
博客(1)
操作系统(4)
数据库(5)
未归档(100)
机器学习(24)
海量数据处理(2)
编程语言(16)
网络(4)
网络安全(1)
归档
标签
去牛客网
登录
/
注册
Stay Hungry | yanhao
不积跬步无以至千里
全部文章
(共157篇)
十种深度学习算法要点及代码解析
前言 谷歌董事长施密特曾说过:虽然谷歌的无人驾驶汽车和机器人受到了许多媒体关注,但是这家公司真正的未来在于机器学习,一种让计算机更聪明、更个性化的技术。 也许我们生活在人类历史上最关键的时期:从使用大型计算机,到个人电脑,再到现在的云计算。关键的不是过去发生了什么,而是将来会有什么发生。 ...
2018-01-10
0
769
逻辑回归中的代价函数的详细由来及其梯度下降法
引言 逻辑回归常用于预测疾病发生的概率,例如因变量是是否恶性肿瘤,自变量是肿瘤的大小、位置、硬度、患者性别、年龄、职业等等(很多文章里举了这个例子,但现代医学发达,可以通过病理检查,即获取标本放到显微镜下观察是否恶变来判断);广告界中也常用于预测点击率或者转化率(cvr/ctr),例如因变量是是...
2017-12-29
0
606
逻辑回归假设函数,代价函数的由来
逻辑回归: 我们知道,线性回归可以预测一个数值,但是这个数值的大小呢,不一定,然而对于分类问题,我们想要得到0或者1,怎么办? 拿这张图片的例子来说,我们想要预测这两类,可以明显的找到一条线性回归直线分开他们,但这时候我们不再需要什么预测数值,我们只想要0和1。假如现在我们找到...
2017-12-29
0
844
逻辑回归代价函数及其梯度下降公式
前言 在上一篇随笔里,我们讲了Logistic回归cost函数的推导过程。接下来的算法求解使用如下的cost函数形式: 简单回顾一下几个变量的含义: <caption> 表1 cost函数解释 </caption> x(i) 每个样本数据点的...
2017-12-29
0
514
线性回归与之梯度下降
本文会讲到: (1)线性回归的定义 (2)单变量线性回归 (3) cost function:评价线性回归是否拟合训练集的方法 (4) 梯度下降:解决线性回归的方法之一 (5) feature scaling:加快梯度下降执行速度的方法 ...
2017-12-29
0
427
对机器学习中学习曲线的理解
下面将就学习曲线是一条关于样本个数和经验损失函数之间的曲线,对机器学习中的过程进行判断,进一步调整学习参数,提高假设模型的泛化能力给出解释说明。 在上面的图中,蓝线表示经验损失函数随着训练样本的增多而变大,相反绿线呈现出反向的关系。绿线是交叉验证样本,计算交叉验证的样本损失函数使用...
2017-12-29
0
677
学习曲线、机器学习系统的设计
关键词 学习曲线、偏差方差诊断法、误差分析、机器学习系统的数值评估、大数据原理 概要 本周内容分为两讲: 第一讲.Advice for applying machine learning,主要内容是关于偏差、方差以及学习曲线为代...
2017-12-29
0
715
机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用
前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。在上篇文章中便是基于特征值分解的一种解释。特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计算中。而且线性代数或者矩阵论里面,也很少讲任何跟特征值与奇异值有...
2017-11-11
0
507
均值、方差、协方差、协方差矩阵、特征值、特征向量
均值:描述的是样本集合的中间点。 方差:描述的是样本集合的各个样本点到均值的距离之平均,一般是用来描述一维数据的。 协方差: 是一种用来度量两个随机变量关系的统计量。 只能处理二维问题。 计算协方差需要计算均值。 如下式: ...
2017-11-09
0
1596
协方差矩阵计算方法
1. 协方差定义 X、Y 是两个随机变量,X、Y 的协方差 cov(X, Y) 定义为: 其中: 、 2. 协方差矩阵定义 矩阵中的数据按行排列与按列排列求出的协方差矩阵是不同的,这里默认数据是按行排列。即每一行是一个observation(or sample)...
2017-11-09
0
922
首页
上一页
3
4
5
6
7
8
9
10
11
12
下一页
末页