想回老家的潜伏者躺平又起来了
想回老家的潜伏者躺平又起来了
全部文章
分类
Git(1)
Lasso(1)
Linux(1)
Python(2)
Scala(7)
SVM(1)
TensorFlow(3)
其他(1)
图表示学习(1)
工具介绍(1)
强化学习(1)
推荐系统(1)
未归档(73)
机器学习(8)
深度学习(2)
聚类和EM算法(1)
归档
标签
去牛客网
登录
/
注册
浅梦的学习笔记
记录&分享工作学习中的算法技术原理和实践
全部文章
(共105篇)
HMM隐马尔可夫模型
隐马尔科夫模型的基本概念 定义 HMM是关于时序的概率模型,描述又一个隐藏的马尔科夫链随机生成不可观测的状态随机序列,再由各个状态生成一个观测而产生观测随机序列的过程。 基本概念 状态序列 隐藏的马尔科夫链随机生成的状态的序列 观测序列 每个状态生成一个观测,而由此产生的观测的...
2017-08-27
0
582
EM算法及其推广
EM算法是一种迭代算法,用于含有隐变量的概率模型参数的极大似然估计,或极大后验概率估计。 EM算法的每次迭代由两步组成:E步,求期望;M步,求极大。所以这一算法称为期望极大算法,简称EM算法。 EM算法的引入 EM算法 EM算法与初值的选择有关,选择不同的初值可能得到不同的参数估计值。 一...
2017-08-27
0
601
提升方法AdaBoost
提升(boosting)方法是一种可以将弱学习器提升为强学习器的算法。在分类问题中,它通过改变训练样本的权重,使得先前学习器做错的训练样本在后续受到更多关注,然后基于调整后的样本分布来训练下一个基学习器,并将这些分类器进行过线性组合,提高分类的性能。 提升方法AdaBoost算法 在每一轮...
2017-08-27
0
400
最大熵模型
最大熵(maximum entropy model)由最大熵原理推导实现。这里首先叙述一般的最大熵原理,然后讲解最大熵模型的推导,最后给出最大熵模型学习的形式。 最大熵原理 最大熵原理是概率模型学习的一个准则。最大熵原理认为,学习概率模型时,在所有可能的概率模型(分布)中,熵最大的模型是最好的模...
2017-08-27
1
631
逻辑斯谛(Logistic)回归
Logistic回归模型 logistic分布 逻辑斯谛分布 设X是连续随机变量,X具有下列分布函数和密度函数 <nobr> F(x)=P(X≤x)=11+e−(x−μ)/γ </nobr> <nobr> f(...
2017-08-27
0
591
决策树
在分类问题中,表示基于特征对实例进行分类的过程,它可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。 其主要优点是模型具有可读性,分类速度快。 学习时,利用训练数据,根据损失函数最小化的原则建立决策树模型。 预测时,对新的数据,利用决策树模型进行分类。 ...
2017-08-26
0
629
朴素贝叶斯算法
朴素贝叶斯(naive Bayes)算法是基于贝叶斯定理与特征条件独立假设的分类方法。 对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。 朴素贝叶斯算法的学习与分类 基本方法 朴素贝叶斯算法对...
2017-08-25
0
660
k近邻法
k近邻法不具有显式的学习过程。k近邻法利用训练数据集对特征向量空间进行划分,并作为其分类的“模型”。 k值的选择,距离度量及分类决策规则是k近邻法得三个基本要素。 k近邻算法 k近邻法 根据给定的距离度量,在训练集T中找出与x最领进的k个点,涵盖这k个点的x的邻域记作 ...
2017-08-25
0
506
感知机Perceptron
感知机学习策略 数据假设和学习目标 假设训练数据是线性可分的,感知机学习的目标是求得一个能够将训练集正实例点和负实例点完全正确分开的分离超平面。 损失函数 损失函数的一个自然选择是误分类点的总和。但这样的损失函数不是参数w,b的连续可导函数,不易优化。 另一个选择是误分类点到超平面S的总...
2017-08-25
0
384
非线性SVM与核函数
核技巧 非线性分类问题 用线性分类的方法求解非线性分类问题分为两步: 首先使用一个变换将原空间的数据映射到新空间; 然后在新空间里利用线性分类学习方法从训练数据中学习分类模型。核技巧就是这种方法。 核技巧应用到SVM,基本想法是通过一个非线性变换将输入空间对应于一个特征空间,使得在输入空间...
2017-08-25
0
755
首页
上一页
2
3
4
5
6
7
8
9
10
11
下一页
末页