想回老家的潜伏者躺平又起来了
想回老家的潜伏者躺平又起来了
全部文章
机器学习
Git(1)
Lasso(1)
Linux(1)
Python(2)
Scala(7)
SVM(1)
TensorFlow(3)
其他(1)
图表示学习(1)
工具介绍(1)
强化学习(1)
推荐系统(1)
未归档(73)
深度学习(2)
聚类和EM算法(1)
归档
标签
去牛客网
登录
/
注册
浅梦的学习笔记
记录&分享工作学习中的算法技术原理和实践
全部文章
/ 机器学习
(共8篇)
非负矩阵分解NMF
问题描述 优化目标 假设噪声矩阵 <nobr> E=X−WH </nobr>,我们可以用两种目标函数优化 平方误差最小化 <nobr> minW,H||X−WH||2=∑i∑j(Xij−(WH)ij)2s.t.Wik...
2017-08-31
0
576
主题模型LDA
多项分布和狄利克雷分布 多项分布 某随机实验如果有k个可能结局A1、A2、…、Ak,分别将他们的出现次数记为随机变量X1、X2、…、Xk,它们的概率分布分别是p1,p2,…,pk,那么在n次采样的总结果中,A1出现n1次、A2出现n2次、…、Ak出现nk次的这种事件的出现概率P有下面公式: ...
2017-08-31
0
519
线性回归
最小二乘法线性回归模型 模型 <nobr> yi≈w0+∑j=1dxijwj </nobr> 模型学习 平方误差损失 <nobr> wLS=argminw∑i=1n(yi−f(xi;w))=argminwL </no...
2017-08-29
0
520
HMM隐马尔可夫模型
隐马尔科夫模型的基本概念 定义 HMM是关于时序的概率模型,描述又一个隐藏的马尔科夫链随机生成不可观测的状态随机序列,再由各个状态生成一个观测而产生观测随机序列的过程。 基本概念 状态序列 隐藏的马尔科夫链随机生成的状态的序列 观测序列 每个状态生成一个观测,而由此产生的观测的...
2017-08-27
0
582
EM算法及其推广
EM算法是一种迭代算法,用于含有隐变量的概率模型参数的极大似然估计,或极大后验概率估计。 EM算法的每次迭代由两步组成:E步,求期望;M步,求极大。所以这一算法称为期望极大算法,简称EM算法。 EM算法的引入 EM算法 EM算法与初值的选择有关,选择不同的初值可能得到不同的参数估计值。 一...
2017-08-27
0
601
最大熵模型
最大熵(maximum entropy model)由最大熵原理推导实现。这里首先叙述一般的最大熵原理,然后讲解最大熵模型的推导,最后给出最大熵模型学习的形式。 最大熵原理 最大熵原理是概率模型学习的一个准则。最大熵原理认为,学习概率模型时,在所有可能的概率模型(分布)中,熵最大的模型是最好的模...
2017-08-27
1
631
朴素贝叶斯算法
朴素贝叶斯(naive Bayes)算法是基于贝叶斯定理与特征条件独立假设的分类方法。 对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。 朴素贝叶斯算法的学习与分类 基本方法 朴素贝叶斯算法对...
2017-08-25
0
660
k近邻法
k近邻法不具有显式的学习过程。k近邻法利用训练数据集对特征向量空间进行划分,并作为其分类的“模型”。 k值的选择,距离度量及分类决策规则是k近邻法得三个基本要素。 k近邻算法 k近邻法 根据给定的距离度量,在训练集T中找出与x最领进的k个点,涵盖这k个点的x的邻域记作 ...
2017-08-25
0
506