想回老家的潜伏者躺平又起来了
想回老家的潜伏者躺平又起来了
全部文章
未归档
Git(1)
Lasso(1)
Linux(1)
Python(2)
Scala(7)
SVM(1)
TensorFlow(3)
其他(1)
图表示学习(1)
工具介绍(1)
强化学习(1)
推荐系统(1)
机器学习(8)
深度学习(2)
聚类和EM算法(1)
归档
标签
去牛客网
登录
/
注册
浅梦的学习笔记
记录&分享工作学习中的算法技术原理和实践
全部文章
/ 未归档
(共73篇)
矩阵分解(MF,SVD)和协同过滤(CF)
协同过滤Collaborative Filtering 使用用户历史的行为来做未来的推荐。忽略了关于用户或item的先验信息。 CF使用与我相似的用户的评分来预测我的评分 CF是领域无关的,不需要知道现在在对什么评分,谁在评分,评分是多少 一种CF方法称为基于邻域的方法。例如 ...
2017-08-30
0
1268
稀疏线性回归(lp正则)
lp范数惩罚项 <nobr> ||w||p=(∑j=1d|wj|p)1pfor0<p≤∞ </nobr> lp回归 <nobr> wlp=argminw||y−Xw||22+λ||w||pp </nobr> ...
2017-08-30
0
458
贝叶斯推断 4. 连续型随机变量先验
指数分布 指数分布的共轭先验是Gamma分布。 <nobr> Y∼Exp(λ) </nobr> <nobr> f(λ|y)∝f(y|λ)f(λ)∝λe−λyλa−1e−βλ∝λ(a+1)−1e−(β+y)λ </n...
2017-08-29
0
454
高斯混合模型GMM
使用概率模型的原因 k均值等价于假设了球对称形状的聚类。使用带权欧式距离,仍然假设了轴对齐的椭球。没有考虑聚类的形状。 促使概率模型的原因:混合模型 提供观测点到聚类的软分配soft assignment(分配包含不确定性) 考虑了聚类的形状而不仅仅是中心 允许从不同维度来学习权...
2017-08-28
0
859
提升树和GBDT
提升树 提升树模型 以决策树为基函数的提升方法称为提升树(boosting tree)。 对分类问题是二叉分类树,对回归问题是二叉回归树。 提升树可以表示为决策树的加法模型: <nobr> fM(x)=∑m=1MT(x;Θm) </nobr> 其中...
2017-08-27
0
566
条件随机场(待补充)
待补充
2017-08-27
0
391
提升方法AdaBoost
提升(boosting)方法是一种可以将弱学习器提升为强学习器的算法。在分类问题中,它通过改变训练样本的权重,使得先前学习器做错的训练样本在后续受到更多关注,然后基于调整后的样本分布来训练下一个基学习器,并将这些分类器进行过线性组合,提高分类的性能。 提升方法AdaBoost算法 在每一轮...
2017-08-27
0
400
逻辑斯谛(Logistic)回归
Logistic回归模型 logistic分布 逻辑斯谛分布 设X是连续随机变量,X具有下列分布函数和密度函数 <nobr> F(x)=P(X≤x)=11+e−(x−μ)/γ </nobr> <nobr> f(...
2017-08-27
0
591
决策树
在分类问题中,表示基于特征对实例进行分类的过程,它可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。 其主要优点是模型具有可读性,分类速度快。 学习时,利用训练数据,根据损失函数最小化的原则建立决策树模型。 预测时,对新的数据,利用决策树模型进行分类。 ...
2017-08-26
0
630
感知机Perceptron
感知机学习策略 数据假设和学习目标 假设训练数据是线性可分的,感知机学习的目标是求得一个能够将训练集正实例点和负实例点完全正确分开的分离超平面。 损失函数 损失函数的一个自然选择是误分类点的总和。但这样的损失函数不是参数w,b的连续可导函数,不易优化。 另一个选择是误分类点到超平面S的总...
2017-08-25
0
384
首页
上一页
1
2
3
4
5
6
7
8
下一页
末页