小蚂蚁。
小蚂蚁。
全部文章
未归档
归档
标签
去牛客网
登录
/
注册
小蚂蚁。的博客
全部文章
/ 未归档
(共7篇)
GBDT
GBDT 全称gradient boost descion tree 梯度上升决策树 既可以解决回归问题也可以解决分类问题(解决分类问题的时候也是按回归问题来处理的,把分类换成One-hot向量,然后对每一维作回归) 基模型一般用回归树 模型的计算是根据加法模型和前向分布算法,根据...
2019-08-13
0
447
优化算法
2019-08-13
0
331
逻辑回归特征离散化
Q:CTR预估,发现CTR预估一般都是用LR,而且特征都是离散的。为什么一定要用离散特征呢?这样做的好处在哪里? A: 在工业界,很少直接将连续值作为逻辑回归模型的特征输入,而是将连续特征离散化为一系列0、1特征交给逻辑回归模型,这样做的优势有以下几点: 0、 离散特征的增加和减少...
2019-08-12
0
682
深入理解拉格朗日乘子法和KKT条件
转:https://blog.csdn.net/xianlingmao/article/details/7919597 参考:https://www.cnblogs.com/sddai/p/5728195.html 在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange...
2019-08-06
0
601
SVM推导
2019-08-04
0
456
AUC,ROC。。
AUC:一个正例,一个负例,预测为正的概率值比预测为负的概率值还要大的可能性。 绘制ROC曲线,ROC曲线下面的面积就是AUC的值 假设总共有(m+n)个样本,其中正样本m个,负样本n个,总共有m*n个样本对,计数,正样本预测为正样本的概率值大于负样本预测为正样本的概率值记为1,累加计数...
2019-08-02
0
603
主成分分析(PCA)
PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。 PCA之前先介绍矩阵特征值分解。 那么如何选择这个方向(...
2019-08-02
0
805