牛客296377942号
牛客296377942号
全部文章
分类
环境配置(1)
随笔(51)
面试(1)
归档
标签
去牛客网
登录
/
注册
牛客296377942号的博客
全部文章
(共44篇)
XGBOOST
有监督机器学习:集成学习效果已经非常不错集成学习也许和机器学习和深度学习并列目标函数包括:损失函数和正则函数L1正则是欧米伽的绝对值之和L2正则是平方和mse+L1 Ridge回归mse+L2 Lasso回归 XGBOOT是在做回归或者分类的,回归树是什么GBDT没有考虑正则项在XGBOOST...
2021-04-18
0
422
GBDT算法(Gradient Boosting Decision Tree)梯度提升树
引入梯度下降的思想 将每一个小树加在一起 函数空间的梯度下降 无论GBDT处理的是回归问题还是二分类问题还是多分类问题,GBDT使用的都是CART回归树,因为GBDT每次要拟合的是梯度值,是连续值所以要用回归树。 每颗回归树都是拟合负梯度,gbdt在应用于回归问题的时候,正好损失函数用的是mse的时...
2021-04-13
0
954
大数据工程师面试
2021-04-01
0
396
插入排序(Insertion sort)
原理: 每插入一个数都要将它和之前的已经完成排序的序列进行重新排序,也就是将新插入的数对应原序列中的位置那么也就是说,每次插入一个数都要对原来排序好的那部分序列进行重新的排序,时间复杂程度同样为O(n2)。这种排序算法是稳定的算法。 插入排序有点冒泡的感觉,他是从最后往前边一点一点的插入。 d...
2021-03-31
1
313
选择排序(Select sort)
第一次从待排序的数据元素中选出最小(最大)的元素,存放在序列的起始位置,然后再从剩余的元素中寻找最值,然后放在已排序的末尾,以此类推,直到结束。选择排序是不稳定的排序方法。 def Select_sort(num): # 这个for循环是循环几次 for j in range(len...
2021-03-31
0
447
冒泡排序
原理:比较相邻的两个元素,如果第一个比第二个大就交换这两个数对每一对相邻的元素做相同的工作,从开始的第一队到结尾的最后一对,在这一点,最后一个元素应该是最大的数。 def bubble_sort(array): for i in range(len(num)-1): sort...
2021-03-31
0
334
EM算法与GMM模型
GMM是聚类的一种模型 聚类里边会有EM的思想 GMM也会用到EM算法 单个高斯分布GM的估计参数 高斯分布需要估计那些参数:期望和方差 高尔顿是达尔文的哥哥 高斯分布的概率密度函数 高斯分布的似然函数(MLE),就是将所有的概率密度函数相乘 线性回归是将最大似然估计最大然后求出w无监督学习的...
2021-03-10
0
533
机器学习——聚类
聚类讲N个样本映射到K个簇中每个簇中至少有一个样本 基本思路先给定K个划分,迭代样本与簇的隶属关系,每次都比前一次好一些迭代若干次,就能得到比较好的结果 Kmeans算法步骤:选择K个初始的簇的中心(怎么选择呢?)1.随机初始化k个簇中心2.逐个计算每个样本点到簇中心的距离,将样本归属到距离簇中心距...
2021-02-25
0
461
梯度下降法,在线性回归问题中的应用
是一个优化算法 非常通用的算法,帮助其他算法进行优化 经典的常用的优化算法 如果损失函数不是凸函数,用解析解的方法就有点失灵了 用解析解的方法求theta还有个原因就是,特征维度并不多 随着维度增加,求逆就会非常的困难 梯度下降就是一步一步的逼近最优解 梯度下降的思想(对损失函数进行的操作):1....
2021-01-19
0
446
线性回归
discrete离散的discrete、continuous连续的算法就是公式线性回归就是一个算法y=a+bx去拟合最好的,得到一个最优解Actual value:真实值Predicted value:预测值Error:误差,预测值与真实值的差距Loss:整体误差Loss function损失函数损...
2020-12-08
0
403
首页
上一页
1
2
3
4
5
下一页
末页