苏学算法
苏学算法
全部文章
机器学习
C++(12)
CTR预估(2)
git(2)
gpu(1)
linux(7)
mac(1)
Matlab(1)
python(201)
shell(2)
spark(1)
sql(1)
vim(1)
windows(1)
互联网算法面经(1)
其他(4)
写论文工具(2)
异常检测(2)
强化学习(3)
推荐系统(1)
数据结构(20)
未归档(1)
深度学习(8)
环境配置(2)
算法(23)
链表(1)
归档
标签
去牛客网
登录
/
注册
苏学算法的博客
全部文章
/ 机器学习
(共20篇)
旋转机械(轴承等)故障诊断公开数据集
参考: github链接 微信公众号“ 算法数据侠 ” 的机械故障数据集 另外附上 IEEE-PHM 2010 挑战赛的轴承寿命数据集(官网已无法下载) Github 百度网盘 Gitee开源库
2021-03-30
0
1154
机械振动信号 常见时域、频域特征提取 Python 代码
''' ============== 特征提取的类 ===================== 时域特征 :11类 频域特征 : 13类 总共提取特征 : 24类 参考文献 英文文献 016_C_(Q1 时域和频域共24种特征参数 ) Fault diagnosis of rotating mach...
2021-03-30
0
3275
keras训练完模型,为什么对训练集进行evaluate和训练时的loss完全不一样
参考: keras训练完模型,为什么对训练集进行evaluate和训练时的loss完全不一样?白训练了吗? model.evaluate() gives a different loss on training data from the one in training process #6...
2021-03-30
0
588
为什么逻辑回归(Logistic Regression, LR) 是线性模型
线性算法:(Logistic回归、SVM) 非线性算法(决策树、随机森林、朴素贝叶斯) 无监督算法(EM) LR 虽然变量 x x x 可能是非线性的,比如 x 2 x^2 x2,但是其系数(参数) θ \theta θ 一定是线性的。 参考: 看了这个解释,终于明白线性回归模型...
2021-03-30
0
1025
L1 相比于 L2 为什么容易获得稀疏解?
参考: L1正则化引起稀疏解的多种解释
2021-03-30
0
491
梯度下降优化算法概述
参考: An overview of gradient descent optimization algorithms
2021-03-30
0
325
特征离散化(分箱)综述
参考: 特征离散化(分箱)综述
2021-03-30
0
522
(机器学习)sklearn降维算法PCA(用几个小案例详解PCA降维)
参考: (机器学习)sklearn降维算法PCA(用几个小案例详解PCA降维)
2021-03-30
0
539
joblib加载模型报错 ModuleNotFoundError: No module named ‘lib‘
执行如下语句的时候报错 model = joblib.load(filename=file_path) 文件目录树如下: som -- train(保存模型) -- lib -- minisom.py -- predict(加载模型) 报错信息: Traceback (m...
2021-03-30
0
1725
AUC / uAUC
AUC,具体计算方法这里不列了,这里主要说一下对AUC的一些理解,公式参见机器学习常见面试题目。 为什么AUC这么受欢迎呢? 首先是它反应的是模型的排序能力,它不关心具体的打分Score的绝对值,只关心排序的相对顺序,比如AUC是0.75,我们说随机的选一个正样本和一个负样本,模型打分正样本高于...
2021-03-30
0
1944
首页
上一页
1
2
下一页
末页