苏学算法
苏学算法
全部文章
机器学习
C++(12)
CTR预估(2)
git(2)
gpu(1)
linux(7)
mac(1)
Matlab(1)
python(201)
shell(2)
spark(1)
sql(1)
vim(1)
windows(1)
互联网算法面经(1)
其他(4)
写论文工具(2)
异常检测(2)
强化学习(3)
推荐系统(1)
数据结构(20)
未归档(1)
深度学习(8)
环境配置(2)
算法(23)
链表(1)
归档
标签
去牛客网
登录
/
注册
苏学算法的博客
全部文章
/ 机器学习
(共20篇)
极大似然估计(Maximum Likelihood Estimation)
文章目录 极大似然估计(Maximum Likelihood Estimation) 1. 前言 2. 通俗理解 ...
2021-03-30
0
2084
numpy 中的 broadcasting(广播)机制
numpy 中的 broadcasting(广播)机制 矩阵维度匹配问题,以下举例说明 类型(一) import numpy as np x=np.zeros([11,5]) w=np.zeros([5,2]) b=np.zeros([2,1]) print("x.shap...
2021-03-30
0
635
tf.argmax函数
tf.argmax(A,axis=0) axis=0 求每列对大值的索引 axis=1 求每行最大值索引 似乎与通常的0为行,1为列正好相反!!! 代码示例 import tensorflow as tf import numpy as np A=np.zeros([3]) B=np.z...
2021-03-30
0
784
Session.run 和Tensor.eval 的区别
Session.run()和Tensor.eval()的区别 代码示例 如果是 一个 Tensor t,在使用t.eval()时,等价于:tf.get_default_session().run(t). import tensorflow as tf import numpy as np ...
2021-03-30
0
597
tf.variable_scope与tf.name_scope的用法辨析
tf.variable_scope与tf.name_scope的用法辨析 tf.variable_scope可以让变量有相同的命名,包括tf.get_variable得到的变量,还有tf.Variable的变量 tf.name_scope可以让变量有相同的命名,只是限于tf.Variable的变...
2021-03-30
0
967
李宏毅机器笔记 Logistic Regression(解释 LR 为什么不能用 square error )
个人听课笔记,先贴上PPT版笔记,后续有空再行整理。 课程链接: 李宏毅机器学习.
2021-03-30
0
545
【超详细公式推导】关于交叉熵损失函数(Cross-entropy)和 平方损失(MSE)的区别
Cross-entropy 与 MSE 一、概念区别 二、为什么不用MSE(两者区别详解) 2.1 原因 1:交叉熵loss权重更新更快 ...
2021-03-30
0
7548
为什么信息熵要定义成-Σp*log(p)?
参考: [1]: 为什么信息熵要定义成-Σp*log§?. [2]: 为什么香农要将信息熵公式要定义成-Σp·log₂ ( p ) ?或-∫p·log₂ ( p ) dp??. [3] Bishop 的著作《Pattern Recognition and Machine Learning》P48.
2021-03-30
0
522
小波包分解
参考: 小波与小波包、小波包分解与信号重构、小波包能量特征提取 暨 小波包分解后实现按频率大小分布重新排列(Matlab 程序详解)
2021-03-30
0
454
RF、GBDT、XGBoost 面试笔记
由于本文是基于面试整理,因此不会过多的关注公式和推导,如果希望详细了解算法内容,敬请期待后文。 补充: 什么情况下(不)需要归一化? 1. 需要: 基于参数的模型或基于距离的模型,都是要进行特征的归一化。 2. 不需要:基于树的方法是不需要进行特征的归一化,例如随机森林,bagging 和...
2021-03-30
3
1463
首页
上一页
1
2
下一页
末页