牛客题解官
牛客题解官
全部文章
分类
题解(475)
归档
标签
去牛客网
登录
/
注册
牛客题解官的博客
TA的专栏
74篇文章
2人订阅
牛客代码笔记-牛栋
74篇文章
239人学习
全部文章
(共763篇)
题解|实现岭回归损失函数
岭回归损失函数(Ridge Regression Loss)是一种常用的损失函数,其计算公式为: 其中,是模型参数,是输入特征,是输出标签,是正则化参数。 该回归函数又称为L2正则化损失函数。 标准代码如下 def ridge_loss(X, w, y_true, alpha): loss...
2025-02-05
0
41
题解|计算准确度分数
准确度分数(Accuracy Score)是一种常用的评估指标,常见于分类问题中,用于衡量分类器的准确性,其计算公式为: 其中,是真正例,是真反例,是假正例,是假反例。 标准代码如下 def accuracy_score(y_true, y_pred): accuracy = np.sum...
2025-02-05
0
40
题解|实现One-Hot编码
One-Hot编码(One-Hot Encoding)是一种常用的编码方法,用于将分类变量转换为数值变量。通俗点说,若变量总共分为类,则One-Hot编码会将变量转换为维的向量,其中只有一维为1,其余维度为0。 标准代码如下 def to_categorical(x, n_col=None): ...
2025-02-05
1
55
题解|数据集的批量迭代器
数据集的批量迭代器(Batch Iterator)是一种常用的数据处理方法,用于将数据集分为多个批次,每个批次包含固定数量的数据。 本题也是mini-batch梯度下降法的关键步骤,关键思想可以参考梯度下降部分。 标准代码如下 def batch_iterator(X, y=None, batch_...
2025-02-05
0
39
题解|数据集随机洗牌
数据集随机洗牌(Shuffle Dataset)是一种常用的数据处理方法,用于将数据集随机打乱。 标准代码如下 def shuffle_data(X, y, seed=None): if seed: np.random.seed(seed) idx = np.aran...
2025-02-05
0
40
题解|鸢尾花分类
鸢尾花分类在机器学习中是经典的分类问题,通常被初学者用来学习分类算法。 鸢尾花数据集包含150个样本,每个样本有4个特征:花萼长度、花萼宽度、花瓣长度和花瓣宽度。该数据集用于分类任务,标签分为三类:Iris-setosa、Iris-versicolor和Iris-virginica。 逻辑回归是一种...
2025-02-05
0
55
题解|损失函数
均方误差(MSE):用于回归问题,计算预测值与真实值之间的平方差的平均值。MSE对较大的误差更加敏感,因此适合于需要惩罚大误差的场景。 平均绝对误差(MAE):同样用于回归问题,计算预测值与真实值之间的绝对差的平均值。MAE对异常值的敏感性较低,适合于对所有误差一视同仁的情况。 Huber损失...
2025-02-05
0
51
题解|异常值与缺失值
异常值是指在数据集中明显偏离其他观测值的点,通常由于测量误差或数据录入错误引起。异常值可能会对模型的训练和预测产生负面影响,因此在数据预处理阶段需要进行识别和处理。常见的处理方法包括去除异常值或使用更稳健的统计方法进行分析。 缺失值是指在数据集中缺少的观测值,可能由于多种原因导致,例如数据收集过程中...
2025-02-05
0
44
题解|特征扩展实现
特征扩展是一种数据预处理技术,包括特征缩放、特征标准化、特征归一化、特征正则化等。本题考察的是特征缩放和特征标准化。 特征缩放是一种将输入数据转换为统一尺度的方法,它通过将输入数据中的每个元素进行缩放,来使得输入数据中的每个元素的值统一在某个尺度之下。 特征标准化是将输入数据转换为均值为0,方差为1...
2025-02-05
1
50
题解|使用梯度下降的线性回归
梯度下降在机器学习中是一种常用的优化算法,用于求解最小化损失函数的问题。其具体步骤如下: 1. 初始化参数 创建一个与输入矩阵 和输出矩阵 相关的矩阵 。 数学表达式为: 本题初始化参数为0,但在实际使用中更常见的是使用随机初始化。 2. 计算梯度 计算损失函数 对参数 的梯度 。 ...
2025-02-05
1
52
首页
上一页
19
20
21
22
23
24
25
26
27
28
下一页
末页