牛客题解官
牛客题解官
全部文章
分类
题解(475)
归档
标签
去牛客网
登录
/
注册
牛客题解官的博客
TA的专栏
849篇文章
56人订阅
牛客代码笔记-牛栋
74篇文章
489人学习
图解HTTP-牛客面经八股
15篇文章
202人学习
图解网络模型-牛客面经八股
21篇文章
255人学习
图解Java基础-牛客面经八股
24篇文章
222人学习
图解Java多线程牛客面经八股
28篇文章
317人学习
图解JVM-牛客面经八股
11篇文章
243人学习
图解Spring-牛客面经八股
17篇文章
363人学习
图解Mybatis牛客面经八股
10篇文章
190人学习
图解Redis-牛客面经八股
17篇文章
222人学习
图解分布式-牛客面经八股
19篇文章
255人学习
图解系统设计-牛客面经八股
17篇文章
263人学习
图解操作系统-牛客面经八股
75篇文章
336人学习
图解数据库基础-牛客面经八股
26篇文章
241人学习
图解SQL-牛客面经八股
32篇文章
266人学习
图解数据库锁-牛客面经八股
32篇文章
232人学习
图解C++基础-牛客面经八股
47篇文章
227人学习
图解C++高级-牛客面经八股
32篇文章
154人学习
图解C++STL-牛客面经八股
17篇文章
211人学习
图解大模型基础-牛客面经八股
53篇文章
245人学习
图解测试基础-牛客面经八股
12篇文章
208人学习
图解测试用例设计-牛客面经八股
18篇文章
213人学习
图解机器学习-牛客面经八股
36篇文章
249人学习
图解Elasticsearch
24篇文章
211人学习
图解机器学习应用-牛客面经八股
26篇文章
247人学习
图解大模型应用-牛客面经八股
23篇文章
198人学习
图解测试开发-牛客面经八股
17篇文章
240人学习
图解Vue-牛客面经八股
44篇文章
179人学习
图解前端开发-牛客面经八股
39篇文章
250人学习
图解TCP/UDP牛客面经八股
43篇文章
246人学习
全部文章
(共788篇)
题解|实现一组类别的基尼不纯度计算
基尼不纯度是一种衡量分类模型性能的指标,常用于决策树的剪枝。其计算公式为: 其中, 是每个类别的概率。 标准代码如下 def gini_impurity(y: list[int]) -> float: classes = set(y) n = len(y) gini_...
2025-02-05
0
94
题解|实现二分类的F-Score
F-Score是一种衡量分类模型性能的指标,常用于二分类问题。其计算公式为: 其中,Precision是精确率,Recall是召回率,是权重因子。 Precision是预测为正的样本中实际为正的比例,Recall是实际为正的样本中预测为正的比例。 标准代码如下 def f_score(y_true...
2025-02-05
0
249
题解|实现二元分类中的召回率指标
召回率(Recall)是衡量二元分类模型在正样本上的表现指标,其计算公式为: 其中,是真正例,是假反例。 本题的一个小难点是对0的判断,不进行特判会导致除0错误。 标准代码如下 def recall(y_true, y_pred): tp = np.sum((y_true == 1) &a...
2025-02-05
0
72
题解|计算精确率
精确率(Precision)是衡量二元分类模型在正样本上的表现指标,其计算公式为: 其中,是真正例,是假正例。 标准代码如下 def precision(y_true, y_pred): true_positives = np.sum((y_true == 1) & (y_pred...
2025-02-05
0
67
题解|线性核函数
线性核函数(Linear Kernel)是一种常用的核函数,其计算公式为: 其中,和是两个向量。 该算法的本质是计算两个向量的内积。 标准代码如下 def kernel_function(x1, x2): return np.inner(x1, x2)
2025-02-05
0
77
题解|实现岭回归损失函数
岭回归损失函数(Ridge Regression Loss)是一种常用的损失函数,其计算公式为: 其中,是模型参数,是输入特征,是输出标签,是正则化参数。 该回归函数又称为L2正则化损失函数。 标准代码如下 def ridge_loss(X, w, y_true, alpha): loss...
2025-02-05
0
88
题解|计算准确度分数
准确度分数(Accuracy Score)是一种常用的评估指标,常见于分类问题中,用于衡量分类器的准确性,其计算公式为: 其中,是真正例,是真反例,是假正例,是假反例。 标准代码如下 def accuracy_score(y_true, y_pred): accuracy = np.sum...
2025-02-05
0
74
题解|实现One-Hot编码
One-Hot编码(One-Hot Encoding)是一种常用的编码方法,用于将分类变量转换为数值变量。通俗点说,若变量总共分为类,则One-Hot编码会将变量转换为维的向量,其中只有一维为1,其余维度为0。 标准代码如下 def to_categorical(x, n_col=None): ...
2025-02-05
1
116
题解|数据集的批量迭代器
数据集的批量迭代器(Batch Iterator)是一种常用的数据处理方法,用于将数据集分为多个批次,每个批次包含固定数量的数据。 本题也是mini-batch梯度下降法的关键步骤,关键思想可以参考梯度下降部分。 标准代码如下 def batch_iterator(X, y=None, batch_...
2025-02-05
0
71
题解|数据集随机洗牌
数据集随机洗牌(Shuffle Dataset)是一种常用的数据处理方法,用于将数据集随机打乱。 标准代码如下 def shuffle_data(X, y, seed=None): if seed: np.random.seed(seed) idx = np.aran...
2025-02-05
1
72
首页
上一页
21
22
23
24
25
26
27
28
29
30
下一页
末页