牛客题解官
牛客题解官
全部文章
分类
题解(475)
归档
标签
去牛客网
登录
/
注册
牛客题解官的博客
TA的专栏
869篇文章
60人订阅
牛客代码笔记-牛栋
74篇文章
532人学习
图解HTTP-牛客面经八股
15篇文章
309人学习
图解网络模型-牛客面经八股
21篇文章
362人学习
图解Java基础-牛客面经八股
24篇文章
316人学习
图解Java多线程牛客面经八股
28篇文章
429人学习
图解JVM-牛客面经八股
11篇文章
382人学习
图解Spring-牛客面经八股
17篇文章
482人学习
图解Mybatis牛客面经八股
10篇文章
283人学习
图解Redis-牛客面经八股
17篇文章
328人学习
图解分布式-牛客面经八股
19篇文章
342人学习
图解系统设计-牛客面经八股
17篇文章
350人学习
图解操作系统-牛客面经八股
75篇文章
432人学习
图解数据库基础-牛客面经八股
26篇文章
349人学习
图解SQL-牛客面经八股
32篇文章
363人学习
图解数据库锁-牛客面经八股
32篇文章
344人学习
图解C++基础-牛客面经八股
47篇文章
317人学习
图解C++高级-牛客面经八股
32篇文章
219人学习
图解C++STL-牛客面经八股
17篇文章
306人学习
图解大模型基础-牛客面经八股
53篇文章
397人学习
图解测试基础-牛客面经八股
12篇文章
301人学习
图解测试用例设计-牛客面经八股
18篇文章
336人学习
图解机器学习-牛客面经八股
36篇文章
378人学习
图解Elasticsearch
24篇文章
316人学习
图解机器学习应用-牛客面经八股
26篇文章
360人学习
图解大模型应用-牛客面经八股
23篇文章
299人学习
图解测试开发-牛客面经八股
17篇文章
354人学习
图解Vue-牛客面经八股
44篇文章
269人学习
图解前端开发-牛客面经八股
39篇文章
394人学习
图解TCP/UDP牛客面经八股
43篇文章
347人学习
提示词工程指南
20篇文章
267人学习
全部文章
(共1142篇)
题解|计算分类的DICE得分
DICE得分是一种衡量分类模型性能的指标,具有良好的鲁棒性,其计算公式为: 其中,TP是真阳性,FP是假阳性,FN是假阴性。 TP = True Positives (真正例): 正确预测为正类的样本数量 FP = False Positives (假阳性): 错误预测为正类的负类样本数量 FN ...
2025-02-05
0
235
题解|计算二元分类的Jaccard指数
Jaccard指数是一种衡量分类模型性能的指标,其计算公式为: 其中,TP是真阳性,FP是假阳性,FN是假阴性。 TP = True Positives (真正例): 正确预测为正类的样本数量 FP = False Positives (假阳性): 错误预测为正类的负类样本数量 FN = Fals...
2025-02-05
0
202
题解|计算均方根误差(RMSE)
均方根误差(RMSE)是一种衡量回归模型性能的指标,其计算公式为: 其中, 是真实值, 是预测值。 标准代码如下 def rmse(y_true, y_pred): return round(np.sqrt(np.mean((y_true - y_pred) ** 2)), 3)
2025-02-05
0
165
题解|计算回归分析的R-squared
R-squared是一种衡量回归模型性能的指标,其计算公式为: 其中,SSR是残差平方和,SST是总平方和。 标准代码如下 def r_squared(y_true, y_pred): if np.array_equal(y_true, y_pred): return 1....
2025-02-05
0
118
题解|实现一组类别的基尼不纯度计算
基尼不纯度是一种衡量分类模型性能的指标,常用于决策树的剪枝。其计算公式为: 其中, 是每个类别的概率。 标准代码如下 def gini_impurity(y: list[int]) -> float: classes = set(y) n = len(y) gini_...
2025-02-05
0
108
题解|实现二分类的F-Score
F-Score是一种衡量分类模型性能的指标,常用于二分类问题。其计算公式为: 其中,Precision是精确率,Recall是召回率,是权重因子。 Precision是预测为正的样本中实际为正的比例,Recall是实际为正的样本中预测为正的比例。 标准代码如下 def f_score(y_true...
2025-02-05
0
279
题解|实现二元分类中的召回率指标
召回率(Recall)是衡量二元分类模型在正样本上的表现指标,其计算公式为: 其中,是真正例,是假反例。 本题的一个小难点是对0的判断,不进行特判会导致除0错误。 标准代码如下 def recall(y_true, y_pred): tp = np.sum((y_true == 1) &a...
2025-02-05
0
84
题解|计算精确率
精确率(Precision)是衡量二元分类模型在正样本上的表现指标,其计算公式为: 其中,是真正例,是假正例。 标准代码如下 def precision(y_true, y_pred): true_positives = np.sum((y_true == 1) & (y_pred...
2025-02-05
0
77
题解|线性核函数
线性核函数(Linear Kernel)是一种常用的核函数,其计算公式为: 其中,和是两个向量。 该算法的本质是计算两个向量的内积。 标准代码如下 def kernel_function(x1, x2): return np.inner(x1, x2)
2025-02-05
0
85
题解|实现岭回归损失函数
岭回归损失函数(Ridge Regression Loss)是一种常用的损失函数,其计算公式为: 其中,是模型参数,是输入特征,是输出标签,是正则化参数。 该回归函数又称为L2正则化损失函数。 标准代码如下 def ridge_loss(X, w, y_true, alpha): loss...
2025-02-05
0
97
首页
上一页
56
57
58
59
60
61
62
63
64
65
下一页
末页