牛客题解官
牛客题解官
全部文章
分类
题解(475)
归档
标签
去牛客网
登录
/
注册
牛客题解官的博客
TA的专栏
74篇文章
2人订阅
牛客代码笔记-牛栋
74篇文章
239人学习
全部文章
(共763篇)
题解|Log Softmax函数的实现
Log Softmax函数(Log Softmax)是一种常用的激活函数,是Softmax函数的对数形式,其计算公式为: 其中,是输入。 该算法是深度学习中常用的激活函数之一。 标准代码如下 def log_softmax(scores: list) -> np.ndarray: #...
2025-02-06
0
59
题解|单神经元
单神经元(Single Neuron)是神经网络中的最常见的基本单元。 本题的步骤如下: 初始化权重和偏置 前向传播,计算预测值 计算损失函数 标准代码如下 def single_neuron_model(features, labels, weights, bias): pr...
2025-02-06
0
45
题解|softmax激活函数实现
softmax激活函数实现(Softmax Activation Function Implementation)是神经网络中的最常见的激活函数之一。 softmax函数其公式为 标准代码如下 def softmax(scores: list[float]) -> list[float]: ...
2025-02-06
0
77
题解|Sigmoid 激活函数实现
Sigmoid 激活函数实现(Sigmoid Activation Function Implementation)是神经网络中的最常见的激活函数之一。 Sigmoid函数其公式为 标准代码如下 def sigmoid(z: float) -> float: result = 1 / ...
2025-02-06
0
95
题解|实现AdaBoost拟合方法
AdaBoost(Adaptive Boosting)是一种常用的集成学习方法,其计算公式为: 其中,是弱分类器,是权重,是迭代次数。 该算法是深度学习中常用的集成学习方法之一。 本题使用了分类错误率作为错误率,并使用错误率来更新分类器权重。其公式为: 其中,是分类错误率,=sum(w[y !=...
2025-02-06
0
38
题解|Pegasos核SVM实现
Pegasos核SVM实现(Pegasos Kernel SVM Implementation)是SVM的一种实现方式。 Pegasos是一种高效的支持向量机(SVM)实现,具有以下特点: 随机梯度下降:Pegasos使用随机梯度下降(SGD)方法进行优化,适合大规模数据集。 核函数支持:支持线性...
2025-02-06
0
63
题解|决策树学习
决策树是一个用于分类和回归的模型,它通过将数据集分割成更小的子集来构建树形结构。每个内部节点代表一个特征的测试,每个分支代表测试结果,而每个叶子节点则表示最终的输出类别或值。 通俗点说,就是把一堆数据按照某个特征的某个阈值去分成两份或者多份子节点,然后递归执行这种分裂直到达到某种要求。 在本题中,只...
Python3
2025-02-06
0
51
题解|关联规则发现(Apriori算法)
Apriori算法是关联规则挖掘中的一种经典算法,用于发现数据集中频繁项集和关联规则。 频繁项集:在数据集中频繁出现的项集。 关联规则:在数据集中,若A则B的规则形式。 支持度:项集A在数据集中出现的次数除以数据集的总数。通俗点说,就是项集A在数据集中出现的概率。 置信度:项集A和项集B同时出现的次...
2025-02-06
0
54
题解|计算分类模型的性能指标
分类模型的性能指标包括准确率(accuracy)、精确率(precision)、召回率(recall)、F1分数(F1_score)、ROC曲线(ROC_curve)、AUC(AUC)等。本题具体使用的性能指标如下 混淆矩阵(Confusion Matrix): 其中,TP是真阳性,TN是真阴...
Python3
2025-02-06
0
43
题解|使用梯度下降实现Lasso回归
Lasso回归是一种线性回归模型,其目标函数为: 其中,是模型参数,是输入特征,是输出标签,是正则化参数。 本算法的关键在于对权重进行L1正则化,即在每次迭代中对权重进行L1范数惩罚。 梯度下降的公式为: 其中,是第次迭代时的权重,是学习率,是目标函数在处的梯度。而f(w_t)正是Lasso回归...
2025-02-06
0
49
首页
上一页
16
17
18
19
20
21
22
23
24
25
下一页
末页