牛客题解官
牛客题解官
全部文章
分类
题解(475)
归档
标签
去牛客网
登录
/
注册
牛客题解官的博客
TA的专栏
849篇文章
56人订阅
牛客代码笔记-牛栋
74篇文章
489人学习
图解HTTP-牛客面经八股
15篇文章
202人学习
图解网络模型-牛客面经八股
21篇文章
255人学习
图解Java基础-牛客面经八股
24篇文章
222人学习
图解Java多线程牛客面经八股
28篇文章
317人学习
图解JVM-牛客面经八股
11篇文章
243人学习
图解Spring-牛客面经八股
17篇文章
363人学习
图解Mybatis牛客面经八股
10篇文章
190人学习
图解Redis-牛客面经八股
17篇文章
222人学习
图解分布式-牛客面经八股
19篇文章
253人学习
图解系统设计-牛客面经八股
17篇文章
263人学习
图解操作系统-牛客面经八股
75篇文章
334人学习
图解数据库基础-牛客面经八股
26篇文章
241人学习
图解SQL-牛客面经八股
32篇文章
265人学习
图解数据库锁-牛客面经八股
32篇文章
232人学习
图解C++基础-牛客面经八股
47篇文章
227人学习
图解C++高级-牛客面经八股
32篇文章
154人学习
图解C++STL-牛客面经八股
17篇文章
211人学习
图解大模型基础-牛客面经八股
53篇文章
245人学习
图解测试基础-牛客面经八股
12篇文章
208人学习
图解测试用例设计-牛客面经八股
18篇文章
213人学习
图解机器学习-牛客面经八股
36篇文章
248人学习
图解Elasticsearch
24篇文章
211人学习
图解机器学习应用-牛客面经八股
26篇文章
247人学习
图解大模型应用-牛客面经八股
23篇文章
197人学习
图解测试开发-牛客面经八股
17篇文章
240人学习
图解Vue-牛客面经八股
44篇文章
179人学习
图解前端开发-牛客面经八股
39篇文章
250人学习
图解TCP/UDP牛客面经八股
43篇文章
246人学习
全部文章
(共788篇)
题解|生成对抗网络(GAN)判别器
生成式对抗网络,通俗点说,就是一对买卖家在博弈,卖家(生成器)生成假数据想“以次充好”,买家(判别器)判断数据是真是假。 判别器是生成式对抗网络中的另一个关键组件,其主要任务是判断输入的数据是真实的还是生成的。 标准代码 import numpy as np def sigmoid(x): ...
Python3
2025-02-06
0
124
题解|生成对抗网络(GAN)生成器
生成式对抗网络(GAN)是一种深度学习模型,由两个神经网络组成:生成器和判别器。生成器负责生成与真实数据相似的假数据,而判别器则负责区分真实数据和生成的数据。通过对抗训练,生成器不断改进其生成能力,最终能够生成高质量的样本。 生成器的说明 生成器是生成式对抗网络中的一个关键组件,其主要任务是从随机噪...
Python3
2025-02-06
0
132
题解|两个正态分布之间的KL散度
两个正态分布之间的KL散度(Kullback-Leibler Divergence)是一种衡量两个分布之间差异的指标,其计算公式为: 其中,和分别是两个正态分布的概率密度函数。 但是本题中,使用的计算公式是: 对于两个正态分布 和 ,它们之间的KL散度可以表示为: 标准代码如下 def kl_...
2025-02-06
0
207
题解|Leaky ReLU 激活函数
Leaky ReLU(Leaky Rectified Linear Unit)是一种常用的激活函数,其计算公式为: 其中,是输入。 该算法是ReLU激活函数的改进,解决了ReLU在负数输入时梯度为0的问题。是深度学习中常用的激活函数之一。 标准代码如下 def leaky_relu(x,alpha...
2025-02-06
0
150
题解|实现ReLU激活函数
ReLU(Rectified Linear Unit)是一种常用的激活函数,其计算公式为: 其中,是输入。 该算法是深度学习中常用的激活函数之一。 标准代码如下 def relu(z: float) -> float: return max(0, z)
2025-02-06
0
115
题解|Log Softmax函数的实现
Log Softmax函数(Log Softmax)是一种常用的激活函数,是Softmax函数的对数形式,其计算公式为: 其中,是输入。 该算法是深度学习中常用的激活函数之一。 标准代码如下 def log_softmax(scores: list) -> np.ndarray: #...
2025-02-06
0
142
题解|单神经元
单神经元(Single Neuron)是神经网络中的最常见的基本单元。 本题的步骤如下: 初始化权重和偏置 前向传播,计算预测值 计算损失函数 标准代码如下 def single_neuron_model(features, labels, weights, bias): pr...
2025-02-06
1
88
题解|softmax激活函数实现
softmax激活函数实现(Softmax Activation Function Implementation)是神经网络中的最常见的激活函数之一。 softmax函数其公式为 标准代码如下 def softmax(scores: list[float]) -> list[float]: ...
2025-02-06
1
215
题解|Sigmoid 激活函数实现
Sigmoid 激活函数实现(Sigmoid Activation Function Implementation)是神经网络中的最常见的激活函数之一。 Sigmoid函数其公式为 标准代码如下 def sigmoid(z: float) -> float: result = 1 / ...
2025-02-06
0
178
题解|实现AdaBoost拟合方法
AdaBoost(Adaptive Boosting)是一种常用的集成学习方法,其计算公式为: 其中,是弱分类器,是权重,是迭代次数。 该算法是深度学习中常用的集成学习方法之一。 本题使用了分类错误率作为错误率,并使用错误率来更新分类器权重。其公式为: 其中,是分类错误率,=sum(w[y !=...
2025-02-06
0
79
首页
上一页
18
19
20
21
22
23
24
25
26
27
下一页
末页