牛客题解官
牛客题解官
全部文章
分类
题解(475)
归档
标签
去牛客网
登录
/
注册
牛客题解官的博客
TA的专栏
869篇文章
60人订阅
牛客代码笔记-牛栋
74篇文章
532人学习
图解HTTP-牛客面经八股
15篇文章
309人学习
图解网络模型-牛客面经八股
21篇文章
362人学习
图解Java基础-牛客面经八股
24篇文章
316人学习
图解Java多线程牛客面经八股
28篇文章
429人学习
图解JVM-牛客面经八股
11篇文章
382人学习
图解Spring-牛客面经八股
17篇文章
482人学习
图解Mybatis牛客面经八股
10篇文章
283人学习
图解Redis-牛客面经八股
17篇文章
328人学习
图解分布式-牛客面经八股
19篇文章
342人学习
图解系统设计-牛客面经八股
17篇文章
350人学习
图解操作系统-牛客面经八股
75篇文章
432人学习
图解数据库基础-牛客面经八股
26篇文章
349人学习
图解SQL-牛客面经八股
32篇文章
363人学习
图解数据库锁-牛客面经八股
32篇文章
344人学习
图解C++基础-牛客面经八股
47篇文章
317人学习
图解C++高级-牛客面经八股
32篇文章
219人学习
图解C++STL-牛客面经八股
17篇文章
306人学习
图解大模型基础-牛客面经八股
53篇文章
397人学习
图解测试基础-牛客面经八股
12篇文章
301人学习
图解测试用例设计-牛客面经八股
18篇文章
336人学习
图解机器学习-牛客面经八股
36篇文章
378人学习
图解Elasticsearch
24篇文章
316人学习
图解机器学习应用-牛客面经八股
26篇文章
360人学习
图解大模型应用-牛客面经八股
23篇文章
299人学习
图解测试开发-牛客面经八股
17篇文章
354人学习
图解Vue-牛客面经八股
44篇文章
269人学习
图解前端开发-牛客面经八股
39篇文章
394人学习
图解TCP/UDP牛客面经八股
43篇文章
347人学习
提示词工程指南
20篇文章
267人学习
全部文章
(共1142篇)
题解|简单二维卷积
简单二维卷积(Simple 2D Convolution)是一种常用的卷积操作,其计算公式为: 其中,是输入图像,是卷积核,是输出图像。 通俗点来说,就是将卷积核在输入图像上滑动,计算每个位置的卷积结果,从而实现图像的特征提取,利用padding和stride保证卷积核在输入图像的边缘也能进行卷积...
2025-02-06
0
133
题解|实现基本自动微分操作
实现基本自动微分操作(Basic Automatic Differentiation)是一种常用的自动微分方法,用于计算函数的导数。 所谓的自动计算微分,就是通过计算图,从输入到输出,反向传播,计算每个节点的导数。而这个计算图,通俗点来说就是高中所学到的链式法则需要画的函数关系图,也可以理解为深度学...
2025-02-06
1
139
题解|具有反向传播的单神经元
具有反向传播的单神经元(Single Neuron with Backpropagation)是神经网络中的最常见的基本单元。 本算法的步骤如下: 初始化权重和偏置 前向传播,计算预测值 反向传播,计算梯度 本题选择的均方误差作为损失函数,公式为 因此,梯度计算公式为 更...
2025-02-06
0
87
题解|生成对抗网络(GAN)
生成式对抗网络,通俗点说,就是一对买卖家在博弈,卖家(生成器)生成假数据想“以次充好”,买家(判别器)判断数据是真是假。 在本题中,生成器通过将真实数据和噪声相加,得到生成数据。判别器通过sigmoid函数生成一个概率来判断数据是真实的还是生成的。 标准代码 import numpy as np d...
Python3
2025-02-06
0
112
题解|生成对抗网络(GAN)判别器
生成式对抗网络,通俗点说,就是一对买卖家在博弈,卖家(生成器)生成假数据想“以次充好”,买家(判别器)判断数据是真是假。 判别器是生成式对抗网络中的另一个关键组件,其主要任务是判断输入的数据是真实的还是生成的。 标准代码 import numpy as np def sigmoid(x): ...
Python3
2025-02-06
0
137
题解|生成对抗网络(GAN)生成器
生成式对抗网络(GAN)是一种深度学习模型,由两个神经网络组成:生成器和判别器。生成器负责生成与真实数据相似的假数据,而判别器则负责区分真实数据和生成的数据。通过对抗训练,生成器不断改进其生成能力,最终能够生成高质量的样本。 生成器的说明 生成器是生成式对抗网络中的一个关键组件,其主要任务是从随机噪...
Python3
2025-02-06
0
146
题解|两个正态分布之间的KL散度
两个正态分布之间的KL散度(Kullback-Leibler Divergence)是一种衡量两个分布之间差异的指标,其计算公式为: 其中,和分别是两个正态分布的概率密度函数。 但是本题中,使用的计算公式是: 对于两个正态分布 和 ,它们之间的KL散度可以表示为: 标准代码如下 def kl_...
2025-02-06
0
221
题解|Leaky ReLU 激活函数
Leaky ReLU(Leaky Rectified Linear Unit)是一种常用的激活函数,其计算公式为: 其中,是输入。 该算法是ReLU激活函数的改进,解决了ReLU在负数输入时梯度为0的问题。是深度学习中常用的激活函数之一。 标准代码如下 def leaky_relu(x,alpha...
2025-02-06
0
166
题解|实现ReLU激活函数
ReLU(Rectified Linear Unit)是一种常用的激活函数,其计算公式为: 其中,是输入。 该算法是深度学习中常用的激活函数之一。 标准代码如下 def relu(z: float) -> float: return max(0, z)
2025-02-06
0
123
题解|Log Softmax函数的实现
Log Softmax函数(Log Softmax)是一种常用的激活函数,是Softmax函数的对数形式,其计算公式为: 其中,是输入。 该算法是深度学习中常用的激活函数之一。 标准代码如下 def log_softmax(scores: list) -> np.ndarray: #...
2025-02-06
0
163
首页
上一页
53
54
55
56
57
58
59
60
61
62
下一页
末页