牛客题解官
牛客题解官
全部文章
分类
题解(475)
归档
标签
去牛客网
登录
/
注册
牛客题解官的博客
TA的专栏
849篇文章
56人订阅
牛客代码笔记-牛栋
74篇文章
489人学习
图解HTTP-牛客面经八股
15篇文章
202人学习
图解网络模型-牛客面经八股
21篇文章
255人学习
图解Java基础-牛客面经八股
24篇文章
222人学习
图解Java多线程牛客面经八股
28篇文章
317人学习
图解JVM-牛客面经八股
11篇文章
243人学习
图解Spring-牛客面经八股
17篇文章
363人学习
图解Mybatis牛客面经八股
10篇文章
190人学习
图解Redis-牛客面经八股
17篇文章
222人学习
图解分布式-牛客面经八股
19篇文章
253人学习
图解系统设计-牛客面经八股
17篇文章
263人学习
图解操作系统-牛客面经八股
75篇文章
334人学习
图解数据库基础-牛客面经八股
26篇文章
241人学习
图解SQL-牛客面经八股
32篇文章
265人学习
图解数据库锁-牛客面经八股
32篇文章
232人学习
图解C++基础-牛客面经八股
47篇文章
227人学习
图解C++高级-牛客面经八股
32篇文章
154人学习
图解C++STL-牛客面经八股
17篇文章
211人学习
图解大模型基础-牛客面经八股
53篇文章
245人学习
图解测试基础-牛客面经八股
12篇文章
208人学习
图解测试用例设计-牛客面经八股
18篇文章
213人学习
图解机器学习-牛客面经八股
36篇文章
248人学习
图解Elasticsearch
24篇文章
211人学习
图解机器学习应用-牛客面经八股
26篇文章
247人学习
图解大模型应用-牛客面经八股
23篇文章
197人学习
图解测试开发-牛客面经八股
17篇文章
240人学习
图解Vue-牛客面经八股
44篇文章
179人学习
图解前端开发-牛客面经八股
39篇文章
250人学习
图解TCP/UDP牛客面经八股
43篇文章
246人学习
全部文章
(共788篇)
题解|SGDM(带动量的随机梯度下降)
SGDM(带冲量的随机梯度下降)是SGD的一种改进,在SGD的基础上增加了冲量,可以加速收敛。 简单点说,就是每次更新参数时,不仅考虑当前的梯度,还考虑之前的梯度。使用动量代替梯度。 梯度下降以及批量梯度下降的原理不再赘述,这里只给出SGDM的公式: 其中, 是第 次迭代时的参数, 是学习率, ...
2025-02-06
0
203
题解|Adam优化器
Adam优化器是一种常用的优化算法,用于训练深度学习模型。它结合了动量法和自适应学习率的方法,能够有效地加速模型的训练过程。其步骤如下: 1. 初始化参数: 初始化一阶动量 和二阶动量 ,通常设为 0。 初始化学习率 。 初始化动量衰减系数 和 ,通常设为 0.9 和 0.999。 初始化小常...
2025-02-06
0
214
题解|实现长短期记忆(LSTM)网络
长短期记忆(LSTM)网络是循环神经网络的一种,其特点是能够处理长序列数据。LSTM网络的数学推导可以参考相关资料。 LSTM的具体步骤如下: 计算遗忘门 计算输入门 计算细胞状态更新 计算输出门 其中,是sigmoid函数,表达式为,是tanh函数,表达式为。 5. 计算隐藏状...
2025-02-06
0
146
题解|实现一个简单的循环神经网络
循环神经网络(RNN)是一种能够处理序列数据的神经网络,其特点是能够处理时间序列数据。 RNN的具体步骤如下: 计算隐藏状态更新 计算输出 计算损失 反向传播 本题只要求实现前向传播,反向传播不要求实现。 标准代码如下 def rnn_forward(input_sequence...
2025-02-06
0
93
题解|实现自注意力机制
自注意力机制(Self-Attention Mechanism)是一种能够捕获序列内部元素之间关系的机制,它通过计算序列中每个元素与其他所有元素的相关性来实现信息的有效整合。其基本思想是将输入序列映射为查询(Query)、键(Key)和值(Value)三个矩阵,然后通过计算查询和键的相似度得到注意力...
2025-02-06
2
229
题解|实现Adam优化算法
Adam优化算法是一种自适应学习率的优化算法,其计算步骤如下: 初始化参数 计算梯度 更新动量 更新方差 更新参数 这里对动量和方差进行了偏差修正,以避免初始阶段的不稳定;对新参数更新的时候加上了,以避免除0错误。 标准代码如下 def adam_optimizer(f, g...
2025-02-06
0
143
题解|简单二维卷积
简单二维卷积(Simple 2D Convolution)是一种常用的卷积操作,其计算公式为: 其中,是输入图像,是卷积核,是输出图像。 通俗点来说,就是将卷积核在输入图像上滑动,计算每个位置的卷积结果,从而实现图像的特征提取,利用padding和stride保证卷积核在输入图像的边缘也能进行卷积...
2025-02-06
0
121
题解|实现基本自动微分操作
实现基本自动微分操作(Basic Automatic Differentiation)是一种常用的自动微分方法,用于计算函数的导数。 所谓的自动计算微分,就是通过计算图,从输入到输出,反向传播,计算每个节点的导数。而这个计算图,通俗点来说就是高中所学到的链式法则需要画的函数关系图,也可以理解为深度学...
2025-02-06
1
125
题解|具有反向传播的单神经元
具有反向传播的单神经元(Single Neuron with Backpropagation)是神经网络中的最常见的基本单元。 本算法的步骤如下: 初始化权重和偏置 前向传播,计算预测值 反向传播,计算梯度 本题选择的均方误差作为损失函数,公式为 因此,梯度计算公式为 更...
2025-02-06
0
78
题解|生成对抗网络(GAN)
生成式对抗网络,通俗点说,就是一对买卖家在博弈,卖家(生成器)生成假数据想“以次充好”,买家(判别器)判断数据是真是假。 在本题中,生成器通过将真实数据和噪声相加,得到生成数据。判别器通过sigmoid函数生成一个概率来判断数据是真实的还是生成的。 标准代码 import numpy as np d...
Python3
2025-02-06
0
100
首页
上一页
17
18
19
20
21
22
23
24
25
26
下一页
末页