seniusen
seniusen
全部文章
分类
Ubuntu 常用软件(1)
BN(1)
C++(1)
C++ 文件操作(1)
C/C++ 学习(1)
LeetCode(26)
LeetCode 1(1)
LeetCode 100(1)
LeetCode 109(1)
LeetCode 138(1)
LeetCode 141(1)
LeetCode 142(1)
LeetCode 240(1)
LeetCode 4(1)
LeetCode 445(1)
LeetCode 700(1)
LeetCode 两数相加(1)
LeetCode 找不同(1)
LeetCode 搜索二维矩阵(1)
LeetCode (1)
Numpy 数组(1)
Python 3 标准库概述(1)
Python 3 面向对象(1)
Python 基础语法(1)
SSH(1)
STL 库 vector(1)
TensorFlow C++ 接口(1)
Vim 命令(1)
人生杂谈(4)
删除链表倒数第 N 个结点(1)
剑指 Offer(3)
变量作用域(1)
合并 2 个有序链表(1)
周期信号的傅里叶级数表示(1)
最小二乘(1)
未归档(104)
机器学习(1)
理财(1)
线性代数(1)
论文笔记(1)
链表(1)
链表中间结点(1)
链表删除结点(1)
键盘输入(1)
归档
标签
去牛客网
登录
/
注册
seniusen的博客
一个乐观的终身学习者!
全部文章
(共177篇)
RCAN——Image Super-Resolution Using Very Deep Residual Channel Attention Networks
1. 摘要 在图像超分辨领域,卷积神经网络的深度非常重要,但过深的网络却难以训练。低分辨率的输入以及特征包含丰富的低频信息,但却在通道间被平等对待,因此阻碍了网络的表示能力。 为了解决上述问题,作者提出了一个深度残差通道注意力网络(RCAN)。特别地,作者设计了一个残差中的残差(...
2019-05-12
0
740
How Does Batch Normalization Help Optimization?
1. 摘要 BN 是一个广泛应用的用于快速稳定地训练深度神经网络的技术,但是我们对其有效性的真正原因仍然所知甚少。 输入分布的稳定性和 BN 的成功之间关系很小,BN 对训练过程更根本的影响是:它让优化更加平滑。这种平滑让梯度更加可预测更加稳定,从而加速训练。 2. BN ...
2019-04-30
0
604
DenseNet——Densely Connected Convolutional Networks
1. 摘要 传统的 L 层神经网络只有 L 个连接,DenseNet 的结构则有 L(L+1)/2 个连接,每一层都和前面的所有层进行连接,所以称之为密集连接的网络。 针对每一层网络,其前面所有层的特征图被当作它的输入,这一层的输出则作为其后面所有层的输入。 Dens...
2019-04-29
0
549
2019 春季算法工程师实习生招聘历程
持续了将近两个月的 2019 春季实习生招聘总算是告了一个段落,虽说去年入学时便已知道找工作就在眼前,但当它真正到来的时候,自己依然是措手不及。好在历经坎坷,结果总归是好的,希望接下来的实习收获满满。 1. 前言 春节假期还没有结束,一些公司的实习生招聘已然开始。等我来到学校,完善简历,大致...
2019-04-28
6
7070
剑指 Offer——连续子数组的最大和
1. 题目 2. 解答 初始化 sum=0,然后遍历数组进行累加。如果 sum 变为负数,也就说再继续累加的话贡献为负,我们需要更新 sum=0,重新开始累加。 初始化 max_sum 为数组的第一个元素,之所以不初始化为零,就是防止出现数组中全为负数的情况,比如 [-2, -1, -3,...
2019-04-27
0
529
均匀分布的公交站等车问题
小森在公交站等车,有三路公交车均可乘坐到达目的地。A 公交车到站的时间为 0 到 10 分钟内的任一时间点,且服从 [0, 10] 的均匀分布。同样地,B 公交车到站的时间为 0 到 20 分钟内的任一时间点,C 公交车到站的时间为 0 到 30 分钟内的任一时间点。求问小森的平均等车时间? ...
2019-04-23
0
678
ResNet——Deep Residual Learning for Image Recognition
1. 摘要 更深的神经网络通常更难训练,作者提出了一个残差学习的框架,使得比过去深许多的的网络训连起来也很容易。 在 ImageNet 数据集上,作者设计的网络达到了 152 层,是 VGG-19 的 8 倍,但却有着更低的复杂性。通过集成学习模型最终取得了 3.57% 的错误率...
2019-04-22
0
385
Inception——Going deeper with convolutions
1. 摘要 作者提出了一个代号为 Inception 的卷积神经网络架构,这也是作者在 2014 年 ImageNet 大规模视觉识别挑战赛中用于分类和检测的新技术。 通过精心的设计,该架构提高了网络内计算资源的利用率,因而允许在增加网络的深度和宽度的同时保持计算预算不变。 ...
2019-04-21
0
558
VGG——Very deep convolutional networks for large-scale image recognition
1. 摘要 在使用非常小(3×3)的卷积核情况下,作者对逐渐增加网络的深度进行了全面的评估,通过设置网络层数达 16-19 层,最终效果取得了显著提升。 2. 介绍 近来,卷积神经网络在大规模图像识别领域取得了巨大的成功,这一方面归功于大规模公开数据的出现,另一方面则是计算能力的提升...
2019-04-20
0
498
ReLU——Deep Sparse Rectifier Neural Networks
1. 摘要 ReLU 相比 Tanh 能产生相同或者更好的性能,而且能产生真零的稀疏表示,非常适合自然就稀疏的数据。 采用 ReLU 后,在大量的有标签数据下,有没有无监督预训练模型取得的最好效果是一样的,这可以被看做是训练深层有监督网络的一个新的里程碑。 2. 背景 2...
2019-04-19
0
522
首页
上一页
1
2
3
4
5
6
7
8
9
10
下一页
末页