丿回到火星去
丿回到火星去
全部文章
分类
Linux之路(4)
MyCode(5)
YOLOv3(1)
优化算法(6)
未归档(2)
机器学习(34)
深度学习(9)
环境配置(3)
归档
标签
去牛客网
登录
/
注册
月上柳梢头,相约去青楼
非让我设置标题和颜色,不然就显示默认一句话。
全部文章
(共64篇)
图像处理—OpenCV相关简单操作
引言 本篇博客只简单介绍下Python中openCV库中对图像的简单处理及相关操作,介绍常用API的使用,方便自己查阅和向读者简单介绍下。但是读者了解但不应局限于此,图像操作对面向API的话,我们很容易就能实现对图像的操作,我们更应该去学习图像操作的原理,无非就是对图像矩阵中像素的一系列的操作,学...
2019-03-31
0
438
滑动平均模型(MA)—tensorflow
在采用梯度下降的方式训练神经网络的时候,我们使用滑动平均模型会在一定的程度上提高最终模型在测试集上的表现。 在TensorFlow中提供了tf.train.ExponentialMovingAverage来实现滑动平均模型,在初始化ExponentialMovingAverage的时候,需要提供一...
2019-03-26
0
332
浅谈深度神经网络 — GoogLeNet
GoogLeNet GoogLeNet网络 GoogLeNet是2014年Christian Szegedy提出的一种全新的深度学习结构,ImageNet-2014竞赛第一。在这之前的AlexNet、VGG等结构都是通过增大网络的深度(层数)来获得更好的训练效果,但层数的增加会带来很多负作用,...
2019-02-27
0
734
浅谈深度神经网络 — ResNet(DRN)
Deep Residual Learning for Image Recognition 1. 思想 作者根据输入将层表示为学习残差函数。实验表明,残差网络更容易优化,并且能够通过增加相当的深度来提高准确率。 核心是解决了增加深度带来的副作用(退化问题),这样能够通过单纯地增加网络深度,来提高网...
2019-02-24
0
768
浅谈深度神经网络 — R-CNN(区域卷积神经网络)R-CNN->Fast R-CNN->Faster R-CNN
文章目录 R-CNN(区域卷积神经网络) 1. 引言 2. 任务 3. 传统方法 -> R-CNN 3.1 模型概述 3.2 R-CNN详细步骤 3.3 对以上出现的一些概念的解释: 3.3.1 pre-tra...
2019-02-14
1
643
空间金字塔池化(Spatial Pyramid Pooling)
简介 空间金字塔池化,使得任意大小的特征图都能够转换成固定大小的特征向量,这就是空间金字塔池化的意义(多尺度特征提取出固定大小的特征向量),送入全连接层。整体框架大致为:输入图像,卷积层提取特征,空间金字塔池化提取固定大小特征,全连接层。 具体的流程图如下: 具体算法的大体流程 首先通过...
2019-02-14
0
1310
浅谈深度神经网络 — VGG
VGG网络 这幅图还是清晰地展现了VGG的网络结构的,VGG由5层卷积层、3层全连接层、最后由softmax输出层构成,层与层之间使用max-pooling(最大化池层)分开,所有隐层的激活单元都采用ReLU函数。(并没有使用LRN,LRN并没有在这个网络中有太大性能提升) 模型简介 VGG...
2019-02-05
0
471
浅谈深度神经网络 — RNN,LSTM
RNN(recurrent neural network,循环神经网络) 全连接神经网络和卷积神经网络模型中,网络结构都是从输入层到隐含层再到输出层,层与层之间是全连接或是部分连接的,但每层的节点之间都是无连接的。考虑这样的一个问题,如果要预测句子的下一个单词是什么,一般用到当前单词以及前面的单词...
2019-02-05
0
536
浅谈深度神经网络 — CNN
CNN(Convolutional Neural Network,卷积神经网络) 引言 CNN的出现是因为全连接神经网络无法很好地处理图像数据,主要原因有以下:使用全连接层处理图像最大的问题在于全连接层的参数太多,参数多了除了会导致计算速度变慢,也很容易会导致过拟合问题。所以我们需要一个更加合理...
2019-02-05
0
440
浅谈深度神经网络 — AlexNet
文章目录 AlexNet网络 模型简介 新技术点的提出 AlexNet结构 AlexNet特点 Relu函数小结 AlexNet网络 模型简介 AlexNet是2012年ImageNet竞赛冠军获得者Hint...
2019-02-05
0
602
首页
上一页
1
2
3
4
5
6
7
下一页
末页