Junqw
Junqw
全部文章
Pytorch...
Algorithm(25)
C++(6)
STM32(1)
Tensorflow(1)
未归档(5)
环境配置(3)
归档
标签
去牛客网
登录
/
注册
Junqw的博客
全部文章
/ Pytorch_Mxnet
(共10篇)
grad_cam CNN可视化
第一代的CAM **CAM(class activation map)**是指输入中的什么区域能够指示CNN进行正确的识别 需要修改网络结构 添加一个gap层,进行fine_ture 网络结构分为两部分,一部分是特征提取(CNN),一部分是分类层(softmax),在特征提取的最...
2019-12-15
0
779
期盼效应
当我们要用到深度学习来生成图像的时候,是往往是基于一个低分辨率且具有高层语义的图像。这会使得深度学习来对这种低分辨率图像进行填充细节。一般来说,为了执行从低分辨率图像到高分辨率图像之间的转换,我们往往要进行deconvolution。简单来说,deconvolution layer可以允许模型通过每...
2019-12-12
0
477
pytorch: tensors used as indices 用tensor索引另一个tensor
tensor1[tensor2] 刚看到这个结构有点懵,不知道它是具体怎么工作的 example.py a = torch.arange(16) b = torch.tensor([2,2,0,1,0,0,1,0,2,1,0,0,1,0,0,0],dtype=torch.uint8) pr...
2019-08-17
0
1127
pytorch 实现roi pool
# -*- coding:UTF-8 -*- import time import torch import torch.nn.functional as F from torch.autograd import Variable def roi_pooling(input, rois, si...
2019-08-07
0
693
pytorch 优化器(optim)不同参数组,不同学习率设置
optim 的基本使用 for do: 1. 计算loss 2. 清空梯度 3. 反传梯度 4. 更新参数 cifiron = nn.MSELoss() optimiter = torch.optim.SGD(net.parameters(),lr=0.01,momentum=0.9) for...
2019-07-01
0
3184
pytorch_detach 切断网络反传
detach 官方文档中,对这个方法是这么介绍的。 detach = _add_docstr(_C._TensorBase.detach, r""" Returns a new Tensor, detached from the current graph....
2019-06-27
0
888
Tensor RT_4 自定义层(layers)
文章目录 caffe2TensorRT and TensorRT_plugin_layer Broadcast_layer 实现 PoolingLayer 实现 caffe2TensorRT and TensorRT_plugin_la...
2019-06-22
0
682
pytorch_optim_学习率调整策略
PyTorch学习率调整策略通过torch.optim.lr_scheduler接口实现。PyTorch提供的学习率调整策略分为三大类,分别是 a. 有序调整:等间隔调整(Step),按需调整学习率(MultiStep),指数衰减调整(Exponential)和 余弦退火CosineAnneali...
2019-06-22
0
1107
torchvision.transforms记录
PyTorch框架中有一个非常重要且好用的包:torchvision,该包主要由3个子包组成,分别是: torchvision.datasets torchvision.models torchvision.transforms 这3个子包的具体介绍可以参考官网:http://...
2019-06-20
1
1710
Mxnet2Caffe mxnet模型转换caffe
Mxnet2Caffe 将mxnet静态图symbol转换为caffe的prototxt文本,支持大部分op,caffe不需要的op则需要自己添加,再转换,否则会构建失败 将json转换为prototxt 利用caffe的python接口构建网络,将mxnet的参数param...
2019-03-08
0
1178