LRN

news/2024/11/26 5:45:13/

LRN全称为Local Response Normalization,即局部响应归一化层,具体实现在CAFFE_ROOT/src/caffe/layers/lrn_layer.cpp和同一目录下lrn_layer.cu中。


为什么输入数据需要归一化(Normalized Data)?

   归一化后有什么好处呢?原因在于神经网络学习过程本质就是为了学习数据分布,一旦训练数据与测试数据的分布不同,那么网络的泛化能力也大大降低;另外一方面,一旦每批训练数据的分布各不相同(batch 梯度下降),那么网络就要在每次迭代都去学习适应不同的分布,这样将会大大降低网络的训练速度,这也正是为什么我们需要对数据都要做一个归一化预处理的原因。

   对于深度网络的训练是一个复杂的过程,只要网络的前面几层发生微小的改变,那么后面几层就会被累积放大下去。一旦网络某一层的输入数据的分布发生改变,那么这一层网络就需要去适应学习这个新的数据分布,所以如果训练过程中,训练数据的分布一直在发生变化,那么将会影响网络的训练速度。


该层需要参数有:

norm_region 选择对相邻通道间归一化还是通道内空间区域归一化,默认为ACROSS_CHANNELS,即通道间归一化;

local_size:两种表示(1)通道间归一化时表示求和的通道数;(2)通道内归一化时表示求和区间的边长;默认值为5

alpha:缩放因子(详细见后面),默认值为1

beta:指数项(详细见后面), 默认值为5

 

局部响应归一化层完成一种临近抑制操作,对局部输入区域进行归一化。

在通道间归一化模式中,局部区域范围在相邻通道间,但没有空间扩展(即尺寸为 local_size x 1 x 1);

在通道内归一化模式中,局部区域在空间上扩展,但只针对独立通道进行(即尺寸为 1 x local_size xlocal_size);

每个输入值都将除以

[写作时的 Caffe版本较旧,新版 Caffe已经增加参数 k,变为(k + (alpha / n) ……)]

其中 n 为局部尺寸大小local_size, alphabeta前面已经定义。

求和将在当前值处于中间位置的局部区域内进行(如果有必要则进行补零)。


http://www.ppmy.cn/news/790722.html

相关文章

ldr r0, =0x12345678,ldr r0, [r0]的含义说明

ARM是RISC结构,数据从内存到CPU之间的移动只能通过L/S指令来完成,也就是ldr/str指令。 比如想把数据从内存中某处读取到寄存器中,只能使用ldr 比如: ldr r0, 0x12345678 就是把0x12345678这个地址中的值存放到r0中。 而mov不能干这…

rand和srand的用法(转载)

首先我们要对rand&srand有个总体的看法:srand初始化随机种子,rand产生随机数,下面将详细说明。 rand(产生随机数) 表头文件: #include<stdlib.h> 定义函数 :int rand(void) 函数说明 : 因为rand的内部实现是用线性同余法做的,他不是真的随机数,只不过是因为其周…

rand()和srand()

前提概要 rand()用于生成随机数,但不是生成真正的随机数 srand()用于设置供rand()使用的随机数种子 提示 第一次调用rand()之前没有调用srand()&#xff0c;那么系统会为你自动调用srand()&#xff0c;自动调用传参值为1 使用相同种子&#xff08;srand函数传参值相同&#xff…

关于srand(time(0))的解释

标准库定义了一组随机数引擎类和适配器&#xff0c;使用不同数学方法生成伪随机数。标准库还定义了一组分布模板&#xff0c;根据不同的概率生成随机数。引擎和分布类型的名字都与它们的数学性质是相对应的。 但是我们今天就接触一点点最基础的知识。 计算机没有办法产生真正的…

srand和rand详细讲解

srand 使用srand引用头文件#include<stdlib.h> 在rand调用之前设置srand&#xff0c;若不设置当rand调用时随机数种子默认为1&#xff0c;随机数种子一样则每次打印出来的值也是一样的。 设置srand srand( (unsigned int )time(NULL) ) 如上所示&#xff0c;我们给一个持…

NTN(五) C-DRX

欢迎关注同名微信公众号“modem协议笔记”。 这篇针对R17 版本的协议&#xff0c;看下有关NTN场景的CDRX内容&#xff0c;整体内容没有太大变化&#xff0c;但是由于NTN的大延迟问题&#xff0c;有引入某些参数去控制HARQ 的enable/disable&#xff1b;同样的因为时延问题&…

SRDenseNet

方法作用效果将密集连接引入超分领域将每一层的特征都传递到后面的所有层,可以有效的组合浅层特征和深层特征,提高重建性能。而且密集连接可以在输出和每一层之间构建短路径,缓解了梯度消失现象很好代码: wxywhu/SRDenseNet-pytorch: SRDenseNet-pytorch(ICCV_2017) (git…

SRCNN

1. introduction 考虑了一个卷积神经网络&#xff0c;它可以直接学习低分辨率和高分辨率图像之间的端到端映射。我们的方法与现有的基于外部实例的外部方法有根本的不同&#xff0c;因为我们的方法没有明确地学习字典[41]、[49]、[50]或流形[2]、[4]。这些都是通过隐藏层隐式地…