【激活函数】Activation Function——在卷积神经网络中的激活函数是一个什么样的角色??

server/2024/9/23 5:16:03/

【激活函数】Activation Function——在卷积神经网络中的激活函数是一个什么样的角色??

Activation Function——在卷积神经网络中的激活函数是一个什么样的角色??


文章目录

  • 【激活函数】Activation Function——在卷积神经网络中的激活函数是一个什么样的角色??
  • 激活函数
    • CNN中为什么必须要用激活函数呢?
    • 激活函数的主要作用:
  • 常用的激活函数及其应用
    • 1.Sigmoid 函数
    • 2.Tanh 函数
    • 3.ReLU (Rectified Linear Unit) 函数
    • 4.Leaky ReLU 函数
    • 5.ELU (Exponential Linear Unit) 函数
    • 6.Swish 函数
    • 7.Softmax 函数
  • 激活函数的选择依据
  • 总结


激活函数

  • 激活函数(Activation Function)是深度学习中将输入信号的加权和转化为输出信号的非线性变换。激活函数的引入解决了线性模型中无法处理复杂模式的问题,确保神经网络具有表达复杂函数、捕捉非线性关系的能力。

CNN中为什么必须要用激活函数呢?

  • 如果不使用激活函数,神经网络层与层之间的输出将是线性的组合,等效于单一的线性模型。无论网络多么深,最终的输出都是输入的线性变换,无法解决复杂的模式识别问题。因此,激活函数引入了非线性,使神经网络能够拟合复杂的高维数据。

激活函数的主要作用:

  • 引入非线性神经网络通过激活函数引入非线性,能够拟合复杂的非线性函数,解决复杂问题。

  • 保证梯度传播:通过适当的激活函数可以使得梯度能够良好地反向传播,从而有效地进行参数更新。

  • 特征压缩与选择:激活函数通常可以对输入信号进行压缩,抑制不重要的信号并突出关键的特征。

常用的激活函数及其应用

1.Sigmoid 函数

公式

f ( x ) = 2 1 + e − x f(x)=\frac{2}{1+e^{-x}} f(x)=1+ex2

作用

  • 将输入值映射到 0 到 1 之间的概率区间。
  • 常用于二分类问题的输出层。

优缺点

  • 优点:常用于二分类问题的输出层。
  • 缺点:当输入值绝对值过大时,梯度趋于 0,导致梯度消失问题,无法有效训练深层网络。

代码示例

import tensorflow as tf# Sigmoid 激活函数
x = tf.random.normal([1, 5])
output = tf.nn.sigmoid(x)
print(output)

适用场景

  • 二分类任务(例如:Logistic 回归的输出层)。
  • 小型网络,不适用于深度网络。

2.Tanh 函数

公式

f ( x ) = 2 1 + e − 2 x − 1 f(x)=\frac{2}{1+e^{-2x}}-1 f(x)=1+e2x21

作用

  • 将输入值映射到 -1 到 1 的区间。
  • Tanh 函数对 0 的输入是对称的,即它是零中心化的。

优缺点

  • 优点:零中心化,更适合处理有负数输入的特征。
  • 缺点:同样存在梯度消失问题,当输入值很大或很小时,梯度趋近于 0。

代码示例

import tensorflow as tf# Tanh 激活函数
x = tf.random.normal([1, 5])
output = tf.nn.tanh(x)
print(output)

适用场景

  • 自然语言处理等需要处理负值的场景。
  • 常用于 RNN 和 LSTM 中。

3.ReLU (Rectified Linear Unit) 函数

公式

f ( x ) = m a x ( 0 , x ) f(x)=max(0,x) f(x)=max(0,x)

作用

  • 当输入大于 0 时,ReLU 输出输入值本身;当输入小于或等于 0 时,输出 0。
  • 引入非线性,并且计算非常简单,收敛速度快。

优缺点

  • 优点:引入非线性,并且计算非常简单,收敛速度快。
  • 缺点:当输入小于 0 时,神经元可能会死亡(即无法再激活),这叫做 “ReLU 死亡” 问题。

代码示例

import tensorflow as tf# ReLU 激活函数
x = tf.random.normal([1, 5])
output = tf.nn.relu(x)
print(output)

适用场景

4.Leaky ReLU 函数

公式

f ( x ) = m a x ( 0.01 x , x ) f(x)=max(0.01x,x) f(x)=max(0.01x,x)

作用

  • 类似于 ReLU,但对于负值输入不完全为 0,而是乘以一个较小的斜率(通常为 0.01),以解决 ReLU 死亡问题。

优缺点

  • 优点:在负值区域保留小的梯度,避免了 ReLU 的死亡问题。
  • 缺点:相比 ReLU 的简单性,增加了计算量。

代码示例

import tensorflow as tf# Leaky ReLU 激活函数
x = tf.random.normal([1, 5])
output = tf.nn.leaky_relu(x, alpha=0.01)  # alpha 是负值部分的斜率
print(output)

适用场景

  • 深度神经网络中,尤其是在 ReLU 出现大量 “死亡神经元” 的情况下。

5.ELU (Exponential Linear Unit) 函数

公式

f ( x ) = { x , i f x > 0 , α ( e x − 1 ) , i f x ≤ 0 f(x)=\begin{cases} x, &if&x>0,\\ α(e^x-1), &if&x \le 0 \end{cases} f(x)={x,α(ex1),ififx>0,x0

作用

  • 对于正值,ELU 类似于 ReLU;对于负值,它的输出为指数衰减而非零,这样可以让网络学习负数特征,同时保持梯度流动。

优缺点

  • 优点:相比 Leaky ReLU,有更好的训练表现,减少了偏差。
  • 缺点:计算稍复杂,训练速度略慢于 ReLU。

代码示例

import tensorflow as tf# ELU 激活函数
x = tf.random.normal([1, 5])
output = tf.nn.elu(x)
print(output)

适用场景

  • 深度网络中,用于代替 ReLU,特别是需要保留负数特征的场景。

6.Swish 函数

公式

f ( x ) = x ⋅ s i g m o i d ( x ) f(x)=x·sigmoid(x) f(x)=xsigmoid(x)

作用

  • Swish 是一种自适应激活函数,结合了 Sigmoid 和 ReLU 的特性,并能平滑地处理负值输入,提供更好的表现。

优缺点

  • 优点:在一些任务上,Swish 的表现优于 ReLU。
  • 缺点:计算稍复杂,训练速度较慢。

代码示例

import tensorflow as tf# Swish 激活函数
x = tf.random.normal([1, 5])
output = x * tf.nn.sigmoid(x)
print(output)

适用场景

  • 深层神经网络中,特别是在需要更好的训练表现时(如 EfficientNet)。

7.Softmax 函数

公式

f ( x ) = e x i ∑ j e x j f(x)=\frac{e^{x_i}}{∑_je^{x_j}} f(x)=jexjexi

作用

  • 将输入映射为一个概率分布,所有输出值的和为 1。
  • 通常用于多分类任务的输出层。

优缺点

  • 优点:用于分类问题时,能够很好地提供归一化概率。
  • 缺点:仅适用于分类任务的输出层。

代码示例

import tensorflow as tf# Softmax 激活函数
x = tf.random.normal([1, 5])
output = tf.nn.softmax(x)
print(output)

适用场景

  • 多分类问题 的输出层,如图像分类、文本分类。

激活函数的选择依据

  • 二分类问题:一般选择 Sigmoid 作为输出层激活函数。
  • 多分类问题:常使用 Softmax 作为输出层激活函数,提供概率分布。
  • 卷积网络:通常使用 ReLU 或 Leaky ReLU,可以加快网络收敛,并处理梯度问题。
  • 深度网络:可以考虑使用 Swish 或 Leaky ReLU,在深层网络中能够避免死神经元和梯度消失。
  • 自然语言处理或时间序列处理:常见激活函数为 Tanh 或 Sigmoid,配合 LSTM 或 GRU 使用。

总结

激活函数为神经网络引入了非线性特性使得网络能够拟合复杂的数据模式和关系。选择合适的激活函数不仅能提升模型的表现,还能有效解决训练中的一些问题,如梯度消失和死神经元问题。不同的激活函数在不同场景下有各自的优势和适用性,因此在实际应用中需要根据具体任务和数据来合理选择。


http://www.ppmy.cn/server/118982.html

相关文章

shell脚本语法

shell脚本的变量 系统变量 系统变量是操作系统用来存储配置信息的变量,它们可以控制操作系统的行为和程序的运行环境。系统变量的种类和内容取决于操作系统的类型和版本。以下是一些常见的系统变量类别和它们可能包含的内容: 环境变量:这些…

Vue 中阻止点击事件穿透

在 Vue.js 应用中,处理用户交互是常见的需求,尤其是点击事件。然而,在某些情况下,我们可能需要阻止点击事件穿透到下层元素,这可以优化用户体验并防止不必要的事件处理。本文将探讨在 Vue 中如何有效地阻止点击事件穿透…

【设计模式-组合】

**Composite Pattern(组合模式)**是一种结构型设计模式,旨在将对象组合成树形结构,以表示“部分-整体”的层次结构。这种模式允许客户端以统一的方式处理单个对象和对象集合,从而简化了树形结构的处理。 核心思想 组…

动态规划day35|1049. 最后一块石头的重量 II(等效转换得很巧妙)、494. 目标和(超重要!!背包的本质)、474. 一和零(多维控制)

动态规划day35|1049. 最后一块石头的重量 II、494. 目标和、一和零 1049. 最后一块石头的重量 II494. 目标和474. 一和零 1049. 最后一块石头的重量 II 有一堆石头,用整数数组 stones 表示。其中 stones[i] 表示第 i 块石头的重量。 每一回合,从中选出…

python的基础语法

Python 的基础语法非常简洁明了,适合初学者快速上手。下面我将为你总结几个最重要的基础语法点,帮你快速掌握 Python 的核心概念。让我们从基础开始逐步深入,像刷副本一样一关一关地攻克它们! 1. Hello, World! 每一种编程语言的…

spug项目实现代码本地启动步骤

一、spug代码仓库地址: spug: 开源运维平台:面向中小型企业设计的无 Agent的自动化运维平台,整合了主机管理、主机批量执行、主机在线终端、文件在线上传下载、应用发布、任务计划、配置中心、监控、报警等一系列功能。 - Gitee.com 注意:如…

鹰眼降尘系统多少钱

关于鹰眼系统的价格,由于该系统可能涉及多个领域和不同的配置,因此价格范围可能相对较广。以下是朗观视觉小编对鹰眼系统价格的一些分析和说明: 一、价格影响因素 应用领域:鹰眼系统可能应用于不同的领域,如环保降尘、…

Linux中权限和指令

💥1、Linux基本指令 1.1 mv 指令 mv指令是move的缩写,用来移动或重命名文件、目录,经常用来备份文件或目录。 mv old_name new_name: 重命名文件或目录mv file /path/to/directory: 移动文件到指定目录 roothcss-ecs…