【机器学习】BP神经网络正向计算

devtools/2024/10/17 23:54:40/

鑫宝Code

🌈个人主页: 鑫宝Code
🔥热门专栏: 闲话杂谈| 炫酷HTML | JavaScript基础
💫个人格言: "如无必要,勿增实体"


文章目录

  • BP神经网络正向计算
    • 1. 引言
    • 2. BP神经网络结构回顾
    • 3. 正向计算的基本原理
    • 4. 数学表示
      • 4.1 符号定义
      • 4.2 计算过程
    • 5. 激活函数
      • 5.1 Sigmoid函数
      • 5.2 Tanh函数
      • 5.3 ReLU (Rectified Linear Unit)函数
      • 5.4 Leaky ReLU函数
    • 6. 正向计算的实现
    • 7. 正向计算的优化
      • 7.1 矩阵运算
      • 7.2 批处理
      • 7.3 GPU加速
      • 7.4 模型压缩
    • 8. 正向计算的应用
    • 9. 结论
    • 参考文献

BP神经网络正向计算

1. 引言

反向传播(Backpropagation,简称BP)神经网络是人工神经网络中最常用和最基础的模型之一。虽然BP神经网络以其反向传播算法而闻名,但正向计算同样是网络运行的关键组成部分。本文将详细介绍BP神经网络的正向计算过程,包括其基本原理、数学表示和实现方法。
在这里插入图片描述

2. BP神经网络结构回顾

在深入讨论正向计算之前,让我们先回顾一下BP神经网络的基本结构:

  1. 输入层:接收外部输入信号
  2. 隐藏层:对输入信息进行非线性变换(可以有多个)
  3. 输出层:产生网络的最终输出

每一层都由若干个神经元组成,相邻层之间的神经元通过权重连接。

3. 正向计算的基本原理

BP神经网络的正向计算是指信息从输入层经过隐藏层,最后到达输出层的过程。在这个过程中,每一层的神经元都会接收上一层的输出,进行加权求和,然后通过激活函数产生自己的输出。

正向计算的主要步骤如下:

  1. 输入层接收外部信号
  2. 计算隐藏层的输入和输出
  3. 计算输出层的输入和输出
    在这里插入图片描述

4. 数学表示

为了更好地理解正向计算过程,我们来看一下其数学表示。假设我们有一个三层神经网络(输入层、一个隐藏层、输出层)。

4.1 符号定义

  • x x x: 输入向量
  • W ( 1 ) W^{(1)} W(1): 输入层到隐藏层的权重矩阵
  • b ( 1 ) b^{(1)} b(1): 隐藏层的偏置向量
  • W ( 2 ) W^{(2)} W(2): 隐藏层到输出层的权重矩阵
  • b ( 2 ) b^{(2)} b(2): 输出层的偏置向量
  • f f f: 激活函数

4.2 计算过程

  1. 隐藏层的输入:

    z ( 1 ) = W ( 1 ) ⋅ x + b ( 1 ) z^{(1)} = W^{(1)} \cdot x + b^{(1)} z(1)=W(1)x+b(1)

  2. 隐藏层的输出:

    a ( 1 ) = f ( z ( 1 ) ) a^{(1)} = f(z^{(1)}) a(1)=f(z(1))

  3. 输出层的输入:

    z ( 2 ) = W ( 2 ) ⋅ a ( 1 ) + b ( 2 ) z^{(2)} = W^{(2)} \cdot a^{(1)} + b^{(2)} z(2)=W(2)a(1)+b(2)

  4. 输出层的输出(网络最终输出):

    y = f ( z ( 2 ) ) y = f(z^{(2)}) y=f(z(2))

5. 激活函数

激活函数在神经网络中起着至关重要的作用,它引入了非线性,使得网络能够学习复杂的模式。以下是几种常用的激活函数:
在这里插入图片描述

5.1 Sigmoid函数

f ( x ) = 1 1 + e − x f(x) = \frac{1}{1 + e^{-x}} f(x)=1+ex1

特点:

  • 输出范围(0, 1)
  • 易于求导
  • 存在梯度消失问题

5.2 Tanh函数

f ( x ) = e x − e − x e x + e − x f(x) = \frac{e^x - e^{-x}}{e^x + e^{-x}} f(x)=ex+exexex

特点:

  • 输出范围(-1, 1)
  • 零中心化
  • 仍存在梯度消失问题

5.3 ReLU (Rectified Linear Unit)函数

f ( x ) = max ⁡ ( 0 , x ) f(x) = \max(0, x) f(x)=max(0,x)

特点:

  • 计算简单,收敛速度快
  • 缓解梯度消失问题
  • 可能导致神经元"死亡"

5.4 Leaky ReLU函数

f ( x ) = max ⁡ ( α x , x ) f(x) = \max(\alpha x, x) f(x)=max(αx,x),其中 α \alpha α是一个小正数

特点:

  • 解决了ReLU的"死亡"问题
  • 保留了ReLU的其他优点

6. 正向计算的实现

以下是一个简单的BP神经网络正向计算的Python实现示例:

import numpy as npdef sigmoid(x):return 1 / (1 + np.exp(-x))class BPNeuralNetwork:def __init__(self, input_size, hidden_size, output_size):self.input_size = input_sizeself.hidden_size = hidden_sizeself.output_size = output_size# 初始化权重和偏置self.W1 = np.random.randn(self.input_size, self.hidden_size)self.b1 = np.zeros((1, self.hidden_size))self.W2 = np.random.randn(self.hidden_size, self.output_size)self.b2 = np.zeros((1, self.output_size))def forward(self, X):# 隐藏层self.z1 = np.dot(X, self.W1) + self.b1self.a1 = sigmoid(self.z1)# 输出层self.z2 = np.dot(self.a1, self.W2) + self.b2self.a2 = sigmoid(self.z2)return self.a2# 使用示例
nn = BPNeuralNetwork(2, 4, 1)
X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])for input in X:output = nn.forward(input.reshape(1, -1))print(f"Input: {input}, Output: {output[0][0]}")

7. 正向计算的优化

在实际应用中,我们可以采用一些技巧来优化BP神经网络的正向计算过程:

7.1 矩阵运算

使用矩阵运算可以大大提高计算效率,特别是在处理大规模数据时。现代深度学习框架(如TensorFlow和PyTorch)都对矩阵运算进行了优化。

7.2 批处理

批处理是指同时处理多个样本,而不是一次只处理一个。这可以提高计算效率,并且在某些情况下可以提高模型的泛化能力。

7.3 GPU加速

利用GPU的并行计算能力可以显著加速神经网络的计算过程,包括正向计算。

7.4 模型压缩

对于一些资源受限的场景,可以考虑使用模型压缩技术,如权重量化、剪枝等,以减少计算量和内存占用。

8. 正向计算的应用

BP神经网络的正向计算在许多领域都有广泛应用,例如:

  1. 图像识别:利用卷积神经网络(CNN)进行图像分类、目标检测等任务。
  2. 自然语言处理:使用循环神经网络(RNN)或Transformer进行文本分类、机器翻译等任务。
  3. 推荐系统:构建用户-物品交互模型,预测用户偏好。
  4. 金融预测:预测股票价格、信用评分等。
  5. 医疗诊断:基于医疗数据进行疾病诊断和预测。

9. 结论

BP神经网络的正向计算是整个网络运行的基础。通过本文的介绍,我们详细了解了正向计算的原理、数学表示和实现方法。正向计算不仅是神经网络训练过程中的重要一步,也是模型部署和应用时的核心操作。

随着深度学习技术的不断发展,BP神经网络及其变体仍然在各个领域发挥着重要作用。理解和掌握正向计算过程,对于深入学习神经网络原理、优化网络性能以及开发创新应用都具有重要意义。

参考文献

  1. Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. Nature, 323(6088), 533-536.
  2. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT press.
  3. LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.

End


http://www.ppmy.cn/devtools/91267.html

相关文章

Android SurfaceFlinger——信号同步原理(五十一)

经过前面系列文章的学习,我们的已经理解了 SurfaceFlinger 运行机制以及同步机制,但是SurfaceFlinger 又是以什么方法是把需要刷新的信号发送给 App 进程的。 一、VSync简介 垂直同步(Vertical Synchronization,简称 VSync)是一种用于同步视频信号和显示设备刷新率的技术…

LVS 负载均衡

目录 LVS 体系结构 LVS 相关概念术语 lvs 集群常见类型 实验一: LVS NAT模式 LVS NAT特性 实验二: LVS DR模式 LVS DR特性 LVS是Linux virtual server的缩写,是一个高性能的、开源的负载均衡器,它运行于Linux操作系统之上…

跟《经济学人》学英文:2024年08月03日这期 Britain’s railways go from one extreme to another

Britain’s railways go from one extreme to another Departing: privatisation. Destination: centralisation 出发:私有化。目的地:集中化 depart:出发 privatisation:美 [ˌpraɪvətaɪ’zeɪʃən] 私有化;民营化;私营化…

数据结构(邓俊辉)学习笔记】词典 02—— 散列函数

文章目录 1. 冲突难免2. 何为优劣3. 整除留余4. 以禅为师5. M A D6. 平方取中7. 折叠汇总8. 伪随机数9. 多项式10. Vorldmort 1. 冲突难免 好,接下来的这一节我们就来介绍散列策略中的第一项,也是最重要的技术,散列函数的设计与定制。 在上…

C到C++——C++基础

C是一种通用的、静态类型的、跨平台的编程语言。它是在1979年由Bjarne Stroustrup创建的,最初是作为C语言的扩展来支持面向对象编程。 C在保留C语言的特性的同时,添加了许多其他的功能,包括类、对象、继承、多态、模板等。这使得C成为了一种…

Android读取拨号记录功能

Android读取拨号记录功能 Android读取拨号记录功能 首先会检测应用是否有读取拨号记录的权限 MainActivity.java public class MainActivity extends AppCompatActivity {private ListView listCalls;private List<Map<String, Object>> mapList;private static f…

【数据湖与数据仓库】数据湖与数据仓库的区别与应用

数据湖与数据仓库 数据湖与数据仓库的区别与应用 引言 随着大数据时代的到来&#xff0c;数据量呈指数级增长&#xff0c;企业需要高效的存储和管理海量数据的方法。数据湖和数据仓库是两种常见的数据存储和管理解决方案&#xff0c;它们在存储架构、数据处理方式和应用场景上…

一套基于tailwindcss的后台管理系统模板Chakra UI + React + TS

下载地址给你们&#xff1a; https://horizon-ui.com/#version