深度学习 RNN循环神经网络原理与Pytorch正余弦值预测

news/2024/11/28 17:46:52/

深度学习 RNN循环神经网络原理与Pytorch正余弦值预测

  • 一、前言
  • 二、序列模型
  • 三、不含序列关联的神经网络
  • 四、包含隐藏状态的卷积神经网络
  • 五、正余弦预测实战
  • 六、参考资料

一、前言

前面我们学习了前馈神经网络、卷积神经网络,它们有一个特点,就是每次输出跟上一次结果没有关联。但在一个句子中,每个词的顺序搭配是存在一定联系的,这个时候我们就需要考虑上一次提取的特征对本次输出的影响。这就是我们今天要学的循环神经网络(RNN),也叫递归神经网络,RNN被广泛地应用于自然语言处理(NLP)等领域。

二、序列模型

我们来看一个例子:

我昨天上学迟到了,老师批评了____。

空格里这个词最有可能是『我』,而不太可能是『小明』,甚至是『吃饭』。

这是由上下文推导出来的,这种输出与上下文相互关联的模型,叫做序列模型。

序列模型能够应用在许多领域,例如:

  • 语音识别
  • 音乐发生器
  • 情感分类
  • DNA序列分析
  • 机器翻译
  • 视频动作识别
  • 命名实体识别

三、不含序列关联的神经网络

在这里插入图片描述
为简化描述,我们不考虑偏置 bbb,如上图所示是包含一个隐藏层的神经网络。XXX表示输入、OOO表示输出;UUU是输入层到隐藏层的权重矩阵,VVV是隐藏层到输出层的权重矩阵。

设隐藏层的激活函数为fff、输出层的激活函数为ggg,则有:
H=f(UX)O=g(VH)H=f(UX) \\O=g(VH)H=f(UX)O=g(VH)

四、包含隐藏状态的卷积神经网络

隐藏层的作用,其实就是对输入进行特征值提取,比如卷积神经网络中的卷积层就是对图像边缘的提取。如果说上一次的特征,会对本次特征提取造成一定影响,那怎么表示呢?

我们引入权重参数WWWHt−1H_{t-1}Ht1表示上次特征,用WHt−1WH_{t-1}WHt1表示上次特征对本次的影响程度。那么就有本次特征Ht=f(UXt+WHt−1)H_t=f(UX_t+WH_{t-1})Ht=f(UXt+WHt1)
本次特征的值不仅取决于本次输入XtX_tXt,还受上次特征Ht−1H_{t-1}Ht1的影响。

这就是RNN的算法思想,用下图表示:
在这里插入图片描述

五、正余弦预测实战

import torch
import torch.nn as nn
import numpy as np
np.set_printoptions(suppress=True) #numpy不使用科学计数法steps=1000   #迭代次数
learning_rate=0.01  #学习率
time_step=10    #步数大小
input_size=1    #输入特征数量
hidden_size=32  #隐藏层特征数量class MyModel(nn.Module):def __init__(self):super().__init__()self.rnn=nn.RNN(input_size=input_size,hidden_size=hidden_size,num_layers=1,batch_first=True)self.out=nn.Linear(hidden_size, 1)def forward(self,x,h_state):r_out,h_state=self.rnn(x,h_state)outs = []for time_step in range(r_out.size(1)):    # 计算每个时间步的输出outs.append(self.out(r_out[:, time_step, :]))return torch.stack(outs, dim=1), h_stateplt_steps=[]
plt_loss=[]h_state = Nonemodel=MyModel()
#损失函数
cost=nn.MSELoss()
#迭代优化器
optmizer=torch.optim.SGD(model.parameters(),lr=learning_rate)step_now,step_x,sin_y,cos_y=None,None,None,None 
for step in range(steps):step_now=stepstep_x=np.linspace(step*np.pi,(step+1)*np.pi,time_step,dtype=np.float32) #起始值、结束值、个数sin_y=np.sin(step_x)cos_y=np.cos(step_x)x = torch.from_numpy(sin_y[np.newaxis, :, np.newaxis])    # shape (batch, time_step, input_size)y = torch.from_numpy(cos_y[np.newaxis, :, np.newaxis])pre_y,h_state=model(x,h_state)h_state = h_state.data#计算损失值loss=cost(pre_y,y)#在反向传播前先把梯度清零optmizer.zero_grad()#反向传播,计算各参数对于损失loss的梯度loss.backward()#根据刚刚反向传播得到的梯度更新模型参数optmizer.step()plt_steps.append(step)plt_loss.append(loss.item())#打印损失值if step%100==0:print('step:',step,'loss:',loss.item())#绘制迭代次数与损失函数的关系
import matplotlib.pyplot as plt
plt.plot(plt_steps,plt_loss)

运行结果:

step: 0 loss: 0.5253313779830933
step: 100 loss: 0.1194605678319931
step: 200 loss: 0.0004494489112403244
step: 300 loss: 0.0004530779551714659
step: 400 loss: 0.00045654349378310144
step: 500 loss: 0.00045824996777810156
step: 600 loss: 0.00045904534636065364
step: 700 loss: 0.0004583548288792372
step: 800 loss: 0.00045726861571893096
step: 900 loss: 0.00045428838348016143

在这里插入图片描述
预测下一段数据结果:

step_x=np.linspace((step_now+1)*np.pi,(step_now+2)*np.pi,time_step,dtype=np.float32) #起始值、结束值、个数
sin_y=np.sin(step_x)
cos_y=np.cos(step_x)x = torch.from_numpy(sin_y[np.newaxis, :, np.newaxis])    # shape (batch, time_step, input_size)
y = torch.from_numpy(cos_y[np.newaxis, :, np.newaxis])pre_y,h_state=model(x,h_state)plt.plot(step_x,sin_y,label='input (sin)')
plt.plot(step_x,cos_y,label='target (cos)')
plt.plot(step_x,pre_y.data.numpy().flatten(),label='pre_y')
plt.legend() #展示标签
plt.show()

运行结果:
在这里插入图片描述

六、参考资料

《零基础入门深度学习(5) - 循环神经网络》
《深度学习(五) - 序列模型》
《一文搞懂RNN(循环神经网络)基础篇》
《【Pytorch教程】:RNN 循环神经网络 (回归)》


http://www.ppmy.cn/news/1657.html

相关文章

做了8年前端,感谢那些优秀的后端,陪伴我工作,教会我成长

☆ 前段时间由于一时的头脑发热,写了一篇《做了8年前端,细说那些曾经让你浴霸不能的后端》的博客,虽然每个细节也都属实吧,但始终是一些负能量的东西,建议大家不要去看了,今年互联网情况已经这样了&#xf…

Python学习小组课程P6-Python办公(3)邮件与钉钉消息通知

Python办公(3)邮件与钉钉消息通知一、前言二、知识点1 发送邮件2 钉钉机器人消息通知一、前言 注意:此为内部小组学习资料,非售卖品,仅供学习参考。 本系列课程: Python学习小组课程-课程大纲与Python开发…

Java实现 LeetCode 500.键盘行

500.键盘行 给你一个字符串数组 words ,只返回可以使用在 美式键盘 同一行的字母打印出来的单词。键盘如下图所示。 美式键盘 中: 第一行由字符 “qwertyuiop” 组成。第二行由字符 “asdfghjkl” 组成。第三行由字符 “zxcvbnm” 组成。 示例 1&…

工业物联网关-modbus数据采集程序(1-程序设计)

写代码之前 最近代码写慢了,磨了好久都没开始动手写代码。考虑的东西越多越多,甚至自己都认为过虑了。就像这个程序,写代码之前估计花了大半天或者一天在思考怎么写,不知道是好事还是年纪大了。所以专门写篇文章,把自…

Android请求应用权限

文章目录前言参考一、请求应用权限基本原则二、请求权限的流程(官网摘抄)三、请求权限编码1.允许系统管理权限请求代码2.自行管理权限请求代码总结前言 学习Android为什么需要动态申请危险权限 学会Android应用危险权限申请的方式 参考 Android官方文档…

使用 Windows 20 年后我如何切换到 Ubuntu(2022 年指南)

我是 Windows 用户多年,但在购买了一台新计算机后,我决定使用 Ubuntu 作为主要操作系统。 最近好吗?让我们弄清楚。 为什么选择 Linux? 第一个问题可能是“为什么”?嗯,对我来说有几个原因。 首先,从营销的角度来看,购买 Windows 的过程很糟糕——即使你想购买 Windo…

Windows x64隐藏可执行内存

文章目录实现效果实现原理VAD内存什么是VAD内存查看VAD内存VAD属性VAD内存可利用的点x64分页机制W7 x64下任意地址PDT PTE算法W10 x64定位随机化页表基址实现隐藏可执行内存隐藏内存对抗实现效果 驱动程序在Test进程中申请一块内存地址并打印,然后控制台程序在接收到…

Python字典

在Python中,字典是一系列键值对。每个键都与一个值相关联,你可使用键来访问相关联的值。与键相关联的值可以是数、字符串、列表乃至字典。事实上,可将任何Python对象用作字典中的值。 alien_0 {‘color’: ‘green’, ‘points’: 5} print…