LSTM介绍

news/2025/2/21 15:50:05/

LSTM

ft表示 遗忘门。LSTM对于每一次的输入,首先决定遗忘掉之前的哪些记忆。将ft和t-1时刻的细胞状态相乘,得出将遗忘哪些记忆。

记忆门 是用来控制是否将t时刻的数据并入细胞状态。tanh函数可以将此刻向量中的有效信息提取出来,为gt。sigmoid函数用于控制此刻多少记忆进入细胞状态,输出为it。

输出门会先将当前输入值与上一时刻输出值整合后的向量,用sigmoid函数提取其中的信息,接着,会将当前的单元状态通过tanh函数压缩映射到区间(-1, 1)。

 

 LSTM - 长短期记忆递归神经网络 - 知乎 (zhihu.com)

单层LSTM

import torch
import torch.nn as nnlstm = nn.LSTM(input_size=100, hidden_size=20, num_layers=1)
print(lstm)
print(lstm._p

http://www.ppmy.cn/news/822604.html

相关文章

UVa-152

这道题意思非常简单,就是输入一堆树的坐标,对于每个树,找到离它最近的树的距离,并看看是属于什么范围的。[0, 1), [1, 2), [2, 3), [3, 4), ... , [9, 10) 需要注意的是两点: 1. 输出最后的结果以后,还有…

Uva1252

题目链接 给出一个例子来理解题意:m5,n4时有 10100 11000 00001 00010 从左到右表示1-m个特征,现在询问第一个位置就可以把原来四组分为{(1),(2)}和{(3),(4)} 然后再区分(1)和(2)可以询问位置2或3 区分(3)和(4)可以询问位置4或5。 假设所要猜的物…

20170425めも

var myString "Hello, World!" print(myString) swift在線 https://www.shucunwang.com/RunCode/swift/ 在線 http://run.jser.com/swift.html [iOS8] Swiftで文字列と数値の型変換する方法 http://qiita.com/hiroo0529/items/27ec2c24327a692aa0dd 如何在win7下安装…

UVA 10125 Sumsets

题意:给出一个集合S,求一个最大的d,满足abcd,a,b,c,d都是S中的不同的元素。 思路:把ab先算出来,然后枚举d-c,判断ab是否存在……我用的map处理的ab,开始感觉复杂度不太优美&#xf…

UVA11525

题意:给定N与K(均为正整数)可以确定第K个全排列(1..N的全排列),但N较大,现以Nsigma(Si(K-i)!)&…

UVA - 10125 Sumsets

题目大意:给出一个集合,问集合里面是否有满足d a b c最大d(a,b,c,d都是集合里面的数字) 解题思路:先排序,d从最大的给,a也从最大的给,b从比a小…

uva12563

可以说是第一题DP, 也不是这样说,就是理解的第一题,虽然还是似懂非懂 但套路有一点:初始化,然后状态的转化就是递推赋值,然后和新的状态比较一下。OK了 题意必须先明确保证唱的歌曲数目最多,…

uva10125 - Sumsets

最简单的暴力 会超时 所以我们要想方设法的减少循环层数或者循环次数, abc d 那么abd-c 这不是简单的等式变形 而是意味着我们循环的次数减少了。 我们对于d和c分别用一层循环, 对于ab只用一层循环。 很妙的转变,,&#…