LIF神经元模型的显隐转换

ops/2024/12/20 18:44:31/

本文星主将介绍LIF神经元模型的显式和隐式转换(星主看见有论文[1]是这个称呼的,所以本文也称显式和隐式),并得到隐式模型的解析解。注意:理解本文内容需要有一定的微积分基础,如果大家看着数学头疼,那么看看结论即可。

1.简介

LIF(Leaky Integrate-and-Fire)神经元模型是计算神经科学中一种经典的数学模型,用于描述生物神经元的动力学行为。它是脉冲神经网络(SNN)中的基础模型之一,简洁而高效。

LIF模型通过一个电路方程模拟神经元的膜电位(membrane potential)变化,当膜电位超过某个阈值时,神经元发放一个脉冲(即“放电”),然后膜电位被重置为静息电位,随后进入一个短暂的“静默期”(也称不应期,Refractory)。星主看过一篇博客,人家是这么理解LIF模型的,简单而言就是“把LIF想像成一个电容,而LIF这三个字母分别对应电容的漏电、充电、放电”,星主感觉还是挺形象的,大家可以自行好好体会一下。

在正式介绍LIF模型的显式和隐式之前,星主先给大家看看从两篇论文中截取的LIF模型:

503595a452774634851381e17699c11e.png

图1 LIF模型的隐式形式

bce6dc699bb541da8e3748efca3fafed.png

图2 LIF模型的显式形式

大家第一看感觉是不是这是两个不同的模型,但仔细一想,这两个方程组之间应该存在一定的数学变化,可怎么做呢?欲知后事如何,请听下面分解。

2.显隐转换

图1和图2分别给出了LIF模型的隐式和显式形式,其中eq?%5Ctau是一个时间常数,eq?I是前突触输入(把它理解为输入就行了),eq?u是膜电位,eq?u_%7Breset%7D是静息电位,eq?V_%7Bth%7D是阈值电压。eq?S_t是脉冲(spike)。

在正式推导之前,先解释一下为什么要进行转换?这篇论文[1]里是这么说的:便于使用现有的深度学习框架(Tensorflow,Pytorch)进行编程

下面转换使用的是Euler(欧拉)方法,而Euler方法是eq?u_%7Bt+1%7D%3Du_t+%5Cfrac%7Bdu%7D%7Bdt%7D%5Ccdot%20dt,其中eq?u_t表示在时间eq?t时的近似值,而eq?u_%7Bt+1%7D则是在时间eq?t+dt时的近似值。

隐式微分方程:

eq?%5Ctau%20%5Cfrac%7Bdu%7D%7Bdt%7D%3D-u+I

将其重新排列为:

eq?%5Cfrac%7Bdu%7D%7Bdt%7D%3D-%5Cfrac%7Bu%7D%7B%5Ctau%7D+%5Cfrac%7BI%7D%7B%5Ctau%7D

将导数导入Euler公式(eq?u变为eq?u_t):

eq?u_%7Bt+1%7D%3Du_t+%28-%5Cfrac%7Bu_t%7D%7B%5Ctau%7D+%5Cfrac%7BI%7D%7B%5Ctau%7D%29dt

分配eq?dt

eq?u_%7Bt+1%7D%3Du_t-%5Cfrac%7Bu_t%7D%7B%5Ctau%7Ddt+%5Cfrac%7BI%7D%7B%5Ctau%7Ddt

提取eq?u_t

eq?u_%7Bt+1%7D%3D%281-%5Cfrac%7Bdt%7D%7B%5Ctau%7D%29u_t+%5Cfrac%7Bdt%7D%7B%5Ctau%7DI

这不就是图2中的1式吗,如何理解这个式子呢?星主觉得可以看成是加权求和,即下一时刻的膜电位由当前时刻的膜电位和前突触的输入共同决定(图2中1式前面的系数可以理解为权重)。

3.求解

接下来展示如何求解图1中的1式,求解这个式子有多种方法,如积分因子法齐次解加特解法,还可以用拉普拉斯变换法,而下面只介绍积分因子法。

方程两边同时除以eq?%5Ctau

eq?%5Cfrac%7Bdu%7D%7Bdt%7D%3D-%5Cfrac%7Bu%7D%7B%5Ctau%7D+%5Cfrac%7BI%7D%7B%5Ctau%7D

移动其中一项:

eq?%5Cfrac%7Bdu%7D%7Bdt%7D+%5Cfrac%7B1%7D%7B%5Ctau%7Du%3D%5Cfrac%7BI%7D%7B%5Ctau%7D

这个式子是一阶线性常微分方程,形式为:

eq?%5Cfrac%7Bdu%7D%7Bdt%7D+P%28t%29u%3DQ%28t%29

其中,eq?P%28t%29%3D%5Cfrac%7B1%7D%7B%5Ctau%7D%2CQ%28t%29%3D%5Cfrac%7BI%7D%7B%5Ctau%7D

积分因子eq?u%28t%29可以表示为:

eq?u%28t%29%3De%5E%7B%5Cint%20P%28t%29dt%7D%3De%5E%7B%5Cint%20%5Cfrac%7B1%7D%7B%5Ctau%7Ddt%7D%3De%5E%7B%5Cfrac%7Bt%7D%7B%5Ctau%7D%7D

微分方程两边同时乘以积分因子eq?u%28t%29

eq?e%5E%7B%5Cfrac%7Bt%7D%7B%5Ctau%7D%7D%20%5Ccdot%20%5Cfrac%7Bdu%7D%7Bdt%7D%20+e%5E%7B%5Cfrac%7Bt%7D%7B%5Ctau%7D%7D%5Ccdot%20%5Cfrac%7B1%7D%7B%5Ctau%7Du%3De%5E%7B%5Cfrac%7Bt%7D%7B%5Ctau%7D%7D%5Ccdot%20%5Cfrac%7BI%7D%7B%5Ctau%7D

左边应该是eq?u%5Ccdot%20u%28t%29的导数:

eq?%5Cfrac%7Bd%7D%7Bdt%7D%28u%5Ccdot%20e%5E%7B%5Cfrac%7Bt%7D%7B%5Ctau%7D%7D%29%3De%5E%7B%5Cfrac%7Bt%7D%7B%5Ctau%7D%7D%5Ccdot%20%5Cfrac%7BI%7D%7B%5Ctau%7D

对两边关于eq?t进行积分:

eq?%5Cint%20%5Cfrac%7Bd%7D%7Bdt%7D%28u%5Ccdot%20e%5E%7B%5Cfrac%7Bt%7D%7B%5Ctau%7D%7D%29dt%3D%5Cint%20e%5E%7B%5Cfrac%7Bt%7D%7B%5Ctau%7D%7D%5Ccdot%20%5Cfrac%7BI%7D%7B%5Ctau%7Ddt

即:

eq?u%5Ccdot%20e%5E%7B%5Cfrac%7Bt%7D%7B%5Ctau%7D%7D%20%3D%20%5Cint%20e%5E%7B%5Cfrac%7Bt%7D%7B%5Ctau%7D%7D%5Ccdot%20%5Cfrac%7BI%7D%7B%5Ctau%7Ddt+C

其中eq?C是积分常数

计算右边的积分:

eq?%5Cint%20e%5E%7B%5Cfrac%7Bt%7D%7B%5Ctau%7D%7D%5Ccdot%5Cfrac%7BI%7D%7B%5Ctau%7Ddt%3D%5Cfrac%7BI%7D%7B%5Ctau%7D%5Cint%20e%5E%7B%5Cfrac%7Bt%7D%7B%5Ctau%7D%7Ddt

eq?z%3D%5Cfrac%7Bt%7D%7B%5Ctau%7D,则eq?dz%3D%5Cfrac%7B1%7D%7B%5Ctau%7Ddt,即eq?dt%3D%5Ctau%20dz。代入得:

eq?%5Cfrac%7BI%7D%7B%5Ctau%7D%5Ccdot%20%5Ctau%20%5Cint%20e%5E%7Bz%7Ddz%3DI%20%5Cint%20e%5Ez%20dz%3DIe%5Ez+C%3DIe%5E%7B%5Cfrac%7Bt%7D%7B%5Ctau%7D%7D+C

整理得:

eq?u%28t%29%3DI+Ce%5E%7B-%5Cfrac%7Bt%7D%7B%5Ctau%7D%7D

根据LIF神经元模型的图像(如下图3所示)可知,解应为eq?u%28t%29%3DI-Ce%5E%7B-%5Cfrac%7Bt%7D%7B%5Ctau%7D%7D

99b0b1d2de8c46d2b308f3b55faf43a8.png

图3 LIF模型的图像

解的含义是:神经元在未激活时,有部分成指数级衰减。

参考文献

[1] Wu Y, Deng L, Li G, et al. Direct training for spiking neural networks: Faster, larger, better[C]//Proceedings of the AAAI conference on artificial intelligence. 2019, 33(01): 1311-1318.

 


http://www.ppmy.cn/ops/143550.html

相关文章

【GCC】2015: draft-alvestrand-rmcat-congestion-03 机器翻译

腾讯云的一个分析,明显是看了这个论文和草案的 : 最新的是应该是这个 A Google Congestion Control Algorithm for Real-Time Communication draft-ietf-rmcat-gcc-02 下面的这个应该过期了: draft-alvestrand-rmcat-congestion-03

Differential Transformer: 通过差分注意力机制提升大语言模型性能

Transformer模型已经成为大语言模型(LLMs)的标准架构,但研究表明这些模型在准确检索关键信息方面仍面临挑战。今天介绍一篇名叫Differential Transformer的论文,论文的作者观察到一个关键问题:传统Transformer模型倾向…

使用宝塔面板中的Nginx部署前端Vue项目

我相信已经到这一步了,Nginx和宝塔过多的描述我就不说了,直接上干货实操。 第一步:前端项目打包 直接运行Npm run build命令进行打包,会打成一个dist的压缩包 注意:我们前端打包的时候要修改我们连接后端接口的&…

玩一下FPGA(TODO)

Intel Cyclone IV 是一款流行的 FPGA (现场可编程门阵列) 系列,广泛用于嵌入式设计和各种硬件加速应用。要用 Intel Cyclone IV 实现一个最简单的功能,我们可以从设计一个基础的 LED 控制器开始,这个设计可以作为一个入门项目来帮助你理解 FP…

用python实现滑雪小游戏,附源码

一个简单的基于文本的滑雪小游戏示例代码,在这个游戏中玩家控制一个滑雪者在有障碍物的雪道上滑行,尽量避开障碍物并获取更高的分数。 ● Skier类表示滑雪者,有位置属性和移动、转向方法。 ● Obstacle类表示障碍物,有位置属…

鸿蒙项目云捐助第九讲鸿蒙App应用的捐助详情页功能实现

鸿蒙项目云捐助第九讲鸿蒙App应用的捐助详情页功能实现 这里接下来继续实现捐助详情页的布局页面,也就是当用户进入到分类页面后,点击分类的每一个商品就进入到捐助商品的详情页,这里的布局可以从下面的模板演化而来。 下面根据这个模板来进…

2025年西安市科技创新奖励补贴政策一览

关于西安市科技创新奖励补助扶持政策整理,单个项目奖补高达1000万元。 (一)西安市加强“育小”。培育壮大科技型中小企业主体规模,强化科技型中小企业评价导向作用,将科技型中小企业培育工作列入区县、开发区高质量发…

配置 wsl 2 网络代理时的认知误区

文章目录 方案细节1. 编辑配置文件2. 重启生效3. 问题排查 探究一个失败的方案误区一:windows 设置界面配置的全局代理并不能在终端中使用 curl 命令时生效误区二:WSL 2 中的流量实际绕过了 Windows 网络堆栈的传输层误区三:代理协议的层级决…