文章简介
本系列文章旨在帮助零基础的读者系统地掌握深度学习,最终能够理解 Transformer 架构。本篇文章是第一篇,我们将从深度学习最核心的知识——神经网络——开始讲解,深入浅出地带你了解神经网络的结构、如何让神经网络工作,激活函数、损失函数、优化器和反向传播等关键概念。这些内容是理解深度学习的基础,如果你完全没有编程或数学背景,也不用担心,文章中的例子和讲解都会尽可能简单易懂。
1. 什么是神经网络?
在深度学习中,神经网络是我们用来处理数据的模型,它模仿人脑的工作方式,能自动学习并识别数据中的模式。
神经网络的结构:输入层、隐藏层和输出层
我们可以把神经网络看作是一个“输入数据 -> 处理数据 -> 输出结果”的机器。它的结构主要分为三部分:
- 输入层(Input Layer):负责接收数据,比如一张图片的像素值,或者一段文字的编码。输入层只是“传递”数据到网络的下一层。
- 隐藏层(Hidden Layers):这里是神经网络真正处理数据的地方。隐藏层包含“神经元”,这些神经元会对输入数据做数学运算(加权求和,激活等),从中提取特征。网络的复杂性体现在隐藏层的数量和它们内部的结构上。
- 输出层(Output Layer):生成预测结果。对于分类问题,输出层的结果是一个概率分布,告诉我们输入属于每个类别的可能性。
神经网络的工作方式
神经网络的工作方式其实很像“加法器”,它把输入的数据“加起来”,然后决定输出什么。
例如,假设输入层有 3 个值(像素值),我们可以简单地给它们加上不同的权重(也就是加权求和)。每个输入会被乘以一个权重值,再加上一个偏置(相当于一个修正值),最后再通过激活函数转化为输出。
图示:
css输入层 隐藏层 输出层
[x1, x2, x3] --> [h1, h2] --> [y1, y2]
在隐藏层中,每个神经元接收输入数据,通过一系列数学运算产生输出,这样一步步往后推,最终输出层给出结果。
2. 激活函数:让神经网络更强大
如果我们只是简单地把输入“加权求和”,这会限制神经网络的表现能力,因为这样的模型是“线性的”,无法处理复杂的问题。激活函数的作用就是引入“非线性”,让网络可以解决复杂问题,比如识别图片中的猫和狗。
常见的激活函数
-
ReLU(Rectified Linear Unit)
ReLU 是目前最常用的激活函数。它的计算非常简单:如果输入小于 0,输出为 0;如果输入大于 0,输出为原值。例子:
- 输入:-2,输出:0
- 输入:3,输出:3
公式:f(x) = max(0, x)
它可以帮助神经网络学习更快,并且避免一些计算上的问题。 -
Sigmoid
Sigmoid 会把输入压缩到 0 和 1 之间。你可以把它想象成一个“开关”,输入越大,结果越接近 1,输入越小,结果越接近 0。公式:f(x) = 1 / (1 + exp(-x))
这意味着输入越大,输出越接近 1;输入越小,输出越接近 0。Sigmoid 常用于二分类问题(例如,判断一封邮件是否是垃圾邮件)。 -
Tanh(双曲正切函数)
Tanh 和 Sigmoid 类似,不过它的输出范围是 -1 到 1,输入越大,输出接近 1;输入越小,输出接近 -1。它在需要处理正负值的任务中比较常用。公式:f(x) = (exp(x) - exp(-x)) / (exp(x) + exp(-x))
激活函数如何帮助神经网络?
激活函数通过将线性输入转换为非线性输出,赋予神经网络处