神经网络基础教程​

365投注被限制可以解除吗 时间: 2026-02-12 09:25:39 作者: admin 查阅次数: 9711 公众评价: 88
神经网络基础教程​

神经网络基础教程 ​1. 简介:什么是神经网络? ​1.1 灵感来源:生物神经元 ​神经网络的概念最初来源于对生物神经系统的研究。在我们的大脑中,神经元通过突触连接形成复杂的网络。每个神经元:

通过树突接收来自其他神经元的信号在细胞体中处理这些信号如果信号强度超过某个阈值,神经元会被激活通过轴突向其他神经元传递信号1.2 机器学习中的神经网络 ​在机器学习中,我们将这一生物过程抽象为数学模型。神经网络本质上是一个可以从数据中学习的复杂函数:

f:Rn→Rm它接收输入数据(例如图像的像素值),通过多层计算,最终输出预测结果(例如图像的分类标签)。

2. 神经网络的基本单元:神经元 ​2.1 数学模型 ​一个人工神经元(也称为感知机 Perceptron)是神经网络的基本计算单元。它接收多个输入,并产生一个输出。

输入与参数:

输入:x1,x2,…,xn权重:w1,w2,…,wn(每个输入对应一个权重)偏置:b(一个常数项)2.2 计算过程 ​神经元的计算分为两个步骤:

步骤 1:线性组合

计算所有输入的加权和,再加上偏置:

z=w1x1+w2x2+⋯+wnxn+b=∑i=1nwixi+b用向量形式表示更简洁:

z=wTx+b其中 w=[w1,w2,…,wn]T,x=[x1,x2,…,xn]T

步骤 2:激活函数

将线性组合的结果通过一个非线性函数 f 进行转换:

y=f(z)2.3 图示 ​ 预览 代码graph LR

x1[x₁] -->|w₁| sum((Σ))

x2[x₂] -->|w₂| sum

x3[x₃] -->|w₃| sum

b[b] -->|+1| sum

sum -->|z| act[激活函数 f]

act -->|y| output[输出]

style sum fill:#ffe6e6

style act fill:#e6f3ff

style output fill:#e6ffe6

说明:

左侧的圆圈代表输入中间的求和节点计算 z=wTx+b激活函数节点计算 y=f(z)右侧得到最终输出3. 从神经元到网络:线性层 ​3.1 什么是线性层? ​在实际应用中,我们通常将多个神经元组织在一起,形成一个层(Layer)。同一层中的所有神经元:

接收相同的输入每个神经元有独立的权重和偏置并行计算,各自产生一个输出3.2 矩阵形式的表示 ​假设我们有:

输入向量:x∈Rn该层包含 m 个神经元那么可以用矩阵和向量来表示整个层的计算:

权重矩阵:

W=[w11w12⋯w1nw21w22⋯w2n⋮⋮⋱⋮wm1wm2⋯wmn]∈Rm×n第 i 行表示第 i 个神经元的权重偏置向量:

b=[b1b2⋮bm]∈Rm线性层的输出:

z=Wx+b这是一次矩阵-向量乘法加上向量加法。

3.3 维度分析 ​理解维度对于实现神经网络至关重要:

变量维度说明xn×1输入向量Wm×n权重矩阵bm×1偏置向量zm×1输出向量示例:如果输入是一张 28×28 的灰度图像(展平后 n=784),我们希望提取 128 个特征(m=128),那么权重矩阵 W 的维度是 128×784。

4. 引入非线性:激活函数 ​4.1 为什么需要非线性? ​考虑一个只有线性层的网络:

z1=W1x+b1z2=W2z1+b2将第一层代入第二层:

z2=W2(W1x+b1)+b2=(W2W1)x+(W2b1+b2)这仍然是一个线性变换!无论堆叠多少层,结果都等价于一个单层的线性模型。

激活函数的作用:引入非线性,使网络能够学习和表示复杂的非线性关系。

4.2 常见的激活函数 ​4.2.1 Sigmoid 函数 ​σ(z)=11+e−z特点:

输出范围:(0,1)常用于二分类问题的输出层可以解释为概率缺点:

当 |z| 很大时,梯度接近 0,导致梯度消失问题输出不是零中心化的4.2.2 ReLU (Rectified Linear Unit) ​f(z)=max(0,z)={zif z>00if z≤0特点:

计算简单,训练速度快缓解梯度消失问题是目前最常用的激活函数缺点:

可能导致"神经元死亡"(dying ReLU):如果神经元输出一直小于 0,其梯度永远为 0,参数无法更新4.2.3 Tanh (双曲正切函数) ​tanh⁡(z)=ez−e−zez+e−z=e2z−1e2z+1特点:

输出范围:(−1,1)输出是零中心化的通常比 Sigmoid 表现更好缺点:

仍然存在梯度消失问题,但比 Sigmoid 轻微4.3 激活函数的可视化对比 ​不同激活函数的形状:

Sigmoid:S 型曲线,两端平坦Tanh:类似 Sigmoid,但关于原点对称ReLU:左半边为 0,右半边为线性5. 搭建完整的神经网络 ​5.1 网络结构 ​一个典型的前馈神经网络(Feedforward Neural Network)由多层组成:

预览 代码graph LR

subgraph 输入层

I1[x₁]

I2[x₂]

I3[x₃]

end

subgraph 隐藏层1

H11[h₁₁]

H12[h₁₂]

H13[h₁₃]

H14[h₁₄]

end

subgraph 隐藏层2

H21[h₂₁]

H22[h₂₂]

H23[h₂₃]

end

subgraph 输出层

O1[y₁]

O2[y₂]

end

I1 --> H11

I1 --> H12

I1 --> H13

I1 --> H14

I2 --> H11

I2 --> H12

I2 --> H13

I2 --> H14

I3 --> H11

I3 --> H12

I3 --> H13

I3 --> H14

H11 --> H21

H11 --> H22

H11 --> H23

H12 --> H21

H12 --> H22

H12 --> H23

H13 --> H21

H13 --> H22

H13 --> H23

H14 --> H21

H14 --> H22

H14 --> H23

H21 --> O1

H21 --> O2

H22 --> O1

H22 --> O2

H23 --> O1

H23 --> O2

style I1 fill:#e1f5ff

style I2 fill:#e1f5ff

style I3 fill:#e1f5ff

style O1 fill:#ffe1e1

style O2 fill:#ffe1e1

层的类型:

输入层:接收原始数据,不进行计算隐藏层:中间的所有层,进行特征提取和转换输出层:产生最终的预测结果5.2 前向传播(Forward Propagation) ​前向传播是指数据从输入层开始,逐层向前传递,最终得到输出的过程。

以一个三层网络为例:

第 0 层(输入层):

a(0)=x第 1 层(隐藏层 1):

z(1)=W(1)a(0)+b(1)a(1)=f(1)(z(1))第 2 层(隐藏层 2):

z(2)=W(2)a(1)+b(2)a(2)=f(2)(z(2))第 3 层(输出层):

z(3)=W(3)a(2)+b(3)a(3)=f(3)(z(3))=y^其中:

z(l) 是第 l 层的线性组合结果a(l) 是第 l 层经过激活函数后的输出f(l) 是第 l 层使用的激活函数y^ 是网络的最终预测6. 学习与优化:损失函数与梯度下降 ​6.1 损失函数(Loss Function) ​神经网络通过学习来调整参数,使其预测结果尽可能接近真实值。损失函数量化了预测与真实值之间的差距。

6.1.1 均方误差(Mean Squared Error, MSE) ​常用于回归问题:

L(w,b)=1N∑i=1N(y^i−yi)2其中:

N 是样本数量y^i 是第 i 个样本的预测值yi 是第 i 个样本的真实值6.1.2 交叉熵(Cross-Entropy) ​常用于分类问题:

L(w,b)=−1N∑i=1N∑c=1Cyi,clog⁡(y^i,c)其中:

C 是类别数量yi,c 是第 i 个样本属于类别 c 的真实标签(one-hot 编码)y^i,c 是模型预测的概率6.2 优化目标 ​训练神经网络的目标是找到一组参数 θ={W(1),b(1),W(2),b(2),…},使得损失函数最小:

θ∗=arg⁡minθL(θ)6.3 梯度下降(Gradient Descent) ​梯度下降是一种迭代优化算法,其核心思想是:

计算梯度:损失函数相对于每个参数的偏导数

∇θL=[∂L∂W(1),∂L∂b(1),∂L∂W(2),…]更新参数:沿着梯度的相反方向移动

θ←θ−η∇θL其中 η 是学习率(learning rate),控制每次更新的步长。

6.4 梯度下降的直观理解 ​想象你站在一座山上,想要下到山谷(最低点):

梯度指向上坡最陡的方向负梯度指向下坡最陡的方向每次沿着负梯度方向走一小步(步长由学习率决定)重复这个过程,最终到达山谷 预览 代码graph TD

A[初始参数 θ₀] -->|计算梯度| B[∇L θ₀]

B -->|更新参数| C[θ₁ = θ₀ - η∇L]

C -->|计算梯度| D[∇L θ₁]

D -->|更新参数| E[θ₂ = θ₁ - η∇L]

E -->|...| F[θ* 收敛]

style A fill:#e1f5ff

style F fill:#e1ffe1

7. 核心算法:反向传播(Backpropagation) ​7.1 问题的提出 ​神经网络可能有数百万甚至数十亿个参数,如何高效地计算每个参数的梯度?

朴素方法:对每个参数,计算损失函数的数值导数

∂L∂w≈L(w+ϵ)−L(w)ϵ问题:需要对每个参数分别进行前向传播,计算量巨大!

解决方案:反向传播算法(Backpropagation)

7.2 反向传播的核心思想 ​反向传播利用链式法则(Chain Rule),从输出层开始,逐层向前计算梯度,高效地得到所有参数的梯度。

预览 代码graph LR

subgraph 前向传播

A[输入 x] -->|W₁,b₁| B[隐藏层 z₁,a₁]

B -->|W₂,b₂| C[输出层 z₂,a₂]

C --> D[损失 L]

end

subgraph 反向传播

D -.->|∂L/∂a₂| C

C -.->|∂L/∂W₂, ∂L/∂b₂| B

B -.->|∂L/∂W₁, ∂L/∂b₁| A

end

style A fill:#e1f5ff

style D fill:#ffe1e1

关键步骤:

前向传播:计算每一层的输出,直到得到最终的损失计算输出层梯度:∂L∂a(L)反向传播梯度:利用链式法则,从后向前计算每一层的梯度更新参数:使用计算得到的梯度更新所有权重和偏置7.3 链式法则回顾 ​如果 y=f(u) 且 u=g(x),那么:

dydx=dydu⋅dudx对于多变量的情况:

∂L∂x=∑i∂L∂ui⋅∂ui∂x7.4 反向传播的数学推导 ​考虑一个简单的两层网络:

前向传播:

z(1)=W(1)x+b(1)a(1)=f(1)(z(1))z(2)=W(2)a(1)+b(2)a(2)=f(2)(z(2))L=loss(a(2),y)反向传播:

第 2 层(输出层):

损失对输出的梯度:

δ(2)=∂L∂z(2)=∂L∂a(2)⊙f′(2)(z(2))其中 ⊙ 表示逐元素乘法(Hadamard product)

损失对权重和偏置的梯度:

∂L∂W(2)=δ(2)(a(1))T∂L∂b(2)=δ(2)第 1 层(隐藏层):

通过第 2 层传递回来的梯度:

δ(1)=∂L∂z(1)=(W(2))Tδ(2)⊙f′(1)(z(1))损失对权重和偏置的梯度:

∂L∂W(1)=δ(1)xT∂L∂b(1)=δ(1)7.5 反向传播的一般公式 ​对于第 l 层(l

δ(l)=(W(l+1))Tδ(l+1)⊙f′(l)(z(l))∂L∂W(l)=δ(l)(a(l−1))T∂L∂b(l)=δ(l)关键观察:

每一层的梯度 δ(l) 可以通过下一层的梯度 δ(l+1) 计算得到这就是"反向传播"名字的由来:梯度像波一样从后向前传播8. 完整的训练流程 ​将前面所有内容整合在一起,神经网络的训练过程如下:

预览 代码graph TD

A[1. 初始化参数 W, b] --> B[2. 前向传播]

B --> C[3. 计算损失 L]

C --> D[4. 反向传播计算梯度]

D --> E[5. 更新参数 θ = θ - η∇L]

E --> F{是否收敛?}

F -->|否| B

F -->|是| G[训练完成]

style A fill:#e1f5ff

style G fill:#e1ffe1

8.1 详细步骤 ​步骤 1:初始化

随机初始化所有权重 W(l)(通常使用小的随机数)将偏置 b(l) 初始化为 0步骤 2:前向传播

将训练数据输入网络逐层计算,得到最终的预测 y^步骤 3:计算损失

根据预测值和真实标签,计算损失 L步骤 4:反向传播

从输出层开始,逐层向前计算梯度得到所有参数的梯度 ∂L∂W(l) 和 ∂L∂b(l)步骤 5:更新参数

使用梯度下降更新所有参数步骤 6:重复

重复步骤 2-5,直到损失收敛或达到预设的迭代次数8.2 批量训练(Mini-batch Training) ​在实践中,我们通常不会使用全部数据计算梯度(太慢),也不会只使用一个样本(太不稳定)。而是使用小批量(mini-batch):

将训练数据划分为多个小批量,每个批量包含 B 个样本(例如 B=32,64,128)对每个批量: 前向传播计算所有样本的预测计算批量的平均损失反向传播计算梯度更新参数遍历完所有批量称为一个 epoch9. 总结 ​本教程介绍了神经网络的基本数学原理:

核心概念 ​神经元:基本计算单元,执行线性组合 + 激活函数线性层:多个神经元的组合,用矩阵运算表示激活函数:引入非线性,增强网络的表达能力前向传播:输入数据逐层向前传递,得到预测损失函数:衡量预测与真实值的差距梯度下降:通过迭代优化来最小化损失反向传播:利用链式法则高效计算梯度训练神经网络的核心步骤 ​ 预览 代码flowchart LR

A[输入数据] --> B[前向传播]

B --> C[计算损失]

C --> D[反向传播]

D --> E[参数更新]

E --> F{收敛?}

F -->|否| B

F -->|是| G[完成]

style A fill:#e1f5ff

style G fill:#e1ffe1

深入理解的建议 ​动手实现:尝试从零开始实现一个简单的神经网络可视化:使用工具可视化损失曲线、参数分布等实验:尝试不同的网络结构、激活函数、学习率等阅读框架代码:研究 PyTorch、TensorFlow 等框架的实现神经网络的数学原理并不复杂,关键在于理解每个组件的作用以及它们如何协同工作。掌握这些基础知识后,你就可以深入学习更高级的主题,如卷积神经网络(CNN)、循环神经网络(RNN)、Transformer 等。

关联

链接