graph LR
A((x)) --w1--> B((N1)) -->C[F1] --w2--> D((N2)) -->E[F2] --w3--> F((y)) --分类/打分--> R[F3] --"惩罚"--> H[Loss]
H --优化w--> A
x: 特征向量
w: 权重矩阵
N: 神经元层
F: 激活函数(比如Rule函数)
y: 结果向量
Loss: 损失函数(比如归一化y向量)
惩罚: 惩罚函数(比如正则化w矩阵)
优化: 优化w的函数(比如梯度下降)
神经网络的目的在于通过训练集优化出合理的w矩阵
前向传播的目的是得到损失函数
反向传播的目的是优化w矩阵
最终得到一个满意的w矩阵,使得输入x向量,可以得到一个满意的输出(得到y向量,然后进行分类或打分)