神经网络-网络模型


graph LR A((x)) --w1--> B((N1)) -->C[F1] --w2--> D((N2)) -->E[F2] --w3--> F((y)) --分类/打分--> R[F3] --"惩罚"--> H[Loss] H --优化w--> A

x: 特征向量
w: 权重矩阵
N: 神经元层
F: 激活函数(比如Rule函数)
y: 结果向量
Loss: 损失函数(比如归一化y向量)
惩罚: 惩罚函数(比如正则化w矩阵)
优化: 优化w的函数(比如梯度下降)


神经网络的目的在于通过训练集优化出合理的w矩阵

前向传播的目的是得到损失函数
反向传播的目的是优化w矩阵

最终得到一个满意的w矩阵,使得输入x向量,可以得到一个满意的输出(得到y向量,然后进行分类或打分)


文章作者: 钱不寒
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 钱不寒 !
  目录