大型神经网络
加入矩阵维度
输入->隐含->输出->结果值
大型神经网络结构概念式
向量化之后的最后表达式
网格向量化具体过程
W、B要把X转变为a这中维度
网络向量化
为了反向调整w、b的值,修改正向传播的计算公式:
z = wT*x+b
输入几个x,w的第一纬就是几;比如这里有3个x,则w就是3行;
该层有几个细胞,w的第二维就是几;比如这里隐含层有4个细胞,则w就是4列。
然后,w转置后,与x相乘;
该层有几个细胞,b的第一维就是几;这里b是4行1列。
输出层,也是,一个细胞,四个输入;则w是4行1列,b是1行1列。
神经网络的网络向量化
神经网络的向前传播、运算、预测——神经网络的网络向量化,对向量化进行计算的过程
x = a ^n-1
結果顯示:
逻辑回归关系(线性组合W与b、激活函数g)
向點結果a
对各层而言处理W和b的自身格式不同,其处理过程相似都可以归纳为
注:这里的x可以为输入,也可以为上一层的输出a n-1
可以将上述过程总结为
各层之间都存在的逻辑回归关系(线性组合W与b、激活函数g),各层间的W和b需满足一定格式来实现矩阵维度的变化,如截图所示
网络向量化:
也叫 神经网络向前传播/神经网络的预测
对于一个单隐藏层神经网络(如图1),其各层的输入输出可以表示为(见截图),x1、x2、x3表示输入层的输入,a11~a41表示隐藏层的4个输出,a2表示输出层的输出
就是神经网络图形化设计转化为向量表示的公式化
网络向量化推广的表达式
网络向量化=神经网络向前传播=神经网络的预测