全部训练损失函数
单次训练损失函数
全部训练损失:单次训练的加和平均化
学习值与原始值之间的差异性
y^是学习值,y是原始的标准值
全部训练的损失
学习出的Y值与真实的Y值之间的差距
学习出的Y值与原始集中给出的标准值之间的差异
单次训练损失
全部训练损失
单次训练损失
全部训练损失(就是把单次训练损失加起来)
损失函数判断学习产生的函数值和训练集给出的函数值之间的差异性。
不使用欧几里得距离(预测值与真实值做差)而使用log函数是因为,通过激励函数学习出的平面并不是凸函数平面,在后期做梯度下降(与是否是凸函数有关)时有多个局部极小值时,学习结果不准确。
-->使用log变成凸函数。
全部训练损失
单次训练损失
全部训练损失函数:(见截图)
对单次损失函数的累加
损失函数:
反映预测值与真实值直接的差异
单次损失函数:(见截图)
其中y^代表预测值,y代表真实值
注:这里不直接将预测值与真实值做差(欧几里得距离)而使用log函数是因为使用激活函数后,数据集学习得到的函数平面不是一个凸函数平面,在做梯度下降的时候(与是否凸函数有关系)如果有多个局部极小值的情况下,学习出来的结果会不准确