花一个多小时学完了这门神经网络简介这门课程
课程链接:https://www.imooc.com/learn/930
对其有了一些了解
这门课程和数学有很大的联系,让我感受到了数学的神奇伟大美丽
课程中用到了求导、线性函数、非线性函数即线性组合、非线性处理。
大概就是用局部的线性函数来表示全体的非线性函数,类似积分了
比较重要的一张图
单层神经网络:原始值、隐含层、输出层、输出值。神奇的x与y,好强大
运用到了线性组合、非线性处理:
解决非线性问题,每一个神经元,将输入值进行线性组合,然后转化为非线性结果
认识了几个函数:
梯度下降,损失函数,激励(活)函数
逻辑回归模型
反向传播算法,个人理解就是通过电脑计算机判断,如果错误就返回给一个信号,然后计算机修改
然后不断的改正错误和刺激,来达到人工智能神经网络
激励函数暂时学了三种
默认ReLU函数
Sigmoid函数,(需要整个区间可导)
tanh函数