手记

神经网络简介

花一个多小时学完了这门神经网络简介这门课程

课程链接:https://www.imooc.com/learn/930

对其有了一些了解

  • 这门课程和数学有很大的联系,让我感受到了数学的神奇伟大美丽

    课程中用到了求导、线性函数、非线性函数即线性组合、非线性处理。


  • 大概就是用局部的线性函数来表示全体的非线性函数,类似积分了

  • 比较重要的一张图

  • 单层神经网络:原始值、隐含层、输出层、输出值。神奇的x与y,好强大

  • 运用到了线性组合、非线性处理:

解决非线性问题,每一个神经元,将输入值进行线性组合,然后转化为非线性结果

  • 认识了几个函数:

    梯度下降,损失函数,激励(活)函数

  • 逻辑回归模型

  • 反向传播算法,个人理解就是通过电脑计算机判断,如果错误就返回给一个信号,然后计算机修改

    然后不断的改正错误和刺激,来达到人工智能神经网络

  • 激励函数暂时学了三种

  • 默认ReLU函数

  • Sigmoid函数,(需要整个区间可导)

  • tanh函数



1人推荐
随时随地看视频
慕课网APP