手记

【九月打卡】第二天 单、多层感知机

学习课程:玩转机器学习之神经网络,系统入门算法工程师

章节名称:第2章 入门必修:单、多层感知机

讲师:Markov_Xi

课程内容:

逻辑回归

在对线性回归模型的预测结果取对数几率来让其的结果无限逼近0和1。因此,其对应的模型被称为”对数几率回归“(logistic Regression),也就是逻辑回归,这个名为“回归”却是用来做分类工作的分类器。

Sigmoid函数的公式和性质

Sigmoid函数是一个S型的函数,当自变量z趋近正无穷时,因变量g(z)趋近于1,而当z趋近负无穷时,g(z)趋近

于0,它能够将任何实数映射到(0,1)区间,使其可用于将任意值函数转换为更适合二分类的函数。

因为这个性质,Sigmoid函数也被当作是归一化的一种方法,与MinMaxSclaer原理一致,是属于

数据预处理中的“缩放”功能,可以将数据压缩到[0,1]之内。区别在于,MinMaxScaler归一化之后,是可以取

到0和1的(最大值归一化后就是1,最小值归一化后就是0),但Sigmoid函数只是无限趋近于0和1。

损失函数

衡量参数的优劣的评估指标,用来求解最优参数的工具

损失函数小,模型在训练集上表现优异,拟合充分,参数优秀

损失函数大,模型在训练集上表现差劲,拟合不足,参数糟糕

我们追求,能够让损失函数最小化的参数组合

注意:没有”求解参数“需求的模型没有损失函数,比如KNN,决策树


单层/多层感知机


学习收获:

1、对逻辑回归有了进一步认识

2、对单层、多层感知机及深度学习的关系加深了理解

3、对深度学习的流程有全貌的概览

4、对pytorch实现以及数学公式像代码转换有了一定的训练

5、对深度学习工程项目结构有了新的认知


打卡截图:


0人推荐
随时随地看视频
慕课网APP