继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

【九月打卡】第二天 单、多层感知机

zengxing358
关注TA
已关注
手记 46
粉丝 2
获赞 0

学习课程:玩转机器学习之神经网络,系统入门算法工程师

章节名称:第2章 入门必修:单、多层感知机

讲师:Markov_Xi

课程内容:

逻辑回归

http://img2.sycdn.imooc.com/631846e600016e1213930785.jpg

在对线性回归模型的预测结果取对数几率来让其的结果无限逼近0和1。因此,其对应的模型被称为”对数几率回归“(logistic Regression),也就是逻辑回归,这个名为“回归”却是用来做分类工作的分类器。

http://img3.sycdn.imooc.com/631843080001506313850772.jpg

Sigmoid函数的公式和性质

Sigmoid函数是一个S型的函数,当自变量z趋近正无穷时,因变量g(z)趋近于1,而当z趋近负无穷时,g(z)趋近

于0,它能够将任何实数映射到(0,1)区间,使其可用于将任意值函数转换为更适合二分类的函数。

因为这个性质,Sigmoid函数也被当作是归一化的一种方法,与MinMaxSclaer原理一致,是属于

数据预处理中的“缩放”功能,可以将数据压缩到[0,1]之内。区别在于,MinMaxScaler归一化之后,是可以取

到0和1的(最大值归一化后就是1,最小值归一化后就是0),但Sigmoid函数只是无限趋近于0和1。

http://img3.sycdn.imooc.com/631846130001581a13840782.jpg

损失函数

衡量参数的优劣的评估指标,用来求解最优参数的工具

损失函数小,模型在训练集上表现优异,拟合充分,参数优秀

损失函数大,模型在训练集上表现差劲,拟合不足,参数糟糕

我们追求,能够让损失函数最小化的参数组合

注意:没有”求解参数“需求的模型没有损失函数,比如KNN,决策树


http://img1.sycdn.imooc.com/63183b5f0001c65d13850779.jpg

单层/多层感知机

http://img4.sycdn.imooc.com/63183f060001fe2513810775.jpg

http://img2.sycdn.imooc.com/631843950001c09413820778.jpg


学习收获:

1、对逻辑回归有了进一步认识

2、对单层、多层感知机及深度学习的关系加深了理解

3、对深度学习的流程有全貌的概览

4、对pytorch实现以及数学公式像代码转换有了一定的训练

5、对深度学习工程项目结构有了新的认知


打卡截图:

http://img2.sycdn.imooc.com/6318391a00011e3013790778.jpg

http://img3.sycdn.imooc.com/63183fa20001edcd13860780.jpg


打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP