继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

吴恩达深度学习课程记录

无无法师
关注TA
已关注
手记 44
粉丝 54
获赞 130

it is possible to use both L2 regularization and dropout

np.sum

图片描述
没有指明维度,那么np.sum计算的是整个矩阵的和

L2_regularization_cost

图片描述

### START CODE HERE ### (approx. 1 line)
    L2_regularization_cost = np.sum((np.sum(np.square(W1)),np.sum(np.square(W2)),np.sum(np.square(W3))))*lambd/(2*m)

L2_regularization_cost 适合于希望超参数少的情况,现在只需要调lambd
如果lambd太大的话,分类就会太“平滑”,导致高偏差.

打开App,阅读手记
1人推荐
发表评论
随时随地看视频慕课网APP