继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

机器学习虾扯蛋之SVD奇异值分解No.48

一名叫大蕉的程序员
关注TA
已关注
手记 101
粉丝 118
获赞 464

机器学习说难不难,说简单也不简单。跟着小蕉有饭吃。

今天分享的是机器学习里面一个寻找主要成分的算法,SVD (Singularly Valuable Decomposition) 奇异值分解。

首先寻找主要成分有什么最最最最主要的用处呢?

1、噪音过滤

2、数据压缩

奇异值分解,其实就是矩阵分解的一种,本次矩阵分解的模式是这样的,其中中间的 ∑ 就是奇异值矩阵。

http://img1.mukewang.com/5e0d9f6b0001144301180040.jpg

假设A是一个m*n的矩阵,那么U就是一个m*m的,∑是一个m*n的,V是一个n*n的,这样子就可以将目标矩阵A用三个矩阵相乘来表示了。

而经过实验,我们发现 ∑ 的奇异值其实并不是每一个值都是很大的,一般取 Top r 个就足以表示这整个矩阵了。

所以得出了下面这么一个不等式。http://img2.mukewang.com/5e0d9f6c0001b5c602040045.jpg

(r是一个远小于m,n的数)

这时候矩阵所占的容量从m*n变为m*r+r*r+r*n,因为Σ是奇异值大小排列取前 r 个的,所以就做到了提取主要成分的效果,而因为容量变小了,所以也起到了压缩的作用。

好,原理是怎样已经解释清楚了,那么问题来了,这个奇异值要怎么求呢?老司机告诉我们,就这样分五步走。

1、进行矩阵变换,从A变为  http://img2.mukewang.com/5e0d9f6c00015e9600770051.jpg

2、求特征值λ,特征向量v。

http://img2.mukewang.com/5e0d9fa50001cb3c01560044.jpg

3、奇异值σi为http://img3.mukewang.com/5e0d9fc20001defb00370040.jpg,Σ的值为λ组成的对角矩阵。

4、左奇向量值U等于特征向量v。

5、右奇异向量值V为  1/σi * (A * vi)

当然你要是不会算,也没关系,作为手残党我自己也经常算不出来。已经有很多现成的库帮我们计算好了,并不需要我们自己算,比如sklearn里面的长这样。

  from sklearn.decomposition import TruncatedSVD
  X = something
  svd = TruncatedSVD(n_components=2)   X_reduced = svd.fit_transform(X)

又比如Spark里面是这样玩的。

val mat:RowMatrix = new RowMatrix(dataRDD)    
val svd: SingularValueDecomposition[RowMatrix,Matrix] = mat.computeSVD(2,computeU = true)    
 val U:RowMatrix = svd.U //U矩阵
 val s:Vector = svd.s //奇异值
 val V:Matrix = svd.V //V矩阵

好了,今天就分享到这~掰掰~

打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP