继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

LDA有标签数据降维

千万里不及你
关注TA
已关注
手记 313
粉丝 51
获赞 237

之前无标签数据降维PCA,那么像下图带有标签数据,如果用PCA降维将会投影到v轴上,这个投影方差最大,数据将变成不可分状态,LDA将把数据投影加上已有分类这个变量,将数据投影到u轴上


https://img3.mukewang.com/5d57807a0001b9e005400501.png

假设原数据分成n类,用矩阵Di表示i类数据,均值向量mi,将设将数据投影到向量w上后,均值分别为Mi,向量w模长为1,则有


https://img4.mukewang.com/5d57807d0001673d06300710.png

https://img3.mukewang.com/5d5780940001f66e06710772.png


https://img2.mukewang.com/5d5780a90001ebe506520405.png

的最大特征值

例子

from numpy.random import random_sampleimport numpy as np# fig = plt.figure()N = 600# 设椭圆中心centercx = 5cy = 6a = 1/8.0b = 4X,scale = 2*a*random_sample((N,))+cx-a,60Y = [2*b*np.sqrt(1.0-((xi-cx)/a)**2)*random_sample()+cy-b*np.sqrt(1.0-((xi-cx)/a)**2) for xi in X]
colors = ['green', 'green']*150fig, ax = plt.subplots()
fig.set_size_inches(4, 6)
ax.scatter(X, Y,c = "none",s=scale,alpha=1, edgecolors=['green']*N)
X1,scale = 2*a*random_sample((N,))+cx-a,60Y1 = [2*b*np.sqrt(1.0-((xi-cx)/a)**2)*random_sample()+cy-b*np.sqrt(1.0-((xi-cx)/a)**2) for xi in X1]
ax.scatter(X1+0.3, Y1,c = "none",s=scale,alpha=1, edgecolors=['red']*N)
plt.savefig('lda.png')
plt.show()

https://img.mukewang.com/5d5781020001ece903690518.png

自己实现

D1 = np.array([X, Y])
D2 = np.array([X1+0.3, Y1])
m1 = np.mean(D1, axis=1)
m1 = m1[None,]print m1
m2 = np.mean(D2, axis=1)
m2 = m2[None,]print m2
SA = np.dot((m1-m2).T,(m1-m2))
S1 = np.dot(D1-m1.T,(D1-m1.T).T)print S1
S2 = np.dot(D2-m2.T,(D2-m2.T).T)
SB = S1+S2
S = np.dot(np.linalg.inv(SB), SA)
evalue, evec = np.linalg.eig(S)
data1 = np.dot(evec[:,0], D1)
plt.scatter(data1, [0]*data1.size,c = 'g',s=scale,alpha=1, edgecolors=['none']*N)
data2 = np.dot(evec[:,0], D2)
plt.scatter(data2, [0]*data2.size,c = 'r',s=scale,alpha=1, edgecolors=['none']*N)
plt.show()

https://img2.mukewang.com/5d5781070001e41b05340353.png

调用sklearn

from sklearn.lda import LDA
lda = LDA(n_components=1)
X3 = np.column_stack((D1,D2))print X3.shape
Y = np.ones(X3.shape[1])print Y.shape
Y[0:N/2]=0X_trainn_lda = lda.fit_transform(X3.T, Y.T)print X_trainn_lda.shape
xy = X_trainn_lda.size
plt.scatter(X_trainn_lda, [0]*xy,c = (['g']*(xy/2)+['r']*(xy/2)),s=scale,alpha=1, edgecolors=['none']*N)
plt.show()

https://img3.mukewang.com/5d57810b00011e9f05270341.png


完美投影成两个线段,

多个分组情况

下图是由一个三维空间的三组数据,降维到二维的投影


https://img4.mukewang.com/5d5781110001df3104060303.png



不再是一个向量,而是一个矩阵形式,

https://img2.mukewang.com/5d57811400018e0d00730047.png

分子分母需要重新刻画,多维数据离散程度用协方差来刻画,分子可以用每组均值数据的协方差来表示

https://img3.mukewang.com/5d5781180001451409100432.png


最后是两个矩阵的比值,这个没有具体的意义,pca知变换后特征值大小代表在该特征向量下投影的离散程度,而特征值的乘积=矩阵行列式,那么

https://img.mukewang.com/5d57811e0001db8202780130.png


例子

import scipy.io as sio  
from mpl_toolkits.mplot3d import Axes3Dimport matplotlib.pyplot as pltfrom sklearn.decomposition import PCAfrom numpy.random import random_sampleimport numpy as np
ax=plt.subplot(111,projection='3d') #创建一个三维的绘图工程N = 200scale = 60# 设椭球中心centercx = 2cy = 2cz = 2a = 1.0b = 1.5c = 4.0def plot(cx,cy,cz, a,b,c,N, color):
    X,scale = 2*a*random_sample((N,))+cx-a,60
    Y = [b*np.sqrt(1.0-((xi-cx)/a)**2)*(2*random_sample()-1)+cy for xi in X]
    Z = [c*np.sqrt(1-((xi-cx)/a)**2-((yi-cy)/b)**2)*(2*random_sample()-1)+cz for xi, yi in zip(X,Y)]
    ax.scatter(X, Y, Z,c = color,s=scale,alpha=1, edgecolors=['none']*N)
    lr =  np.array((X,Y,Z))    return lr
data1 = plot(cx,cy,cz,a,b,c,N, 'b')
data2 = plot(cx+3,cy,cz,a,b,c,N,'r')
data3 = plot(cx,cy+4,cz,a,b,c,N,'g')
data = np.hstack((data1,data2,data3))print data.shape
pca = PCA(n_components=2)
X_train_pca = pca.fit_transform(data)print X_train_pca.shape
train = np.dot(X_train_pca.T, data)
ax.set_xlim([0,5])
ax.set_ylim([0,5])
ax.set_zlim([0,5])
ax.set_xlabel("X")
ax.set_ylabel("Y")
ax.set_zlabel("Z")

plt.show()

生成三个椭球,数据点红、绿、蓝三组


https://img3.mukewang.com/5d5781220001b23204130330.png


PCA降维后数据

plt.scatter(train[0,:], train[1,:],c = (['r']*N+['g']*N+['b']*N),s=scale,alpha=1, edgecolors=['none']*N)
plt.show()

https://img.mukewang.com/5d5781240001a32d04070271.png


LDA降维后数据

m1 = np.mean(data1, axis=1)[None,].T
m2 = np.mean(data2, axis=1)[None,].T
m3 = np.mean(data3, axis=1)[None,].Tprint m1.shape
m = np.hstack((m1,m2,m3))
mTotal = np.mean(data, axis=1)[None,].T

SA = np.dot(m-mTotal, (m-mTotal).T)
SB = np.dot(data1-m1, (data1-m1).T)+np.dot(data2-m2, (data2-m2).T)+np.dot(data3-m3, (data3-m3).T)

S = np.dot(np.linalg.inv(SB), SA)
evalue, evec = np.linalg.eig(S)
myTrain =np.dot(evec, data)
plt.scatter(myTrain[0,:], myTrain[1,:],c = (['r']*N+['g']*N+['b']*N),s=scale,alpha=1, edgecolors=['none']*N)
plt.show()

https://img.mukewang.com/5d57812900012e4004220290.png


调用sklearn

from sklearn.lda import LDA
lda = LDA(n_components=2)
y_train =[0]*N+[1]*N+[2]*N
y_train = np.array(y_train)
X_train_lda = lda.fit_transform(data.T, y_train.T)print X_train_lda.shape
plt.scatter(X_train_lda.T[0,:], X_train_lda.T[1,:],c = (['r']*N+['g']*N+['b']*N),s=scale,alpha=1, edgecolors=['none']*N)
plt.show()

注意 矩阵并不一定可逆,可以先进行pca降维,再LDA



作者:14142135623731
链接:https://www.jianshu.com/p/28da5c160230


打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP