眼眸繁星
它不能这样做,因为通过使用 PCA 减少维度,您丢失了信息(检查pca.explained_variance_ratio_您仍然拥有的信息百分比)。但是,它尽量回到原来的空间,看下图 (生成与import numpy as npfrom sklearn.decomposition import PCApca = PCA(1)X_orig = np.random.rand(10, 2)X_re_orig = pca.inverse_transform(pca.fit_transform(X_orig))plt.scatter(X_orig[:, 0], X_orig[:, 1], label='Original points')plt.scatter(X_re_orig[:, 0], X_re_orig[:, 1], label='InverseTransform')[plt.plot([X_orig[i, 0], X_re_orig[i, 0]], [X_orig[i, 1], X_re_orig[i, 1]]) for i in range(10)]plt.legend()plt.show()) 如果您保持 n_dimensions 相同(设置pca = PCA(2),您确实恢复了原始点(新点位于原始点之上):