手记

机器学习起步-k-最近邻算法

这段时间去了解了下机器学习中常见的一些算法,一下东西挺多的,要花时间补下相关的数学了,这里总结一下学习的一些相关的知识点,非常感谢慕课网bobo老师即通俗易懂和不缺乏深度的讲解,其它的就不多说了,进入正题。

简单介绍

这里先简单说一下机器学习的环境,我是在ubuntu17.04下面安装的Anaconda,它集成了很多数据处理、科学计算和机器学习相关的库和一些强大的工具。直接在官网下载,然后在命令行模式下用

sh xxx你下载的包xxx

安装后,配置下环境变量,

vim ~/.bashrc
#打开后在最后一行加上
export PATH="/xxx/anaconda3/bin:$PATH"

这里注意一下当前是什么用户,并且用命令行去配置下次重启就又没有了,这样配置没有用的话
直接打开/etc/environment文件,把anaconda安装目录的bin文件夹路径加到后面。
安装好后可以

#查看当前conda环境下所有的库以及工具
conda list
#使用jupyter notebook
jupyter notebook --allow-root 

这样就完成了安装以及环境变量的配置。

k-最近邻算法,即kNN,是数据的分类也是机器学习里面运用的数学基础较少的一种算法,可以解释机器学习算法使用过程中的很多细节问题,更易于熟悉机器学习的一个流程。kNN,也就是在一个特征平面,去寻找离一个点x距离最近的k个点,然后根据这几个点的特征,来判断点x是属于哪个特征的点,这个k就是使用该机器学习模型进行预测时的一个超参数,至于怎样取,就要结合距离的模型去进行选取。

而整个机器学习的过程也就是使用机器学习的算法对数据进行训练,得到一个模型,最后把需要预测的数据放入到模型里面,得到需要预测的结果。这里就kNN而言,计算距离的方式可以用欧拉距离,

具体实现

其实这些东西sklearn库都已经进行了封装,不过初学时为了更加清楚这个过程和算法的原理,有必要自己去实现一遍
看看如下的代码

class KNNClassifier:

    def __init__(self, k):
        """ 初始化KNN分类器"""
        assert k >= 1, "k must be valid"
        self.k = k
        self._X_train = None
        self._y_train = None

    def fit(self, X_train, y_train):
        """根据训练集X_train和y_tarin训练KNN分类器"""
        assert X_train.shape[0] == y_train.shape[0], \
            "the size of X_train must be equal to the size of y_train"
        assert self.k <= X_train.shape[0], \
            "the size of X_train must be at least k."
        self._X_train = X_train
        self._y_train = y_train
        return self

    def predict(self, X_predict):
        """定带预测数据集X_predict, 返回表示X_predict的结果向量"""
        assert self._X_train is not None and self._y_train is not None, \
             "must fit before predict!"
        assert X_predict.shape[1] == self._X_train.shape[1], \
             "the feature number of X_predict must be equal to X_train"

        y_predict = [self._predict(x) for x in X_predict]
        return np.array(y_predict)

    def _predict(self, x):
        """给定单个预测数据x, 返回x的预测结果值"""

        assert x.shape[0] == self._X_train.shape[1], \
            "the feature number of x must be equal to X_train"

        distances = [sqrt(np.sum((x_train - x) ** 2)) for x_train in self._X_train]

        nearest = np.argsort(distances)

        topK_y = [self._y_train[i] for i in nearest[:self.k]]
        votes = Counter(topK_y)

        return votes.most_common(1)[0][0]

    def score(self, X_test, y_test):
        """根据测试数据集X_test和y_test确定当前模型的精准度"""
        y_predict = self.predict(X_test)
        return accuracy_score(y_test, y_predict)

    def __repr__(self):
        return "KNN(k=%d)" % self.k

这里新建了一个KNNClassifier类文件,下面实现了一些方法,fit()用来进行模型的训练,当然kNN算法中,不需要进行模型的训练,因为使用计算距离的方式去预测待预测数据的特征,其实就相当于是放入到一个已经被训练好的模型,然后predict()方法里面传入被待预测的数据,再到_predict()这个私有方法里面去进行预测,预测过程也比较简单,就是计算距离后,使用argsort()对距离的索引进行排序,然后在这些数据里面寻找最近几个点的索引。最后再用Counter()计算这些特征点中数量最多的是哪个点,就可以得到待预测的点最有肯属于哪个特征。
然后看看score方法,用来求解当前模型的准确度,如下

def accuracy_score(y_true, y_predict):
    '''计算y_true和y_predict之间的准确率'''
    assert y_true.shape[0] == y_predict.shape[0], \
        "the size of y_true must be equal to the size of y_predict"

    return sum(y_true ==  y_predict) / len(y_true)

因为这里是使用的已有的数据,所以把数据进行拆分,分为训练数据集和测试数据集,通过计算算法的准确度,来更好的优化算法,根据相应的模型选取最合适的超参数。
将数据的拆分过程如下

def train_test_split(X, y, test_ratio=0.2, seed=None):
    """将数据 X 和 y 按照test_ratio分割成X_train, X_test, y_train, y_test"""
    assert X.shape[0] == y.shape[0], \
        "the size of X must be equal to the size of y"
    assert 0.0 <= test_ratio <= 1.0, \
        "test_ration must be valid"

    if seed:
        np.random.seed(seed)

    shuffled_indexes = np.random.permutation(len(X))

    test_size = int(len(X) * test_ratio)
    test_indexes = shuffled_indexes[:test_size]
    train_indexes = shuffled_indexes[test_size:]

    X_train = X[train_indexes]
    y_train = y[train_indexes]

    X_test = X[test_indexes]
    y_test = y[test_indexes]

    return X_train, X_test, y_train, y_test

这里传入一个test_ratio,表示测试数据集所占的比例,默认为0.2,然后传入一个随机种子,过程就比较简单了,不多说了。最后可以拿sklearn中自带数据集在Jupter notebook中来进行一下测试,如图

超参数的选取

超参数是算法运行前需要决定的参数,选择合适的超参数能优化模型的准确度。前面知道了,k是一个超参数,但是这是只考虑距离的情况下,如果是下图的情况
考虑距离的权重,这里就很明显红色的权重要大于蓝色结点的权重,显然这个结点为红色的可能性更大,而不是像之前考虑离待预测结点最近结点的数量来进行预测。这里谈到距离的话,看看下图
第一个是曼哈顿距离,一般用于二维平面下的计算,可以据此推导出图中第三个公式,也就是明可夫斯基距离,其中就产生了一个新的超参数p。
这里可以使用网格搜索的方式来寻找最合适的超参数

param_grid = [
    {
        'weights' : ['uniform'],
        'n_neighbors' : [i for i in range(1, 11)]
    },
    {
        'weights' : ['distance'],
        'n_neighbors' : [i for i in range(1, 11)],
        'p' : [i for i in range(1, 6)]
    }
]

这里就列出需要搜索的2个超参数,第一个是之前提到的k,第二个就是2个超参数都考虑的情况下,注意第二个需要将weights指定为distance,也就是需要考虑距离。

knn_clf = KNeighborsClassifier()
from sklearn.model_selection import GridSearchCV

grid_search = GridSearchCV(knn_clf, param_grid)

然后

%time
grid_search.fit(X_train, y_train)

可以计算一下网格搜索的时间,这样超参数的选取就完成了。
并且搜索完后可以调用

grid_search.best_params_

来获取查找到的最佳的超参数。

数据归一化

当数据的某几个特征值相差比较大时,模型整体的准确度就会比较低,并且在进行网格搜索时也是非常耗时的,所以最后将特征值较大的特征进行归一化处理,也就是使用某种方式使它的值映射到0-1之间,可以使用

1.最值归一化


它比较适用于数据分布有明显边界的情况下。

2.均值方差归一化


其中x表示特征值,Xmean表示特征值的平均数,S表示特征值的方差。
即把所有数据归一到均值为0,方差为1的分布中。
适用于分布没有明显的边界,可能存在极端数据值。

总结

kNN算法是机器学习中比较基础的方式,但确照样要做多次的优化才能得到最佳的模型。这里也只是整理的大体上的一些,体验一把机器学习中的流程。

7人推荐
随时随地看视频
慕课网APP