🤔
K-近邻算法概述
- 简单的说,K-近邻算法采用测量不同特征值之间的距离方法进行分类。
- 优点:精度高,对异常值不敏感,无数据输入假定。
- 缺点:计算复杂度高,空间复杂度高。
- 适用范围:数值型和标称型。
K-近邻算法工作原理
存在一个样本数据集合,可以称之为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最邻近数据的分类标签。一般来说我们只选择样本数据集中前k个最相似的数据,这就是K-近邻算法中k的由来,通常k是不大于20的整数。最后选择k个最相似数据中出现次数最多的分类,作为新数据的分类。
- 下边是K-近邻算法的一个示例:
- 收集数据:提供文本文件。
- 准备数据:使用python解析文件。
- 分析数据:使用Matplotlib画二维扩散图
- 训练算法:
- 测试算法:以文件部分数据作为测试样本
- 使用算法:可以输入特征数据以判断是否正确
1 | ''' |