维基介绍
在模式识别领域中,最近邻居法(KNN算法,又译K-近邻算法)是一种用于分类和回归的非参数统计方法[1]。在这两种情况下,输入包含特征空间(Feature Space)&action=edit&redlink=1)中的k个最接近的训练样本。
在k-NN分类中,输出是一个分类族群。一个对象的分类是由其邻居的“多数表决”确定的,k个最近邻居(k为正整数,通常较小)中最常见的分类决定了赋予该对象的类别。若k = 1,则该对象的类别直接由最近的一个节点赋予。
在k-NN回归中,输出是该对象的属性值。该值是其k个最近邻居的值的平均值。
最近邻居法采用向量空间模型来分类,概念为相同类别的案例,彼此的相似度高,而可以借由计算与已知类别案例之相似度,来评估未知类别案例可能的分类。
K-NN是一种基于实例的学习,或者是局部近似和将所有计算推迟到分类之后的惰性学习。k-近邻算法是所有的机器学习算法中最简单的之一。
无论是分类还是回归,衡量邻居的权重都非常有用,使较近邻居的权重比较远邻居的权重大。例如,一种常见的加权方案是给每个邻居权重赋值为1/ d,其中d是到邻居的距离。[注 1]
邻居都取自一组已经正确分类(在回归的情况下,指属性值正确)的对象。虽然没要求明确的训练步骤,但这也可以当作是此算法的一个训练样本集。
k-近邻算法的缺点是对数据的局部结构非常敏感。本算法与K-平均算法(另一流行的机器学习技术)没有任何关系,请勿与之混淆。
ARKit + Swift + k-NN 实现
创建 KNN 类(结构体 struct
也行,我是为了 与 sklearn
尽量一致)。
1 | /// KNN |
属性
1 | /// Number of neighbors to use by default for :meth:`kneighbors` queries |
数据:
k
: 指定取 k 个最接近的训练样本X
: 样本特征 (数组)一般要传数组的数组y
: 样本标签 (数组)
辅助:
distanceMetric
: 用来计算距离的函数debugRadiusCallback
: 调度时候用,主要是画出最近的 k 个样本范围
方法
1 | /// constructorLabels for xTest |
init()
: 构造函数 需要预先决定k
和距离计算方法fit()
: 拟合目标函数,kNN 不需要拟合,只要记下数据即可predict()
: 预测给定的特征,返回对应的标签
距离计算
1 | public struct Distance { |
这里使用 欧式距离(Euclidean Distance)
KNN 使用:
1 | func testKNN() { |
显示 2 维
1 | enum MLStep: Int { |
MLStep
: 分成 训练 和 预测 ,训练一次,可以一直预测。GeometryType
: 定义几种形状,这里定义给ARKIT
使用的
KNNViewController
1 | class KNNViewController: UIViewController { |
添加 Layer
到 panelView
上实现类别,2D 只分了三个类别,分别用 方形(红),三角形(蓝),花形(绿)表示。
使用 alpha
表示预测类别,以预测样本为中心画一个圈,圈内为最近的 k
个样本。
1 | func drawCircle(center: CGPoint, radius: CGFloat, alpha: CGFloat = 0.1) { |
圆内为 k
个样本。
ARKit 实现
能 3D 展示多好,别急,下面就是用 ARKit
实现的 3D 版本。
1 | class ARKNNViewController: UIViewController |
基本实现和 ARKNNViewController
类似。
1 | func drawSphere(center: SCNVector3, radius: Float) { |
这是画最外面的范围球体,球体内为 k
个样本。