源码:https://github.com/iOSDevLog/slmethod
原理
假设输入空间(特征空间)是 $\mathrm{x} \subseteq \mathrm{R}^{n}$,输出空间是$y={+1,-1}$
模型
称为 感知机。
- $\mathrm{w}$ 和 $\mathrm{b}$ 为感知机模型参数
- $\mathrm{w} \subseteq \mathrm{R}^{n}$叫作权重/权值(weight)或权值向量(weight vector)
- $\mathrm{b} \in \mathrm{R}$ 叫作偏置(bias)
- $\mathbf{w} \cdot \mathbf{x}$ 表示 $\mathbf{w}$ 和 $\mathbf{x}$ 的内积
- $sign$ 是符号函数
策略
假设训练数据集是线性可分的 感知机学习的目标是求得一个能够将训练集正实例点和负实例点完全正确分开的分离超平面。为了找出这样的超平面,即确定感知机模型参数$\mathrm{w}$ 和 $\mathrm{b}$ ,需要确定一个学习策略,即定义(经验)损失函数并将损失函数极小化。
损失函数的一个自然选择是误分类点的总数。
但是,这样的损失函数不是参数 w,b 的连续可导函数,不易优化。
损失函数的另一个选择是误分类点到超平面 S 的总距离,这是感知机所采用的。
所有误分类点到超平面 S 的总距离为
不考虑$\frac{1}{|w|}$,就得到感知机学习的损失函数。
算法
原始形式
输入:训练数据集 $\mathrm{T}=\left{\left(\mathrm{x}{1}, \mathrm{y}{1}\right),\left(\mathrm{x}{2}, \mathrm{y}{2}\right), \ldots,\left(\mathrm{x}{\mathrm{N}}, \mathrm{y}{\mathrm{N}}\right)\right}$,其中 $\mathrm{x}{\mathrm{i}} \in \mathrm{x}=\mathrm{R}{\mathrm{n}}, \quad \mathrm{y}_{\mathrm{i}} \in \mathcal{Y}={-1,+1}, \quad \mathrm{i}=1,2\ldots, \mathbf{N}$;学习率$\eta(0<\eta \leq 1)$;
输出:$\mathrm{w}, \mathrm{b}$;感知机模型 $f(x)=\operatorname{sign}(w \cdot x+b)$。
- 选取初值 $\mathbf{w}{0}, \mathbf{b}{0}$
- 在训练集中选取数据 $\left(\mathrm{x}{\mathrm{i}}, \mathrm{y}{\mathrm{i}}\right)$
- 如果 $\mathrm{y}{\mathrm{i}}\left(\mathrm{y} \cdot \mathrm{x}{\mathrm{i}}+\mathrm{b}\right) \leq 0$
- 转至 2,直至训练集中没有误分类点。
1 | # 原始 |
这种学习算法直观上有如下解释:
当一个实例点被误分类,即位于分离超平面的错误一侧时,则调整 w,b 的值,使分离超平面向该误分类点的一侧移动,以减少该误分类点与超平面间的距离,直至超平面越过该误分类点使其被正确分类。
算法是感知机学习的基本算法,对应于后面的对偶形式,称为原始形式。
感知机学习算法简单且易于实现。
感知机学习算法的对偶形式
- $a \leftarrow 0, \quad b \leftarrow 0$
- 在训练集中选取数据 $\left(x{i}, y{i}\right)$
- 如果 $ y{i}\left(\sum{j=1}^{N} \alpha{j} y{j} x{j} \cdot x{i}+b\right) \leqslant 0 $
- 转至 2 直到没有误分类数据。
1 | # 对偶形式 |
对偶形式中训练实例仅以内积的形式出现。为了方便,可以预先将训练集中实例间的内积计算出来并以矩阵的形式存储,这个矩阵就是所谓的 Gram 矩阵(Gram matrix)。
测试
pytest fixture
中的 pytest.mark.parametrize
装饰器可以实现用例参数化。
这里直接传进 5 组参数。
1 | import pytest |
具体代码可查看 GitHub: https://github.com/iOSDevLog/slmethod/blob/master/slmethod/test/test_perceptron.py
动画
https://matplotlib.org/api/animation_api.html
只展示 2D 数据
1 | def show2d(self, name=None): |
取 X 最小值与最大值用于画直线
1 | minX = np.min(self.X[:, 0]) |
导入相关库
1 | from matplotlib import pyplot as plt |
静态图
1 | fig, ax = plt.subplots() |
更新动画
接着,构造自定义动画函数 update
,用来更新每一帧上各个 x 对应的 y 坐标值,参数表示第 i 帧:
1 | def update(iter): |
初始化
然后,构造开始帧函数 init
:
1 | def init(): |
生成动画
接下来,我们调用 FuncAnimation 函数生成动画。
参数说明:
- fig 进行动画绘制的 figure
- func 自定义动画函数,即传入刚定义的函数 update
- frames 动画长度,一次循环包含的帧数
- init_func 自定义开始帧,即传入刚定义的函数 init
- interval 更新频率 ms
1 | anim = FuncAnimation(fig, |
显示动画
1 | plt.show() |
保存 gif
1 | anim.save(name, writer="imagemagick") |
保存和显示不能同时,不知道为什么?
具体代码请查看:https://github.com/iOSDevLog/slmethod/blob/master/slmethod/perceptron.py
使用
pip
安装
1 | pip install slmethod |
使用方法和 sklearn
非常相似,以下步骤可省略部分。
- 获取数据
- 数据预处理
- 划分测试集与训练集
- 估计器拟合
- 可视化
- 预测测试集
1 | import numpy as np |
生成测试聚类
1 | import numpy as np |
GitHub 源码:https://github.com/iOSDevLog/slmethod/blob/master/example/perceptron.py