Kmeans++及字典学习

匿名 (未验证) 提交于 2019-12-02 23:43:01

1. Kmeans++

Kmeans 中对聚类中心的初始化比较敏感,不同的初始值会带来不同的聚类结果,这是因为 Kmeans 仅仅是对目标函数求近似最优解,不能保证得到全局最优解。

在常规的 Kmeans 中,聚类中心的初始化都采用随机初始化的方式,这样会存在一个问题:如果数据在某个部分较密集,那么产生的随机数会以更高的概率靠近这些数据。

例如,假设输入数据为:

[0.8,0.85,0.9,0.95,1,1.05,1.1,1.2,3.0,3.1,3.2][0.8, 0.85, 0.9, 0.95, 1,1.05, 1.1, 1.2, 3.0, 3.1, 3.2],

如下图所示:

如果随机初始化两个聚类中心,那这两个聚类中心都会以更高的概率靠近 1.0 附近的数据,也就是说,很可能出现:随机初始化的两个聚类中心都聚类 1.0 附近的数据较近,这样会导致聚类效果不好。

为了解决上述问题,David Arthur 提出了 Kmeans++ 算法,该方法可以有效的产生好的聚类中心,过程如下:

1.从输入的数据点集合中随机选择一个点作为第一个聚类中心

2.对于数据集中的每一个点x,计算它与最近聚类中心(指已选择的聚类中心)的距离D(x)D(x)

3.选择一个新的数据点作为新的聚类中心,选择的原则是:D(x)D(x)较大的点,被选取作为聚类中心的概率较大

4.重复2和3直到k个聚类中心被选出来

5.利用这k个初始的聚类中心来运行标准的k-means算法


其中,第 3 步的实现为,先取一个能落在Sum(D(x))Sum(D(x))中的随机值 randomrandom,然后用random=D(x)random -= D(x),直到其<=0<=0,此时的点就是下一个“种子点”。

假设第一个聚类中心为 1,那么,所有输入数据与聚类中心的距离 D为:

D(x)=[0.2,0.15,0.1,0.05,0,0.05,0.1,0.2,2.,2.1,2.2]D(x) = [0.2, 0.15, 0.1, 0.05, 0, 0.05, 0.1, 0.2, 2., 2.1, 2.2]

DD 求前缀和,得到 D1D_1D1D_1为:

D1=[0.2,0.35,0.45,0.5,0.5,0.55,0.65,0.85,2.85,4.95,7.15]D_1 = [0.2, 0.35, 0.45, 0.5, 0.5, 0.55, 0.65, 0.85, 2.85, 4.95, 7.15]

如下图所示:

此时产生一个随机数 random(0,1)random∈(0, 1),并乘以 D1(end)=7.15D_1(end) = 7.15,那么,该数大于等于 0.85 的概率会非常大,假设为 4,那么第10 个数,4.95 是第一个大于 4 的数,就把输入数据中的第 10 个,也就是 3.1 作为新的聚类中心。

上述过程的意义为:让新的聚类中心以更大的概率远离已有的聚类中心,以避免聚类中心以高概率分布在数据密集的部份。

参考《Learning Feature Representations with K-means》。

从输入图像中截取图像块(可以有重叠),块的大小可以为8x8,16x16等,块的大小决定了样本的维度,为了得到更好的字典,块越大,需要的训练样本越多。对于 16x16 的块,100 000 个样本足以。然后把每个块拉成一维,并把所有的样本合并,组成一个矩阵:

X=[x1,x2,xi,...,xn]X=[x_1, x_2, x_i, ..., x_n]

其中xi=[xi1,xi2,...,xim]Tx_i = [x_{i1}, x_{i2}, ..., x_{im}]^T,m 为样本的维度,也就是图像块的大小,n 为样本的个数。

一般会对数据进行归一化,归一化的过程如下式所示:

x(i)=x~(i)mean(x~(i))var(x~(i))+ε{x^{(i)}} = \frac{{{{\tilde x}^{(i)}} - mean({{\tilde x}^{(i)}})}}{{\sqrt {{\mathop{\rm var}} ({{\tilde x}^{(i)}}) + \varepsilon } }}

其中,mean 表示x~(i){{\tilde x}^{(i)}} 的均值,varvar 表示x~(i){{\tilde x}^{(i)}}方差。对于图像数据,范围在[0-255],ε\varepsilon 可以取10,

白化是为了降低输入冗余性,使输入样本具有如下特性:

  1. 特征之间相关性低
  2. 所有特征具有相同的协方差

也就是对输入样本 X 进行一种变换,使得到新的 X 满足 X 的协方差矩阵为单位阵。

具体可以通过如下操作完成:

    [V, D] = eig(cov(x)),也就是说 VDV' = cov(x)     x = V(D + epsilon*I)^V'x 

对于 16x16 的图像块,epsilon可以取 0.01,对于 8x8 的图像块,epsilon可以取 0.1。

以新的 X 作为输入样本进行 Kmeans 聚类。

以“leaves”图作为输入图像,如下所示:

未归一化和白化,直接进行聚类的结果如下所示:

先归一化和白化,然后进行聚类的结果如下所示:

图像中有些字典很像噪声,这是因为这些字典类别中的样本数较少。

首先对彩色图像进行颜色空间的转换,从 RGB 通道转为 Lab 颜色空间,其中,L表示亮度(Luminosity),a表示从洋红色至绿色的范围,b表示从黄色至蓝色的范围。在此我们以 ab 通道数据作为一个样本,也就是说样本的维度为2,样本的个数就是图像的像素个数。

然后利用 Kmeans 对数据样本进行聚类和标记,每一种类别代表一种分割的区域。

输入图像:

分割后的输出图像:

《视觉机器学习20讲》

《Learning Feature Representations with K-means》

zouxy09的专栏

GitHub

文章来源: https://blog.csdn.net/weixin_41923961/article/details/92005460
标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!