K-Means算法
   
    
    
    算法步骤
   
K-Means算法,即K均值算法,是最常见的一种聚类算法。顾名思义,该算法会将数据集分为K个簇,每个簇使用簇内所有样本的均值来表示,我们将该均值成为‘质心’。具体步骤如下:
- 从样本中选择K个点作为初始质心
 - 计算每个样本到各个质心的距离,将样本划分到距离最近的质心所对应的簇中。
 - 计算每个簇内所有样本的均值,并使用该均值更新簇的质心。
 - 
     重复步骤2与3,直到达到以下条件之一结束:
▷质心的位置变化小于指定的阈值。
▷达到最大迭代次数。 
    
    
    优化目标
   
K-Means算法的目标就是选择合适的质心,使得在每个簇内,样本距离质心的距离尽可能的小。这样就可以保证簇内样本具有较高的相似性。我们可以使用最小化簇内误差平方和(within-cluster sum-of-squares SSE)来作为优化算法的量化目标(目标函数),簇内误差平方和也称为簇惯性(inertia)。
    
   
- k:簇的数量。
 - 
     m
i
:第i个簇含有的样本数量。 - 
     μ
i
:第i个簇的质心。 - 
     ||x
j
– μ
i
||:第i个簇中,每个样本x
j
与质心μ
i
的距离。 
    
    
    算法优点与缺点
   
K-Means优点如下:
- 理解与实现简单。
 - 可以很好的扩展到大量样本中。
 - 广泛应用于不同领域。
 
同时,K-Means算法也具有一定的缺点:
- 需要事先指定K值,如果K值选择不当,聚类效果可能不佳。
 - 聚类结果受初始质心的影响,可能会收敛到局部最小值。
 - 适用于凸形的数据分布,对于条形或不规则形状的数据,效果较差。
 
    
    
    程序演示
   
假设班级有50名学生参加期末考试,考试科目为语文、数学,现在想根据分数将学生分成若干个类别。
#首先绘制学生成绩的散点图
import numpy as np
import matplotlib.pyplot as plt
plt.rcParams['font.family'] = 'SimHei'
plt.rcParams['axes.unicode_minus'] = False
plt.rcParams['font.size'] = 12
np.random.seed(1) #设置随机种子
#生成样本数据
x = np.random.randint(70,100,size=(50,2)) #从70-100中随机生成100个数,数组形状为50行2列
plt.scatter(x[:, 0], x[:, 1])
plt.xlabel('语文')
plt.ylabel('数学')
    
   
#使用sklearn中提供的KMeans类,实现K均值聚类。
#当完成训练后,可以通过KMeans对象获取相关属性值
from sklearn.cluster import KMeans
#n_clusters:簇的数量。
kmeans = KMeans(n_clusters=4)
kmeans.fit(x)
#获取聚类后的质心
print('质心:', kmeans.cluster_centers_)
#获取每个样本所属的簇,标签的数值对应所属簇的索引
print('标签:', kmeans.labels_)
#获取SSE(簇惯性)
print('SSE:', kmeans.inertia_)
#获取迭代次数
print('迭代次数:',kmeans.n_iter_)
#聚类的分值,分值越大,效果越好。直接去SSE的相反数
print('分值:', kmeans.score(x))
    
    
    我们也可以对训练集之外的样本进行预测,K-Means算法的预测非常简单,就是看待预测样本与哪个质心的距离最近,就将其预测为哪个类别。
   
unknown = np.array([[76,99],[94,80]])
y_hat = kmeans.predict(unknown)
print(y_hat)
    
    
    绘制聚类后的效果
   
#定义绘制聚类结果的函数
def plot_cluster(model, train, test=None):
    color = np.array(['r','g','b','orange'])
    cc = model.cluster_centers_
    label = model.labels_
    plt.scatter(cc[:,0], cc[:,1], marker='+', s=150, c=color)
    plt.scatter(train[:,0], train[:,1], c=color[label])
    if test is not None:
        y_hat = kmeans.predict(test)
        plt.scatter(test[:,0], test[:,1], marker='*', s=150, c=color[y_hat])
        plt.xlabel('语文')
        plt.ylabel('数学')
        plt.title(f'SSE:{model.inertia_:.2f} 迭代次数:{model.n_iter_}')
        
plot_cluster(kmeans, x, unknown)
    
   
    
    
    初始质心的影响
   
    上文提到过,K-Means算法的一个缺点是,容易受到初始质心的影响,即初始质心的不同,可能会导致最后的聚类结果不同。
    
    如下代码为不同初始质心下的聚类结果图。
   
seed = [10,5]
plt.figure(figsize=(15,5))
for i in range(1,3):
    plt.subplot(1,2,i)
    kmeans = KMeans(n_clusters=4, init='random', n_init=1, random_state=seed[i-1])
    kmeans.fit(x)
    plot_cluster(kmeans,x)
    
    
    通常情况下,我们会随机初始化多组质心,执行多次,然后选择SSE最小的初始化质心。该操作可以通过n_init参数来指定,该参数默认值为10。
   
plt.figure(figsize=(15,5))
for i in range(1,3):
    plt.subplot(1,2,i)
    kmeans = KMeans(n_clusters=4, init='random', n_init=10, random_state=seed[i-1])
    kmeans.fit(x)
    plot_cluster(kmeans,x)
    
    
    可以看到,将n_init参数调整为10后,聚类效果稳定了很多。
   
 
版权声明:本文为ws19920726原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。