简单易学的机器学习算法——K-Means++算法

news/2024/11/29 7:59:40/

一、K-Means算法存在的问题

由于K-Means算法的简单且易于实现,因此K-Means算法得到了很多的应用,但是从K-Means算法的过程中发现,K-Means算法中的聚类中心的个数k需要事先指定,这一点对于一些未知数据存在很大的局限性。其次,在利用K-Means算法进行聚类之前,需要初始化k个聚类中心,在上述的K-Means算法的过程中,使用的是在数据集中随机选择最大值和最小值之间的数作为其初始的聚类中心,但是聚类中心选择不好,对于K-Means算法有很大的影响。对于如下的数据集:
这里写图片描述
如选取的个聚类中心为:
这里写图片描述
最终的聚类结果为:
这里写图片描述

为了解决因为初始化的问题带来K-Means算法的问题,改进的K-Means算法,即K-Means++算法被提出,K-Means++算法主要是为了能够在聚类中心的选择过程中选择较优的聚类中心。

二、K-Means++算法的思路

K-Means++算法在聚类中心的初始化过程中的基本原则是使得初始的聚类中心之间的相互距离尽可能远,这样可以避免出现上述的问题。K-Means++算法的初始化过程如下所示:

  • 在数据集中随机选择一个样本点作为第一个初始化的聚类中心
  • 选择出其余的聚类中心:
    • 计算样本中的每一个样本点与已经初始化的聚类中心之间的距离,并选择其中最短的距离,记为d_i
    • 以概率选择距离最大的样本作为新的聚类中心,重复上述过程,直到k个聚类中心都被确定
  • 对k个初始化的聚类中心,利用K-Means算法计算最终的聚类中心。

在上述的K-Means++算法中可知K-Means++算法与K-Means算法最本质的区别是在k个聚类中心的初始化过程。

Python实现:

# coding:UTF-8
'''
Date:20160923
@author: zhaozhiyong
'''import numpy as np
from random import random
from KMeans import load_data, kmeans, distance, save_resultFLOAT_MAX = 1e100 # 设置一个较大的值作为初始化的最小的距离def nearest(point, cluster_centers):min_dist = FLOAT_MAXm = np.shape(cluster_centers)[0]  # 当前已经初始化的聚类中心的个数for i in xrange(m):# 计算point与每个聚类中心之间的距离d = distance(point, cluster_centers[i, ])# 选择最短距离if min_dist > d:min_dist = dreturn min_distdef get_centroids(points, k):m, n = np.shape(points)cluster_centers = np.mat(np.zeros((k , n)))# 1、随机选择一个样本点为第一个聚类中心index = np.random.randint(0, m)cluster_centers[0, ] = np.copy(points[index, ])# 2、初始化一个距离的序列d = [0.0 for _ in xrange(m)]for i in xrange(1, k):sum_all = 0for j in xrange(m):# 3、对每一个样本找到最近的聚类中心点d[j] = nearest(points[j, ], cluster_centers[0:i, ])# 4、将所有的最短距离相加sum_all += d[j]# 5、取得sum_all之间的随机值sum_all *= random()# 6、获得距离最远的样本点作为聚类中心点for j, di in enumerate(d):sum_all -= diif sum_all > 0:continuecluster_centers[i] = np.copy(points[j, ])breakreturn cluster_centersif __name__ == "__main__":k = 4#聚类中心的个数file_path = "data.txt"# 1、导入数据print "---------- 1.load data ------------"data = load_data(file_path)# 2、KMeans++的聚类中心初始化方法print "---------- 2.K-Means++ generate centers ------------"centroids = get_centroids(data, k)# 3、聚类计算print "---------- 3.kmeans ------------"subCenter = kmeans(data, k, centroids)# 4、保存所属的类别文件print "---------- 4.save subCenter ------------"save_result("sub_pp", subCenter)# 5、保存聚类中心print "---------- 5.save centroids ------------"save_result("center_pp", centroids)

其中,KMeans所在的文件为:

# coding:UTF-8
'''
Date:20160923
@author: zhaozhiyong
'''
import numpy as npdef load_data(file_path):f = open(file_path)data = []for line in f.readlines():row = []  # 记录每一行lines = line.strip().split("\t")for x in lines:row.append(float(x)) # 将文本中的特征转换成浮点数data.append(row)f.close()return np.mat(data)def distance(vecA, vecB):dist = (vecA - vecB) * (vecA - vecB).Treturn dist[0, 0]def randCent(data, k):n = np.shape(data)[1]  # 属性的个数centroids = np.mat(np.zeros((k, n)))  # 初始化k个聚类中心for j in xrange(n):  # 初始化聚类中心每一维的坐标minJ = np.min(data[:, j])rangeJ = np.max(data[:, j]) - minJ# 在最大值和最小值之间随机初始化centroids[:, j] = minJ * np.mat(np.ones((k , 1))) + np.random.rand(k, 1) * rangeJreturn centroidsdef kmeans(data, k, centroids):m, n = np.shape(data) # m:样本的个数,n:特征的维度subCenter = np.mat(np.zeros((m, 2)))  # 初始化每一个样本所属的类别change = True  # 判断是否需要重新计算聚类中心while change == True:change = False  # 重置for i in xrange(m):minDist = np.inf  # 设置样本与聚类中心之间的最小的距离,初始值为争取穷minIndex = 0  # 所属的类别for j in xrange(k):# 计算i和每个聚类中心之间的距离dist = distance(data[i, ], centroids[j, ])if dist < minDist:minDist = distminIndex = j# 判断是否需要改变if subCenter[i, 0] <> minIndex:  # 需要改变change = TruesubCenter[i, ] = np.mat([minIndex, minDist])# 重新计算聚类中心for j in xrange(k):sum_all = np.mat(np.zeros((1, n)))r = 0  # 每个类别中的样本的个数for i in xrange(m):if subCenter[i, 0] == j:  # 计算第j个类别sum_all += data[i, ]r += 1for z in xrange(n):try:centroids[j, z] = sum_all[0, z] / rexcept:print " r is zero"   return subCenterdef save_result(file_name, source):m, n = np.shape(source)f = open(file_name, "w")for i in xrange(m):tmp = []for j in xrange(n):tmp.append(str(source[i, j]))f.write("\t".join(tmp) + "\n")f.close()

最终的结果为:

这里写图片描述

参考文献

  • Arthur D, Vassilvitskii
    S. k-means++: the advantages of careful seeding[C]//Eighteenth Acm-Siam Symposium
    on Discrete Algorithms, SODA 2007, New Orleans, Louisiana, Usa, January.
    2007:1027-1035.

http://www.ppmy.cn/news/130849.html

相关文章

20的阶乘c语言怎么编程,C语言:编写程序,求20的阶乘.

基本思路采用累乘的方法,乘法笔算的思路,数组记录下所有乘积的位,我写了个具体如下: #include int xcfun(int x[],int d[],int ws[],int j,int jw,int len)//模拟笔算乘法,逐位相乘 {int k=0; do {x[k+j]=(ws[j]*d[k]+jw)%10; jw=(ws[j]*d[k]+jw)/10; k++; }while(d[k]>…

Python绘制股票K线图

目录 1 股票K线图知识了解 2 用Python绘制股票K线图 2.1 安装绘制K线图的mpl_finance库 2.2 引入相关库 2.3 用Tushare库获取股票基本数据 2.4 日期格式调整及表格转换 2.5 绘制K线图 2.6 添加均线图 2.7 添加每日成交量柱形图 1 股票K线图知识了解 下图所示为“贵州…

【数据挖掘】K-Means 一维数据聚类分析示例

文章目录 K-Means 一维数据计算示例 数据样本 及 初始值K-Means 一维数据 距离计算方式K-Means 算法 步骤第一次迭代 : 步骤 ( 1 ) 计算距离第一次迭代 : 步骤 ( 2 ) 聚类分组第一次迭代 : 步骤 ( 3 ) 计算中心值第二次迭代 : 步骤 ( 1 ) 计算距离第二次迭代 : 步骤 ( 2 ) 聚类…

统计学习方法——K近邻模型

0. 写在前面 在这一讲的讨论班中&#xff0c;我们将要讨论一下K近邻模型。可能有人会说&#xff0c;K近邻模型有什么好写的&#xff0c;那分明就是一个最简单的机器学习模型&#xff0c;哦&#xff0c;不&#xff0c;连机器学习也算不上的算法吧。但是这里&#xff0c;我想提醒…

1到20的阶乘和是多少 php,20的阶乘(1到20的阶乘和结果)

如果不是电脑编程的问题 貌似只能使用计算器得到结果了吧 把计算器的显示位数调大一些 然后1的阶乘加到20的阶乘 即1!+2!+3!+…+20!=2561327494111820313 #include void main() { int i,n,sum; n=1;sum=0; for(i=1;i 和是:2561327494111820300。zd 以下是版通过C进行的计权算…

【机器学习】快速有效理解 K-Means 算法

什么是 K-Means ? 学习 K-Means 之前,大家首先需要对聚类有一个概念. 我们都知道,机器学习可以划分为 3 类:监督学习、无监督学习、强化学习. 无监督学习指的是数据没有标签,也就是说我们只有数据的特征,但并不知道这些数据都是什么,无监督学习算法或者是模型需要从这样的数…

K210学习记录(3)——kmodel生成与使用

0、引言 2022更新说明&#xff1a;这块芯片水太深&#xff0c;能不碰最好别碰&#xff0c;官方当时留的资料实在太少&#xff08;或者说我太菜&#xff09;。 如果要调用最新的nncase工具箱所支持的算子&#xff0c;最好采用嘉楠自家工具链VScode进行开发。不建议采用迦南官方…

机器学习(2): K-means (k均值) 聚类算法 小结

目录 1 聚类简介 2 k-means算法流程 3 利用k-means 对数据进行聚类 4 利用K-means进行图像分割 5 小结 参考资料 1 聚类简介 在无监督学习中&#xff0c;训练样本的标记信息是未知的&#xff0c;我们的目标是通过对无标记训练样本的学习来解释数据的内在性质及规律&…