摘要:指定最大迭代次数的整数要求的准确性重复试验算法次数,将会返回最好的一次结果该标志用于指定初始中心的采用方式。第一列对应于所有个人的高度,第二列对应于它们的权重。类似地,剩余的行对应于其他人的高度和重量。
K-Means Clustering in OpenCV
cv2.kmeans(data, K, bestLabels, criteria, attempts, flags[, centers]) -> retval, bestLabels, centers
data: np.float32数据类型,每个功能应该放在一个列中
nclusters(K):集群数
bestLabels:预设的分类标签:没有的话 None
criteria:它是迭代终止标准,满足此条件时,算法迭代停止,实际上,它应该是3个参数的元组。它们是(type,max_iter,epsilon)
type又有两种选择:
cv2.TERM_CRITERIA_EPS - 如果达到指定的精度epsilon,则停止算法迭代。
cv.TERM_CRITERIA_MAX_ITER - 在指定的迭代次数max_iter之后停止算法。
cv.TERM_CRITERIA_EPS+ cv.TERM_CRITERIA_MAX_ITER - 当满足上述任何条件时停止迭代。
max_iter - 指定最大迭代次数的整数
epsilon - 要求的准确性
attempts:重复试验kmeans算法次数,将会返回最好的一次结果
flags:该标志用于指定初始中心的采用方式。通常会使用两个标志:cv2.KMEANS_PP_CENTERS和cv2.KMEANS_RANDOM_CENTERS
retval:它是从每个点到它们相应中心的平方距离之和
bestLabels:这是标签数组
centers:这是一组聚类中心
Data with Only One Feature假设只有一个特征的数据,即一维的,我们可以采用我们的T恤问题,只使用人的高度来决定T恤的大小。
因此,我们首先创建数据并在Matplotlib中绘制它
import numpy as np import cv2 import matplotlib.pyplot as plt x = np.random.randint(25,100,25) y = np.random.randint(175,255,25) z = np.hstack((x,y)) z = z.reshape((50,1)) z = np.float32(z) plt.hist(z,256,[0,256]),plt.show()
现在我们应用KMeans功能。我们的标准是,每当运行10次迭代算法或达到epsilon = 1.0的精度时,停止算法并返回答案.
# Define criteria = ( type, max_iter = 10 , epsilon = 1.0 ) criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0) # Set flags (Just to avoid line break in the code) flags = cv2.KMEANS_RANDOM_CENTERS # Apply KMeans compactness,labels,centers = cv2.kmeans(z,2,None,criteria,10,flags) A = z[labels==0] B = z[labels==1] # Now plot "A" in red, "B" in blue, "centers" in yellow plt.hist(A,256,[0,256],color = "r") plt.hist(B,256,[0,256],color = "b") plt.hist(centers,32,[0,256],color = "y") plt.show()Data with Multiple Features
我们设置大小为50x2的测试数据,其高度和权重为50人。 第一列对应于所有50个人的高度,第二列对应于它们的权重。 第一行包含两个元素,其中第一行是第一人的高度,第二行是他的重量。 类似地,剩余的行对应于其他人的高度和重量。
import numpy as np import cv2 import matplotlib.pyplot as plt X = np.random.randint(25,50,(25,2)) Y = np.random.randint(60,85,(25,2)) Z = np.vstack((X,Y)) # convert to np.float32 Z = np.float32(Z) # define criteria and apply kmeans() criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0) ret,label,center=cv2.kmeans(Z,2,None,criteria,10,cv2.KMEANS_RANDOM_CENTERS) # Now separate the data, Note the flatten() A = Z[label.ravel()==0] B = Z[label.ravel()==1] # Plot the data plt.scatter(A[:,0],A[:,1]) plt.scatter(B[:,0],B[:,1],c = "r") plt.scatter(center[:,0],center[:,1],s = 80,c = "y", marker = "s") plt.xlabel("Height"),plt.ylabel("Weight") plt.show()Color Quantization
颜色量化是减少图像中颜色数量的过程,这样做的一个原因是减少内存,某些设备可能具有限制,使得它只能产生有限数量的颜色,在那些情况下,也执行颜色量化,这里我们使用k均值聚类进行颜色量化。
import numpy as np import cv2 import matplotlib.pyplot as plt img = cv2.imread("img.jpg") Z = img.reshape((-1,3)) # convert to np.float32 Z = np.float32(Z) # define criteria, number of clusters(K) and apply kmeans() criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0) K = 8 ret,label,center=cv2.kmeans(Z,K,None,criteria,10,cv2.KMEANS_RANDOM_CENTERS) # Now convert back into uint8, and make original image center = np.uint8(center) res = center[label.flatten()] res2 = res.reshape((img.shape)) cv2.imshow("res2",res2) cv2.waitKey(0) cv2.destroyAllWindows()
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/42224.html
摘要:算法的关键在于初始中心的选择和距离公式。并行设置的实现算法,有其中表示用方式实现虽然有很多参数,但是都已经给出了默认值。 K-means算法简介 K-means是机器学习中一个比较常用的算法,属于无监督学习算法,其常被用于数据的聚类,只需为它指定簇的数量即可自动将数据聚合到多类中,相同簇中的数据相似度较高,不同簇中数据相似度较低。 K-menas的优缺点: 优点: 原理简单 速度快 ...
摘要:摘要前文数据挖掘与机器学习技术入门实战与大家分享了分类算法,在本文中将为大家介绍聚类算法和关联分析问题。比如,聚类算法可以实现公司客户价值自动划分,网页自动归类等。 摘要:前文数据挖掘与机器学习技术入门实战与大家分享了分类算法,在本文中将为大家介绍聚类算法和关联分析问题。分类算法与聚类到底有何区别?聚类方法应在怎样的场景下使用?如何使用关联分析算法解决个性化推荐问题?本文就为大家揭晓答...
阅读 2459·2023-04-25 19:31
阅读 2192·2021-11-04 16:11
阅读 2774·2021-10-08 10:05
阅读 1480·2021-09-30 09:48
阅读 2277·2019-08-30 15:56
阅读 2364·2019-08-30 15:56
阅读 2142·2019-08-30 15:53
阅读 2229·2019-08-30 15:44