網站首頁 編程語言 正文
本文和你一起學習無監督機器學習算法 ———— kmeans算法,并在R中給詳細的實現示例和步驟。
什么是k-means聚類算法
聚類是從數據集中對觀測值進行聚類的機器學習方法。它的目標是聚類相似觀測值,不同類別之間差異較大。聚類是一種無監督學習方法,因為它僅嘗試從數據集中發現結構,而不是預測應變量的值。
下面是一個市場營銷中對客戶分類的場景,通過下面客戶信息:
- 家庭收入
- 住房面積
- 戶主職業
- 據城區距離
我們利用這些信息進行聚類,可識別相似家庭,從而能夠識別某類型家庭可能購買某種產品或對某種類型的廣告反應更好。
最常用的聚類算法就是k-means聚類算法,下面我們介紹k-means算法并通過示例進行說明。
k-means聚類算法把數據集中每個觀測值分為K個類別。每個分類中的觀測值相當類似,K類之間彼此差異較大。實際應用中執行下列幾步實現k-means聚類算法:
1.確定K值
首先確定把數據集分為幾類。通常我們簡單測試幾個不同值K,然后分析結果,確定那個值更有現實意義。
2.將每個觀察結果隨機分配到一個初始簇中,從1到K。
3.執行以下步驟,直到集群分配停止變化。
對于K個集群中的每一個,計算集群的質心。這僅僅是第k個簇中觀測的p特征的向量。
將每個觀測值分配到質心最近的簇中。在這里最接近的是用歐氏距離來定義的。
下面通過示例展示R的實現過程。
R 實現kmeans聚類算法
加載包
首先加載兩個包,包括kmeans算法的一些輔助函數。
library(factoextra) library(cluster)
加載示例數據
對于本例我們將使用R中內置的usarrest數據集,該數據集包含1973年美國每個州每10萬居民因謀殺、襲擊和強奸而被捕的人數,以及每個州居住在城市地區的人口百分比(UrbanPop)。
#load data df <- USArrests #remove rows with missing values df <- na.omit(df) #scale each variable to have a mean of 0 and sd of 1 df <- scale(df) #view first six rows of dataset head(df) # Murder Assault UrbanPop Rape # Alabama 1.24256408 0.7828393 -0.5209066 -0.003416473 # Alaska 0.50786248 1.1068225 -1.2117642 2.484202941 # Arizona 0.07163341 1.4788032 0.9989801 1.042878388 # Arkansas 0.23234938 0.2308680 -1.0735927 -0.184916602 # California 0.27826823 1.2628144 1.7589234 2.067820292 # Colorado 0.02571456 0.3988593 0.8608085 1.864967207
上面代碼首先加載USArrests
數據集,刪除缺失值,對數據值進行標準化。
尋找最佳聚類數量
執行kmeans聚類算法,我們可以使用內置包stat中的kmeans()函數,語法如下:
kmeans(data, centers, nstart)
- data : 數據集名稱
- centers: 聚類數量,即選擇k的值
- nstart: 初始配置個數。因為不同的初始啟動集合可能會導致不同的結果,所以建議使用幾種不同的初始配置。k-means算法將找到導致簇內變異最小的初始配置。
既然在使用kmeans函數之前并不確定最優聚類數量,下面通過兩個圖來輔助我們決定:
1.聚類數量 vs. 總體平方和
首先使用 fviz_nbclust 函數創建一個圖,展示聚類數量及總體平方和之間的關系:
fviz_nbclust(df, kmeans, method = "wss")
通常我們創建這類圖形尋找某個K類對應的平方和值開始彎曲或趨于平緩的肘形。這通常是最理想的聚類數量。上圖中顯然在k = 4個時出現肘形。
2.聚類數量 vs. 差距統計
另一個決定最佳聚類數量的是使用指標:差距統計。它用于比較不同k值聚類差距變化情況。使用cluster包中的clusGap()
以及fviz_gap_stat()
函數畫圖:
#calculate gap statistic based on number of clusters gap_stat <- clusGap(df, FUN = kmeans, nstart = 25, K.max = 10, B = 50) #plot number of clusters vs. gap statistic fviz_gap_stat(gap_stat)
從上圖可以看到k=4時,差距統計最大,這與前面圖的結果一致。
使用最優k執行kmeans聚類
最后,我們執行kmeans函數,使用k=4作為最優值:
# 設置隨機種子,讓結果可以重現 set.seed(1) # 調用kmeans聚類算法 k = 4 km <- kmeans(df, centers = 4, nstart = 25) # 查看結果 km # Show in New Window # Clustering k = 1,2,..., K.max (= 10): .. done # Bootstrapping, b = 1,2,..., B (= 50) [one "." per sample]: # .................................................. 50 # R Console # # # Show in New Window # K-means clustering with 4 clusters of sizes 13, 13, 16, 8 # # Cluster means: # Murder Assault UrbanPop Rape # 1 -0.9615407 -1.1066010 -0.9301069 -0.96676331 # 2 0.6950701 1.0394414 0.7226370 1.27693964 # 3 -0.4894375 -0.3826001 0.5758298 -0.26165379 # 4 1.4118898 0.8743346 -0.8145211 0.01927104 # # Clustering vector: # Alabama Alaska Arizona Arkansas California Colorado # 4 2 2 4 2 2 # Connecticut Delaware Florida Georgia Hawaii Idaho # 3 3 2 4 3 1 # Illinois Indiana Iowa Kansas Kentucky Louisiana # 2 3 1 3 1 4 # Maine Maryland Massachusetts Michigan Minnesota Mississippi # 1 2 3 2 1 4 # Missouri Montana Nebraska Nevada New Hampshire New Jersey # 2 1 1 2 1 3 # New Mexico New York North Carolina North Dakota Ohio Oklahoma # 2 2 4 1 3 3 # Oregon Pennsylvania Rhode Island South Carolina South Dakota Tennessee # 3 3 3 4 1 4 # Texas Utah Vermont Virginia Washington West Virginia # 2 3 1 3 3 1 # Wisconsin Wyoming # 1 3 # # Within cluster sum of squares by cluster: # [1] 11.952463 19.922437 16.212213 8.316061 # (between_SS / total_SS = 71.2 %) # # Available components: # # [1] "cluster" "centers" "totss" "withinss" "tot.withinss" # [6] "betweenss" "size" "iter" "ifault"
從結果可見:
- 16 州分在第一個類
- 13 州分在第二個類
- 13 州分在第三個類
- 8 州分在第四個類
我們可以通過fviz_cluster()
函數在二維空間中以散點圖方式展示結果:
#plot results of final k-means model fviz_cluster(km, data = df)
也可以使用aggregate()函數查看每個類中變量的均值:
#find means of each cluster aggregate(USArrests, by=list(cluster=km$cluster), mean) # cluster Murder Assault UrbanPop Rape # # 1 3.60000 78.53846 52.07692 12.17692 # 2 10.81538 257.38462 76.00000 33.19231 # 3 5.65625 138.87500 73.87500 18.78125 # 4 13.93750 243.62500 53.75000 21.41250
輸出結果解釋如下:
- 在第一類中的州中平均每100,000人謀殺數為 3.6
- 在第一類中的州中平均每100,000人襲擊數為 78.5
- 在第一類中的州中平均每100,000人城區居民率為 52.1%
- 在第一類中的州中平均每100,000人強奸數為 3.6 12.2
最后我們把聚類結果附加到原始數據集中:
#add cluster assigment to original data final_data <- cbind(USArrests, cluster = km$cluster) #view final data head(final_data) # Murder Assault UrbanPop Rape cluster # # Alabama 13.2 236 58 21.2 4 # Alaska 10.0 263 48 44.5 2 # Arizona 8.1 294 80 31.0 2 # Arkansas 8.8 190 50 19.5 4 # California 9.0 276 91 40.6 2 # Colorado 7.9 204 78 38.7 2
kmeans 算法的優缺點
優點:
很快的算法能夠處理大數據集
缺點:
在執行算法之前需要指定聚類數量對異常值敏感 總結
本文我們討論了kmeans算法的概念,并在R中給詳細實現示例和步驟。
總結
原文鏈接:https://blog.csdn.net/neweastsun/article/details/123485985
相關推薦
- 2022-03-28 Python?NumPy實用函數筆記之allclose_python
- 2024-01-09 Certificate used to sign the license is not signed
- 2022-05-26 Python學習之文件的讀取詳解_python
- 2022-04-22 electron設置最小大小和最大大小
- 2022-04-30 DataGridView凍結列或行、列順序調整、操作行頭列頭標題的方法_C#教程
- 2021-12-01 docker網絡配置過程詳解介紹_Android
- 2022-05-10 thymeleaf跳轉到響應頁面(modelandview 中的view)
- 2023-01-09 python自動化測試中裝飾器@ddt與@data源碼深入解析_python
- 最近更新
-
- window11 系統安裝 yarn
- 超詳細win安裝深度學習環境2025年最新版(
- Linux 中運行的top命令 怎么退出?
- MySQL 中decimal 的用法? 存儲小
- get 、set 、toString 方法的使
- @Resource和 @Autowired注解
- Java基礎操作-- 運算符,流程控制 Flo
- 1. Int 和Integer 的區別,Jav
- spring @retryable不生效的一種
- Spring Security之認證信息的處理
- Spring Security之認證過濾器
- Spring Security概述快速入門
- Spring Security之配置體系
- 【SpringBoot】SpringCache
- Spring Security之基于方法配置權
- redisson分布式鎖中waittime的設
- maven:解決release錯誤:Artif
- restTemplate使用總結
- Spring Security之安全異常處理
- MybatisPlus優雅實現加密?
- Spring ioc容器與Bean的生命周期。
- 【探索SpringCloud】服務發現-Nac
- Spring Security之基于HttpR
- Redis 底層數據結構-簡單動態字符串(SD
- arthas操作spring被代理目標對象命令
- Spring中的單例模式應用詳解
- 聊聊消息隊列,發送消息的4種方式
- bootspring第三方資源配置管理
- GIT同步修改后的遠程分支