
- 機器學習基礎
- ML - 首頁
- ML - 簡介
- ML - 入門
- ML - 基本概念
- ML - 生態系統
- ML - Python 庫
- ML - 應用
- ML - 生命週期
- ML - 必備技能
- ML - 實現
- ML - 挑戰與常見問題
- ML - 限制
- ML - 現實生活中的例子
- ML - 資料結構
- ML - 數學
- ML - 人工智慧
- ML - 神經網路
- ML - 深度學習
- ML - 獲取資料集
- ML - 分類資料
- ML - 資料載入
- ML - 資料理解
- ML - 資料準備
- ML - 模型
- ML - 監督學習
- ML - 無監督學習
- ML - 半監督學習
- ML - 強化學習
- ML - 監督學習與無監督學習
- 機器學習資料視覺化
- ML - 資料視覺化
- ML - 直方圖
- ML - 密度圖
- ML - 箱線圖
- ML - 相關矩陣圖
- ML - 散點矩陣圖
- 機器學習統計學
- ML - 統計學
- ML - 均值、中位數、眾數
- ML - 標準差
- ML - 百分位數
- ML - 資料分佈
- ML - 偏度和峰度
- ML - 偏差和方差
- ML - 假設
- 機器學習中的迴歸分析
- ML - 迴歸分析
- ML - 線性迴歸
- ML - 簡單線性迴歸
- ML - 多元線性迴歸
- ML - 多項式迴歸
- 機器學習中的分類演算法
- ML - 分類演算法
- ML - 邏輯迴歸
- ML - K近鄰演算法 (KNN)
- ML - 樸素貝葉斯演算法
- ML - 決策樹演算法
- ML - 支援向量機
- ML - 隨機森林
- ML - 混淆矩陣
- ML - 隨機梯度下降
- 機器學習中的聚類演算法
- ML - 聚類演算法
- ML - 基於中心點的聚類
- ML - K均值聚類
- ML - K中心點聚類
- ML - 均值漂移聚類
- ML - 層次聚類
- ML - 基於密度的聚類
- ML - DBSCAN聚類
- ML - OPTICS聚類
- ML - HDBSCAN聚類
- ML - BIRCH聚類
- ML - 親和傳播
- ML - 基於分佈的聚類
- ML - 凝聚層次聚類
- 機器學習中的降維
- ML - 降維
- ML - 特徵選擇
- ML - 特徵提取
- ML - 向後剔除法
- ML - 前向特徵構造
- ML - 高相關性過濾器
- ML - 低方差過濾器
- ML - 缺失值比率
- ML - 主成分分析
- 強化學習
- ML - 強化學習演算法
- ML - 利用與探索
- ML - Q學習
- ML - REINFORCE演算法
- ML - SARSA強化學習
- ML - 演員-評論家方法
- 深度強化學習
- ML - 深度強化學習
- 量子機器學習
- ML - 量子機器學習
- ML - 使用Python的量子機器學習
- 機器學習雜項
- ML - 效能指標
- ML - 自動工作流
- ML - 提升模型效能
- ML - 梯度提升
- ML - 自舉匯聚 (Bagging)
- ML - 交叉驗證
- ML - AUC-ROC曲線
- ML - 網格搜尋
- ML - 資料縮放
- ML - 訓練和測試
- ML - 關聯規則
- ML - Apriori演算法
- ML - 高斯判別分析
- ML - 成本函式
- ML - 貝葉斯定理
- ML - 精確率和召回率
- ML - 對抗性
- ML - 堆疊
- ML - 時期
- ML - 感知器
- ML - 正則化
- ML - 過擬合
- ML - P值
- ML - 熵
- ML - MLOps
- ML - 資料洩露
- ML - 機器學習的盈利化
- ML - 資料型別
- 機器學習 - 資源
- ML - 快速指南
- ML - 速查表
- ML - 面試問題
- ML - 有用資源
- ML - 討論
機器學習 - 聚類演算法
聚類方法是最有用的無監督機器學習方法之一。這些方法用於查詢資料樣本之間的相似性和關係模式,然後根據特徵將這些樣本聚類到具有相似性的組中。聚類很重要,因為它確定了當前未標記資料中的內在分組。它們基本上對資料點做出一些假設來構成它們的相似性。每個假設都會構建不同的但同樣有效的聚類。
例如,下圖顯示了聚類系統將相似型別的資料分組到不同聚類中:

聚類形成方法
聚類不必以球形形式形成。以下是其他一些聚類形成方法:
基於密度的 - 在這些方法中,聚類形成密集區域。這些方法的優點是它們具有良好的準確性和良好的合併兩個聚類的能力。例如,基於密度的噪聲應用空間聚類 (DBSCAN)、排序點以識別聚類結構 (OPTICS) 等。
基於層次的 - 在這些方法中,聚類形成基於層次的樹狀結構。它們有兩個類別,即凝聚的(自下而上的方法)和分裂的(自上而下的方法)。例如,使用代表的聚類 (CURE)、基於層次的平衡迭代減少聚類 (BIRCH) 等。
分割槽 - 在這些方法中,聚類透過將物件劃分為 k 個聚類來形成。聚類數將等於分割槽數。例如,K均值、基於隨機搜尋的大型應用程式聚類 (CLARANS)。
網格 - 在這些方法中,聚類形成網格狀結構。這些方法的優點是所有在這些網格上完成的聚類操作都很快並且獨立於資料物件的數量。例如,統計資訊網格 (STING)、聚類查詢 (CLIQUE)。
聚類不必以球形形式形成。以下是其他一些聚類形成方法:
基於密度的
在這些方法中,聚類形成密集區域。這些方法的優點是它們具有良好的準確性和良好的合併兩個聚類的能力。例如,基於密度的噪聲應用空間聚類 (DBSCAN)、排序點以識別聚類結構 (OPTICS) 等。
基於層次的
在這些方法中,聚類形成基於層次的樹狀結構。它們有兩個類別,即凝聚的(自下而上的方法)和分裂的(自上而下的方法)。例如,使用代表的聚類 (CURE)、基於層次的平衡迭代減少聚類 (BIRCH) 等。
分割槽
在這些方法中,聚類透過將物件劃分為 k 個聚類來形成。聚類數將等於分割槽數。例如,K均值、基於隨機搜尋的大型應用程式聚類 (CLARANS)。
網格
在這些方法中,聚類形成網格狀結構。這些方法的優點是所有在這些網格上完成的聚類操作都很快並且獨立於資料物件的數量。例如,統計資訊網格 (STING)、聚類查詢 (CLIQUE)。
ML 聚類演算法的型別
以下是最重要的和有用的 ML 聚類演算法:
K均值聚類
此聚類演算法計算質心並迭代,直到找到最佳質心。它假設聚類數已知。它也稱為平面聚類演算法。演算法從資料中識別出的聚類數由 K 均值中的“K”表示。
均值漂移演算法
它是無監督學習中使用的另一種強大的聚類演算法。與 K 均值聚類不同,它不做出任何假設,因此它是一種非引數演算法。
層次聚類
它是另一種無監督學習演算法,用於將具有相似特徵的未標記資料點組合在一起。
我們將在接下來的章節中詳細討論所有這些演算法。
聚類的應用
我們可以在以下領域發現聚類很有用:
資料彙總和壓縮 - 聚類廣泛用於需要資料彙總、壓縮和減少的領域。例如,影像處理和向量量化。
協作系統和客戶細分 - 由於聚類可用於查詢類似的產品或相同型別的使用者,因此可用於協作系統和客戶細分領域。
作為其他資料探勘任務的關鍵中間步驟 - 聚類分析可以為分類、測試、假設生成生成資料的緊湊摘要;因此,它也作為其他資料探勘任務的關鍵中間步驟。
動態資料中的趨勢檢測 - 透過對類似趨勢進行各種聚類,聚類也可用於動態資料中的趨勢檢測。
社交網路分析 - 聚類可用於社交網路分析。例如,在影像、影片或音訊中生成序列。
生物資料分析 - 聚類也可用於對影像、影片進行聚類,因此可成功用於生物資料分析。
現在您已經瞭解了什麼是聚類以及它是如何工作的,讓我們在接下來的幾章中瞭解機器學習中使用的一些聚類演算法。