
- 機器學習基礎
- ML - 首頁
- ML - 簡介
- ML - 入門
- ML - 基本概念
- ML - 生態系統
- ML - Python庫
- ML - 應用
- ML - 生命週期
- ML - 必備技能
- ML - 實現
- ML - 挑戰與常見問題
- ML - 限制
- ML - 真實案例
- ML - 資料結構
- ML - 數學
- ML - 人工智慧
- ML - 神經網路
- ML - 深度學習
- ML - 獲取資料集
- ML - 分類資料
- ML - 資料載入
- ML - 資料理解
- ML - 資料準備
- ML - 模型
- ML - 監督學習
- ML - 無監督學習
- ML - 半監督學習
- ML - 強化學習
- ML - 監督學習與無監督學習
- 機器學習資料視覺化
- ML - 資料視覺化
- ML - 直方圖
- ML - 密度圖
- ML - 箱線圖
- ML - 相關矩陣圖
- ML - 散點矩陣圖
- 機器學習統計學
- ML - 統計學
- ML - 均值、中位數、眾數
- ML - 標準差
- ML - 百分位數
- ML - 資料分佈
- ML - 偏度和峰度
- ML - 偏差和方差
- ML - 假設
- ML中的迴歸分析
- ML - 迴歸分析
- ML - 線性迴歸
- ML - 簡單線性迴歸
- ML - 多元線性迴歸
- ML - 多項式迴歸
- ML中的分類演算法
- ML - 分類演算法
- ML - 邏輯迴歸
- ML - K近鄰演算法 (KNN)
- ML - 樸素貝葉斯演算法
- ML - 決策樹演算法
- ML - 支援向量機
- ML - 隨機森林
- ML - 混淆矩陣
- ML - 隨機梯度下降
- ML中的聚類演算法
- ML - 聚類演算法
- ML - 基於中心點的聚類
- ML - K均值聚類
- ML - K中心點聚類
- ML - 均值漂移聚類
- ML - 層次聚類
- ML - 基於密度的聚類
- ML - DBSCAN聚類
- ML - OPTICS聚類
- ML - HDBSCAN聚類
- ML - BIRCH聚類
- ML - 親和傳播
- ML - 基於分佈的聚類
- ML - 凝聚層次聚類
- ML中的降維
- ML - 降維
- ML - 特徵選擇
- ML - 特徵提取
- ML - 向後消除法
- ML - 前向特徵構建
- ML - 高相關性過濾
- ML - 低方差過濾
- ML - 缺失值比率
- ML - 主成分分析
- 強化學習
- ML - 強化學習演算法
- ML - 利用與探索
- ML - Q學習
- ML - REINFORCE演算法
- ML - SARSA強化學習
- ML - 演員-評論家方法
- 深度強化學習
- ML - 深度強化學習
- 量子機器學習
- ML - 量子機器學習
- ML - 使用Python的量子機器學習
- 機器學習雜項
- ML - 效能指標
- ML - 自動工作流程
- ML - 提升模型效能
- ML - 梯度提升
- ML - 自舉匯聚 (Bagging)
- ML - 交叉驗證
- ML - AUC-ROC曲線
- ML - 網格搜尋
- ML - 資料縮放
- ML - 訓練和測試
- ML - 關聯規則
- ML - Apriori演算法
- ML - 高斯判別分析
- ML - 成本函式
- ML - 貝葉斯定理
- ML - 精度和召回率
- ML - 對抗性
- ML - 堆疊
- ML - 輪次
- ML - 感知器
- ML - 正則化
- ML - 過擬合
- ML - P值
- ML - 熵
- ML - MLOps
- ML - 資料洩露
- ML - 機器學習的商業化
- ML - 資料型別
- 機器學習 - 資源
- ML - 快速指南
- ML - 速查表
- ML - 面試問題
- ML - 有用資源
- ML - 討論
機器學習數學
機器學習是一個跨學科領域,涉及計算機科學、統計學和數學。特別是,數學在開發和理解機器學習演算法方面起著至關重要的作用。本章將討論機器學習必不可少的數學概念,包括線性代數、微積分、機率論和統計學。
線性代數
線性代數是處理線性方程及其在向量空間中表示的數學分支。在機器學習中,線性代數用於表示和操作資料。特別是,向量和矩陣用於表示和操作機器學習模型中的資料點、特徵和權重。
向量是有序的數字列表,而矩陣是數字的矩形陣列。例如,向量可以表示單個數據點,而矩陣可以表示資料集。線性代數運算(例如矩陣乘法和求逆)可用於轉換和分析資料。
以下是突出了其在機器學習中重要性的一些重要的線性代數概念:
- 向量和矩陣 - 向量和矩陣用於表示資料集、特徵、目標值、權重等。
- 矩陣運算 - 加法、乘法、減法和轉置等運算用於所有機器學習演算法。
- 特徵值和特徵向量 - 這些在與降維相關的演算法(如主成分分析 (PCA))中非常有用。
- 投影 - 超平面和到平面的投影的概念對於理解支援向量機 (SVM) 至關重要。
- 分解 - 矩陣分解和奇異值分解 (SVD) 用於提取資料集中重要資訊。
- 張量 - 張量用於深度學習中表示多維資料。張量可以表示標量、向量或矩陣。
- 梯度 - 梯度用於查詢模型引數的最佳值。
- 雅可比矩陣 - 雅可比矩陣用於分析機器學習模型中輸入和輸出變數之間的關係。
- 正交性 - 這是在主成分分析 (PCA)、支援向量機 (SVM) 等演算法中使用的核心概念。
微積分
微積分是處理變化率和累積的數學分支。在機器學習中,微積分用於透過找到函式的最小值或最大值來最佳化模型。特別是,廣泛使用的最佳化演算法梯度下降法是基於微積分的。
梯度下降是一種迭代最佳化演算法,它根據損失函式的梯度更新模型的權重。梯度是損失函式相對於每個權重的偏導數的向量。透過迭代地沿負梯度方向更新權重,梯度下降試圖最小化損失函式。
以下是機器學習必不可少的一些重要的微積分概念:
- 函式 - 函式是機器學習的核心。在機器學習中,模型在訓練階段學習輸入和輸出之間的函式。您應該學習函式的基礎知識,包括連續函式和離散函式。
- 導數、梯度和斜率 - 這些是理解最佳化演算法(如梯度下降)如何工作的核心概念。
- 偏導數 - 這些用於查詢函式的最大值或最小值。通常用於最佳化演算法。
- 鏈式法則 - 鏈式法則用於計算具有多個變數的損失函式的導數。您可以在神經網路中看到鏈式法則的主要應用。
- 最佳化方法 - 這些方法用於查詢最小化成本函式的引數的最佳值。梯度下降是最常用的最佳化方法之一。
機率論
機率論是處理不確定性和隨機性的數學分支。在機器學習中,機率論用於對不確定或可變的資料進行建模和分析。特別是,高斯分佈和泊松分佈等機率分佈用於對資料點或事件的機率進行建模。
貝葉斯推理是一種機率建模技術,也廣泛用於機器學習。貝葉斯推理基於貝葉斯定理,該定理指出,給定資料的假設機率與給定假設的資料機率乘以假設的先驗機率成正比。透過根據觀察到的資料更新先驗機率,貝葉斯推理可以進行機率預測或分類。
以下是機器學習必不可少的一些重要的機率論概念:
- 簡單機率 - 它是機器學習中的一個基本概念。所有分類問題都使用機率概念。SoftMax 函式在人工神經網路中使用簡單機率。
- 條件機率 - 像樸素貝葉斯分類器這樣的分類演算法是基於條件機率的。
- 隨機變數 - 隨機變數用於為模型引數分配初始值。引數初始化被認為是訓練過程的開始。
- 機率分佈 - 這些用於查詢分類問題的損失函式。
- 連續和離散分佈 - 這些分佈用於對機器學習中的不同型別的資料進行建模。
- 分佈函式 - 這些函式通常用於對線性迴歸和其他統計模型中的誤差項的分佈進行建模。
- 最大似然估計 - 它是用於分類問題的一些機器學習和深度學習方法的基礎。
統計學
統計學是處理資料的收集、分析、解釋和呈現的數學分支。在機器學習中,統計學用於評估和比較模型、估計模型引數和檢驗假設。
例如,交叉驗證是一種統計技術,用於評估模型在新資料(未見資料)上的效能。在交叉驗證中,資料集被分成多個子集,模型在每個子集上進行訓練和評估。這允許我們估計模型在新資料上的效能,並比較不同的模型。
以下是機器學習中一些重要的統計概念:
- 均值、中位數、眾數 − 這些度量用於理解資料的分佈並識別異常值。
- 標準差、方差 − 這些用於理解資料集的變異性並檢測異常值。
- 百分位數 − 這些用於總結資料集的分佈並識別異常值。
- 資料分佈 − 指的是資料點在一個數據集中是如何分佈或分散的。
- 偏度和峰度 − 這是機器學習中機率分佈形狀的兩個重要度量。
- 偏差和方差 − 它們描述了模型預測中誤差的來源。
- 假設檢驗 − 它是一個可以利用資料進行檢驗和驗證的初步假設或想法。
- 線性迴歸 − 它是監督機器學習中最常用的迴歸演算法。
- 邏輯迴歸 − 它也是一個重要的監督學習演算法,主要用於機器學習。
- 主成分分析 − 主要用於機器學習中的降維。