
- 機器學習基礎
- ML - 首頁
- ML - 簡介
- ML - 入門
- ML - 基本概念
- ML - 生態系統
- ML - Python 庫
- ML - 應用
- ML - 生命週期
- ML - 必備技能
- ML - 實現
- ML - 挑戰與常見問題
- ML - 限制
- ML - 真實案例
- ML - 資料結構
- ML - 數學
- ML - 人工智慧
- ML - 神經網路
- ML - 深度學習
- ML - 獲取資料集
- ML - 分類資料
- ML - 資料載入
- ML - 資料理解
- ML - 資料準備
- ML - 模型
- ML - 監督學習
- ML - 無監督學習
- ML - 半監督學習
- ML - 強化學習
- ML - 監督學習與無監督學習
- 機器學習資料視覺化
- ML - 資料視覺化
- ML - 直方圖
- ML - 密度圖
- ML - 箱線圖
- ML - 相關矩陣圖
- ML - 散點矩陣圖
- 機器學習統計
- ML - 統計
- ML - 均值、中位數、眾數
- ML - 標準差
- ML - 百分位數
- ML - 資料分佈
- ML - 偏度和峰度
- ML - 偏差和方差
- ML - 假設
- ML中的迴歸分析
- ML - 迴歸分析
- ML - 線性迴歸
- ML - 簡單線性迴歸
- ML - 多元線性迴歸
- ML - 多項式迴歸
- ML中的分類演算法
- ML - 分類演算法
- ML - 邏輯迴歸
- ML - K近鄰演算法(KNN)
- ML - 樸素貝葉斯演算法
- ML - 決策樹演算法
- ML - 支援向量機
- ML - 隨機森林
- ML - 混淆矩陣
- ML - 隨機梯度下降
- ML中的聚類演算法
- ML - 聚類演算法
- ML - 基於中心點的聚類
- ML - K均值聚類
- ML - K中心點聚類
- ML - 均值漂移聚類
- ML - 層次聚類
- ML - 基於密度的聚類
- ML - DBSCAN聚類
- ML - OPTICS聚類
- ML - HDBSCAN聚類
- ML - BIRCH聚類
- ML - 親和傳播
- ML - 基於分佈的聚類
- ML - 凝聚層次聚類
- ML中的降維
- ML - 降維
- ML - 特徵選擇
- ML - 特徵提取
- ML - 向後剔除法
- ML - 前向特徵構造
- ML - 高相關性過濾器
- ML - 低方差過濾器
- ML - 缺失值比率
- ML - 主成分分析
- 強化學習
- ML - 強化學習演算法
- ML - 利用與探索
- ML - Q學習
- ML - REINFORCE演算法
- ML - SARSA強化學習
- ML - 演員-評論家方法
- 深度強化學習
- ML - 深度強化學習
- 量子機器學習
- ML - 量子機器學習
- ML - 使用Python的量子機器學習
- 機器學習雜項
- ML - 效能指標
- ML - 自動工作流
- ML - 提升模型效能
- ML - 梯度提升
- ML - 自舉匯聚(Bagging)
- ML - 交叉驗證
- ML - AUC-ROC曲線
- ML - 網格搜尋
- ML - 資料縮放
- ML - 訓練和測試
- ML - 關聯規則
- ML - Apriori演算法
- ML - 高斯判別分析
- ML - 成本函式
- ML - 貝葉斯定理
- ML - 精確率和召回率
- ML - 對抗
- ML - 堆疊
- ML - 時期
- ML - 感知器
- ML - 正則化
- ML - 過擬合
- ML - P值
- ML - 熵
- ML - MLOps
- ML - 資料洩露
- ML - 機器學習的盈利化
- ML - 資料型別
- 機器學習 - 資源
- ML - 快速指南
- ML - 速查表
- ML - 面試問題
- ML - 有用資源
- ML - 討論
機器學習統計
統計學是機器學習中的一項重要工具,因為它可以幫助我們理解資料中潛在的模式。它為我們提供了描述、總結和分析資料的方法。讓我們瞭解一下機器學習統計的一些基礎知識。
什麼是統計學?
統計學是數學的一個分支,它處理資料的收集、分析、解釋和呈現。它為我們提供了各種方法和技術來分析資料並從中得出結論。
統計學是機器學習的基礎,因為它可以幫助我們分析和視覺化資料以找到隱藏的模式。統計學在機器學習中以多種方式使用,包括模型驗證、資料清洗、模型選擇、評估模型效能等。
機器學習的基本統計概念
以下是機器學習必不可少的一些重要統計概念:
- 均值、中位數、眾數 - 這些統計量用於描述資料集的集中趨勢。
- 標準差、方差 - 標準差是衡量一組資料值圍繞其均值的離散程度或變異程度的指標。
- 百分位數 - 百分位數是一個指標,表示一組觀測值中低於給定百分比觀測值的數值。
- 資料分佈 - 它指的是資料點在資料集中分佈或分散的方式。
- 偏度和峰度 - 偏度指的是分佈不對稱的程度,峰度指的是分佈峰值的程度。
- 偏差和方差 - 它們描述了模型預測中誤差的來源。
- 假設 - 它是一種針對問題的提出的解釋或解決方案。
- 線性迴歸 - 它用於根據另一個變數的值預測變數的值。
- 邏輯迴歸 - 它估計事件發生的機率。
- 主成分分析 - 它是一種降維方法,用於降低大型資料集的維度。
統計學的型別
統計學分為兩種型別:描述性統計和推斷性統計。
- 描述性統計 - 用於描述或總結資料集特徵的一組規則或方法。
- 推斷性統計 - 處理根據樣本資料對總體進行預測和推斷
讓我們詳細瞭解這兩種型別的統計。
描述性統計
描述性統計是統計學的一個分支,它處理資料的總結和分析。它包括諸如均值、中位數、眾數、方差和標準差等度量。這些度量幫助我們瞭解資料的集中趨勢、變異性和分佈。
機器學習中的應用
在機器學習中,描述性統計可用於總結資料、識別異常值和檢測模式。例如,我們可以使用均值和標準差來描述資料集的分佈。
示例
在 Python 中,我們可以使用 NumPy 和 Pandas 等庫來計算描述性統計。以下是一個示例:
import numpy as np import pandas as pd data = np.array([1, 2, 3, 4, 5]) df = pd.DataFrame(data, columns=["Values"]) print(df.describe())
輸出
這將輸出資料集的摘要,包括計數、均值、標準差、最小值和最大值,如下所示:
Values count 5.000000 mean 3.000000 std 1.581139 min 1.000000 25% 2.000000 50% 3.000000 75% 4.000000 max 5.000000
推斷性統計
推斷性統計是統計學的一個分支,它處理根據樣本資料對總體進行預測和推斷。它涉及使用假設檢驗、置信區間和迴歸分析來對資料得出結論。
機器學習中的應用
在機器學習中,推斷性統計可用於根據現有資料對新資料進行預測。例如,我們可以使用迴歸分析根據房屋特徵(如臥室和浴室的數量)來預測房屋的價格。
示例
在 Python 中,我們可以使用 Scikit-Learn 和 StatsModels 等庫執行推斷性統計。以下是一個示例:
import statsmodels.api as sm import numpy as np X = np.array([1, 2, 3, 4, 5]) y = np.array([2, 4, 6, 8, 10]) X = sm.add_constant(X) model = sm.OLS(y, X).fit() print(model.summary())
輸出
這將輸出迴歸模型的摘要,包括係數、標準誤差、t統計量和p值,如下所示:

在下一章中,我們將詳細討論機器學習中常用的各種描述性和推斷性統計量度,並附帶 Python 實現示例。