
- 機器學習基礎
- ML - 首頁
- ML - 簡介
- ML - 入門
- ML - 基本概念
- ML - 生態系統
- ML - Python 庫
- ML - 應用
- ML - 生命週期
- ML - 必備技能
- ML - 實現
- ML - 挑戰與常見問題
- ML - 侷限性
- ML - 真實案例
- ML - 資料結構
- ML - 數學基礎
- ML - 人工智慧
- ML - 神經網路
- ML - 深度學習
- ML - 獲取資料集
- ML - 分類資料
- ML - 資料載入
- ML - 資料理解
- ML - 資料準備
- ML - 模型
- ML - 監督學習
- ML - 無監督學習
- ML - 半監督學習
- ML - 強化學習
- ML - 監督學習與無監督學習對比
- 機器學習資料視覺化
- ML - 資料視覺化
- ML - 直方圖
- ML - 密度圖
- ML - 箱線圖
- ML - 相關矩陣圖
- ML - 散點矩陣圖
- 機器學習統計學
- ML - 統計學
- ML - 均值、中位數、眾數
- ML - 標準差
- ML - 百分位數
- ML - 資料分佈
- ML - 偏度和峰度
- ML - 偏差和方差
- ML - 假設
- 機器學習中的迴歸分析
- ML - 迴歸分析
- ML - 線性迴歸
- ML - 簡單線性迴歸
- ML - 多元線性迴歸
- ML - 多項式迴歸
- 機器學習中的分類演算法
- ML - 分類演算法
- ML - 邏輯迴歸
- ML - K近鄰演算法 (KNN)
- ML - 樸素貝葉斯演算法
- ML - 決策樹演算法
- ML - 支援向量機
- ML - 隨機森林
- ML - 混淆矩陣
- ML - 隨機梯度下降
- 機器學習中的聚類演算法
- ML - 聚類演算法
- ML - 基於中心點的聚類
- ML - K均值聚類
- ML - K中心點聚類
- ML - 均值漂移聚類
- ML - 層次聚類
- ML - 基於密度的聚類
- ML - DBSCAN 聚類
- ML - OPTICS 聚類
- ML - HDBSCAN 聚類
- ML - BIRCH 聚類
- ML - 親和傳播
- ML - 基於分佈的聚類
- ML - 凝聚層次聚類
- 機器學習中的降維
- ML - 降維
- ML - 特徵選擇
- ML - 特徵提取
- ML - 向後剔除法
- ML - 前向特徵構造
- ML - 高相關性過濾器
- ML - 低方差過濾器
- ML - 缺失值比率
- ML - 主成分分析
- 強化學習
- ML - 強化學習演算法
- ML - 利用與探索
- ML - Q學習
- ML - REINFORCE 演算法
- ML - SARSA 強化學習
- ML - 演員-評論家方法
- 深度強化學習
- ML - 深度強化學習
- 量子機器學習
- ML - 量子機器學習
- ML - 使用 Python 的量子機器學習
- 機器學習雜項
- ML - 效能指標
- ML - 自動工作流程
- ML - 提升模型效能
- ML - 梯度提升
- ML - 自舉匯聚 (Bagging)
- ML - 交叉驗證
- ML - AUC-ROC 曲線
- ML - 網格搜尋
- ML - 資料縮放
- ML - 訓練和測試
- ML - 關聯規則
- ML - Apriori 演算法
- ML - 高斯判別分析
- ML - 成本函式
- ML - 貝葉斯定理
- ML - 精度和召回率
- ML - 對抗性
- ML - 堆疊
- ML - 輪次
- ML - 感知器
- ML - 正則化
- ML - 過擬合
- ML - P值
- ML - 熵
- ML - MLOps
- ML - 資料洩露
- ML - 機器學習的貨幣化
- ML - 資料型別
- 機器學習 - 資源
- ML - 快速指南
- ML - 速查表
- ML - 面試問題
- ML - 有用資源
- ML - 討論
機器學習 - 缺失值比率
缺失值比率是一種機器學習中使用的特徵選擇技術,用於識別和刪除資料集中的缺失值比例較高的特徵。此技術用於透過減少用於訓練模型的特徵數量來提高模型效能,並避免由缺失值引起的偏差問題。
缺失值比率的工作原理是計算資料集每個特徵的缺失值百分比,並刪除缺失值百分比超過特定閾值的特徵。之所以這樣做,是因為缺失值百分比高的特徵可能對預測目標變數沒有用,並可能在模型中引入偏差。
實施缺失值比率的步驟如下:
計算資料集中每個特徵的缺失值百分比。
為特徵的缺失值百分比設定閾值。
刪除缺失值百分比高於閾值的特徵。
使用剩餘特徵訓練機器學習模型。
示例
以下是如何在 Python 中實現缺失值比率的示例:
# Importing the necessary libraries import numpy as np # Load the diabetes dataset diabetes = np.genfromtxt(r'C:\Users\Leekha\Desktop\diabetes.csv', delimiter=',') # Define the predictor variables (X) and the target variable (y) X = diabetes[:, :-1] y = diabetes[:, -1] # Compute the percentage of missing values for each feature missing_percentages = np.isnan(X).mean(axis=0) # Set the threshold for the percentage of missing values for the features threshold = 0.5 # Find the indices of the features with a missing value percentage # above the threshold high_missing_indices = [i for i, percentage in enumerate(missing_percentages) if percentage > threshold] # Remove the high missing value features from the dataset X_filtered = np.delete(X, high_missing_indices, axis=1) # Print the shape of the filtered dataset print('Shape of the filtered dataset:', X_filtered.shape)
以上程式碼對糖尿病資料集執行缺失值比率,並刪除缺失值百分比高於閾值的特徵。
輸出
執行此程式碼時,將產生以下輸出:
Shape of the filtered dataset: (769, 8)
缺失值比率的優點
以下是使用缺失值比率的優點:
節省計算資源 - 減少特徵數量後,訓練機器學習模型所需的計算資源減少了。
提高模型效能 - 透過刪除缺失值百分比高的特徵,缺失值比率可以提高機器學習模型的效能。
簡化模型 - 特徵減少後,模型更容易解釋和理解。
減少偏差 - 透過刪除缺失值百分比高的特徵,缺失值比率可以減少模型中的偏差。
缺失值比率的缺點
以下是使用缺失值比率的缺點:
資訊丟失 - 缺失值比率可能導致資訊丟失,因為它刪除了可能包含重要資訊的特徵。
影響非缺失資料 - 刪除缺失值百分比高的特徵有時會對非缺失資料產生負面影響,尤其是在這些特徵對於預測因變數很重要的情況下。
對因變數的影響 - 刪除缺失值百分比高的特徵有時會對因變數產生負面影響,尤其是在這些特徵對於預測因變數很重要的情況下。
選擇偏差 - 如果缺失值比率刪除了對預測因變數很重要的特徵,則可能引入選擇偏差。
廣告