
- 機器學習基礎
- ML - 首頁
- ML - 簡介
- ML - 入門
- ML - 基本概念
- ML - 生態系統
- ML - Python 庫
- ML - 應用
- ML - 生命週期
- ML - 必備技能
- ML - 實現
- ML - 挑戰與常見問題
- ML - 侷限性
- ML - 真實案例
- ML - 資料結構
- ML - 數學基礎
- ML - 人工智慧
- ML - 神經網路
- ML - 深度學習
- ML - 獲取資料集
- ML - 分類資料
- ML - 資料載入
- ML - 資料理解
- ML - 資料準備
- ML - 模型
- ML - 監督學習
- ML - 無監督學習
- ML - 半監督學習
- ML - 強化學習
- ML - 監督學習 vs. 無監督學習
- 機器學習資料視覺化
- ML - 資料視覺化
- ML - 直方圖
- ML - 密度圖
- ML - 箱線圖
- ML - 相關矩陣圖
- ML - 散點矩陣圖
- 機器學習統計學
- ML - 統計學
- ML - 均值、中位數、眾數
- ML - 標準差
- ML - 百分位數
- ML - 資料分佈
- ML - 偏度和峰度
- ML - 偏差和方差
- ML - 假設
- 機器學習中的迴歸分析
- ML - 迴歸分析
- ML - 線性迴歸
- ML - 簡單線性迴歸
- ML - 多元線性迴歸
- ML - 多項式迴歸
- 機器學習中的分類演算法
- ML - 分類演算法
- ML - 邏輯迴歸
- ML - K近鄰演算法 (KNN)
- ML - 樸素貝葉斯演算法
- ML - 決策樹演算法
- ML - 支援向量機
- ML - 隨機森林
- ML - 混淆矩陣
- ML - 隨機梯度下降
- 機器學習中的聚類演算法
- ML - 聚類演算法
- ML - 基於中心的聚類
- ML - K均值聚類
- ML - K中心點聚類
- ML - 均值漂移聚類
- ML - 層次聚類
- ML - 基於密度的聚類
- ML - DBSCAN 聚類
- ML - OPTICS 聚類
- ML - HDBSCAN 聚類
- ML - BIRCH 聚類
- ML - 親和傳播
- ML - 基於分佈的聚類
- ML - 凝聚層次聚類
- 機器學習中的降維
- ML - 降維
- ML - 特徵選擇
- ML - 特徵提取
- ML - 向後消除法
- ML - 向前特徵構建
- ML - 高相關性過濾器
- ML - 低方差過濾器
- ML - 缺失值比率
- ML - 主成分分析
- 強化學習
- ML - 強化學習演算法
- ML - 利用與探索
- ML - Q學習
- ML - REINFORCE 演算法
- ML - SARSA 強化學習
- ML - 演員-評論家方法
- 深度強化學習
- ML - 深度強化學習
- 量子機器學習
- ML - 量子機器學習
- ML - 使用 Python 的量子機器學習
- 機器學習雜項
- ML - 效能指標
- ML - 自動化工作流程
- ML - 提升模型效能
- ML - 梯度提升
- ML - 自舉匯聚 (Bagging)
- ML - 交叉驗證
- ML - AUC-ROC 曲線
- ML - 網格搜尋
- ML - 資料縮放
- ML - 訓練和測試
- ML - 關聯規則
- ML - Apriori 演算法
- ML - 高斯判別分析
- ML - 成本函式
- ML - 貝葉斯定理
- ML - 精度和召回率
- ML - 對抗性
- ML - 堆疊
- ML - 迭代週期 (Epoch)
- ML - 感知器
- ML - 正則化
- ML - 過擬合
- ML - P值
- ML - 熵
- ML - MLOps
- ML - 資料洩露
- ML - 機器學習的貨幣化
- ML - 資料型別
- 機器學習 - 資源
- ML - 快速指南
- ML - 速查表
- ML - 面試問題
- ML - 有用資源
- ML - 討論
機器學習 - 迭代週期 (Epoch)
在機器學習中,迭代週期(Epoch)指的是在模型訓練過程中完整遍歷整個訓練資料集的一次迭代。簡單來說,就是在訓練階段演算法遍歷整個資料集的次數。
在訓練過程中,演算法對訓練資料進行預測,計算損失,並更新模型引數以減少損失。目標是透過最小化損失函式來最佳化模型的效能。當模型對所有訓練資料都進行了預測後,一個迭代週期就完成了。
迭代週期是訓練過程中的一個重要引數,因為它會顯著影響模型的效能。迭代週期設定得太低會導致模型欠擬合,而設定得太高則會導致過擬合。
欠擬合是指模型未能捕捉資料中的潛在模式,在訓練集和測試集上的表現都很差。當模型過於簡單或訓練不足時就會發生這種情況。在這種情況下,增加迭代週期可以幫助模型從資料中學習更多資訊並提高其效能。
另一方面,過擬合是指模型學習了訓練資料中的噪聲,在訓練集上表現良好,但在測試集上表現很差。當模型過於複雜或訓練迭代週期過多時就會發生這種情況。為了避免過擬合,必須限制迭代週期的數量,並使用其他正則化技術,例如提前停止或 dropout。
Python 實現
在 Python 中,迭代週期的數量是在機器學習模型的訓練迴圈中指定的。例如,當使用 Keras 庫訓練神經網路時,可以使用 "fit" 方法中的 "epochs" 引數設定迭代週期的數量。
示例
# import necessary libraries import numpy as np from keras.models import Sequential from keras.layers import Dense # generate some random data for training X_train = np.random.rand(100, 10) y_train = np.random.randint(0, 2, size=(100,)) # create a neural network model model = Sequential() model.add(Dense(16, input_dim=10, activation='relu')) model.add(Dense(1, activation='sigmoid')) # compile the model with binary cross-entropy loss and adam optimizer model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy']) # train the model with 10 epochs model.fit(X_train, y_train, epochs=10)
在這個例子中,我們生成一些隨機訓練資料,並建立一個簡單的神經網路模型,該模型包含一個輸入層、一個隱藏層和一個輸出層。我們使用二元交叉熵損失和 Adam 最佳化器編譯模型,並在 "fit" 方法中將迭代週期數設定為 10。
在訓練過程中,模型對訓練資料進行預測,計算損失,並更新權重以最小化損失。完成 10 個迭代週期後,模型被認為已完成訓練,我們可以使用它對新的、未見過的資料進行預測。
輸出
執行此程式碼時,將產生類似這樣的輸出:
Epoch 1/10 4/4 [==============================] - 31s 2ms/step - loss: 0.7012 - accuracy: 0.4976 Epoch 2/10 4/4 [==============================] - 0s 1ms/step - loss: 0.6995 - accuracy: 0.4390 Epoch 3/10 4/4 [==============================] - 0s 1ms/step - loss: 0.6921 - accuracy: 0.5123 Epoch 4/10 4/4 [==============================] - 0s 1ms/step - loss: 0.6778 - accuracy: 0.5474 Epoch 5/10 4/4 [==============================] - 0s 1ms/step - loss: 0.6819 - accuracy: 0.5542 Epoch 6/10 4/4 [==============================] - 0s 1ms/step - loss: 0.6795 - accuracy: 0.5377 Epoch 7/10 4/4 [==============================] - 0s 1ms/step - loss: 0.6840 - accuracy: 0.5303 Epoch 8/10 4/4 [==============================] - 0s 1ms/step - loss: 0.6795 - accuracy: 0.5554 Epoch 9/10 4/4 [==============================] - 0s 1ms/step - loss: 0.6706 - accuracy: 0.5545 Epoch 10/10 4/4 [==============================] - 0s 1ms/step - loss: 0.6722 - accuracy: 0.5556
廣告