
- PyTorch 教程
- PyTorch - 首頁
- PyTorch - 簡介
- PyTorch - 安裝
- 神經網路的數學基礎
- PyTorch - 神經網路基礎
- 機器學習的通用工作流程
- 機器學習與深度學習
- 實現第一個神經網路
- 神經網路到功能模組
- PyTorch - 術語
- PyTorch - 載入資料
- PyTorch - 線性迴歸
- PyTorch - 卷積神經網路
- PyTorch - 迴圈神經網路
- PyTorch - 資料集
- PyTorch - 卷積網路簡介
- 從頭開始訓練卷積網路
- PyTorch - 卷積網路中的特徵提取
- PyTorch - 卷積網路的視覺化
- 使用卷積網路進行序列處理
- PyTorch - 詞嵌入
- PyTorch - 遞迴神經網路
- PyTorch 有用資源
- PyTorch - 快速指南
- PyTorch - 有用資源
- PyTorch - 討論
PyTorch - 術語
在本章中,我們將討論 PyTorch 中一些最常用的術語。
PyTorch NumPy
PyTorch 張量與 NumPy 陣列相同。張量是 n 維陣列,在 PyTorch 中,它提供了許多用於操作這些張量函式。
PyTorch 張量通常利用 GPU 來加速其數值計算。在 PyTorch 中建立的這些張量可用於將兩層網路擬合到隨機資料。使用者可以手動實現網路的前向和後向傳遞。
變數和自動微分
使用自動微分時,網路的前向傳遞將定義一個計算圖 - 圖中的節點將是張量,邊將是生成輸出張量的函式。
PyTorch 張量可以建立為變數物件,其中變量表示計算圖中的一個節點。
動態圖
靜態圖很好,因為使用者可以預先最佳化圖。如果程式設計師反覆重用同一個圖,則可以保留這種潛在的代價高昂的預先最佳化,因為同一個圖被反覆執行。
它們之間的主要區別在於 Tensor Flow 的計算圖是靜態的,而 PyTorch 使用動態計算圖。
最佳化包
PyTorch 中的 optim 包抽象了最佳化演算法的概念,該演算法以多種方式實現並提供了常用最佳化演算法的示例。這可以在 import 語句中呼叫。
多處理
多處理支援相同操作,以便所有張量都在多個處理器上工作。佇列將把其資料移動到共享記憶體中,並且只會將控制代碼傳送到另一個程序。
廣告