PyTorch - 術語



在本章中,我們將討論 PyTorch 中一些最常用的術語。

PyTorch NumPy

PyTorch 張量與 NumPy 陣列相同。張量是 n 維陣列,在 PyTorch 中,它提供了許多用於操作這些張量函式。

PyTorch 張量通常利用 GPU 來加速其數值計算。在 PyTorch 中建立的這些張量可用於將兩層網路擬合到隨機資料。使用者可以手動實現網路的前向和後向傳遞。

變數和自動微分

使用自動微分時,網路的前向傳遞將定義一個計算圖 - 圖中的節點將是張量,邊將是生成輸出張量的函式。

PyTorch 張量可以建立為變數物件,其中變量表示計算圖中的一個節點。

動態圖

靜態圖很好,因為使用者可以預先最佳化圖。如果程式設計師反覆重用同一個圖,則可以保留這種潛在的代價高昂的預先最佳化,因為同一個圖被反覆執行。

它們之間的主要區別在於 Tensor Flow 的計算圖是靜態的,而 PyTorch 使用動態計算圖。

最佳化包

PyTorch 中的 optim 包抽象了最佳化演算法的概念,該演算法以多種方式實現並提供了常用最佳化演算法的示例。這可以在 import 語句中呼叫。

多處理

多處理支援相同操作,以便所有張量都在多個處理器上工作。佇列將把其資料移動到共享記憶體中,並且只會將控制代碼傳送到另一個程序。

廣告