找到 135 篇文章 關於 PyTorch

PyTorch – 如何獲取張量元素的指數?

Shahid Akhtar Khan
更新於 2021 年 12 月 6 日 11:32:17

1K+ 次檢視

要查詢輸入張量元素的指數,我們可以應用 Tensor.exp() 或 torch.exp(input)。在這裡,input 是計算指數的輸入張量。這兩種方法都會返回一個新的張量,其中包含輸入張量元素的指數值。語法Tensor.exp()或 torch.exp(input) 步驟我們可以使用以下步驟來計算輸入張量元素的指數 -匯入 torch 庫。確保您已安裝它。import torch建立一個張量並列印它。t1 = torch.rand(4, 3) print("Tensor:", t1)計算張量元素的指數。為此,使用 torch.exp(input) 並可選地... 閱讀更多

PyTorch – torch.log2() 方法

Shahid Akhtar Khan
更新於 2021 年 12 月 6 日 11:28:13

419 次檢視

我們使用 torch.log2() 方法計算張量元素以 2 為底的對數。它返回一個新的張量,其中包含原始輸入張量元素的對數值。它以張量作為輸入引數並輸出張量。語法torch.log2(input)其中 input 是 PyTorch 張量。它返回一個具有以 2 為底的對數值的新張量。步驟匯入 torch 庫。確保您已安裝它。import torch建立一個張量並列印它。tensor1 = torch.rand(5, 3) print("Tensor:", tensor1)計算 torch.log2(input) 並可選地將此值賦給一個新變數。在這裡,input 是建立的張量。logb2 = ... 閱讀更多

Tensor.detach() 在 PyTorch 中的作用是什麼?

Shahid Akhtar Khan
更新於 2021 年 12 月 6 日 11:24:29

12K+ 次檢視

Tensor.detach() 用於將張量從當前計算圖中分離。它返回一個不需要梯度的新的張量。當我們不需要跟蹤張量進行梯度計算時,我們將張量從當前計算圖中分離。當我們需要將張量從 GPU 移動到 CPU 時,我們也需要分離張量。語法Tensor.detach()它返回一個新的張量,其中 requires_grad = True。將不再計算相對於此張量的梯度。步驟匯入 torch 庫。確保您已安裝它。import torch建立一個 requires_grad = True 的 PyTorch 張量並... 閱讀更多

如何在 PyTorch 中計算梯度?

Shahid Akhtar Khan
更新於 2021 年 12 月 6 日 11:20:48

12K+ 次檢視

要計算梯度,張量必須將其引數 requires_grad = true。梯度與偏導數相同。例如,在函式 y = 2*x + 1 中,x 是一個 requires_grad = True 的張量。我們可以使用 y.backward() 函式計算梯度,並且可以使用 x.grad 訪問梯度。在這裡,x.gad 的值與 y 關於 x 的偏導數相同。如果張量 x 沒有 requires_grad,則梯度為 None。我們可以定義一個多元函式。這裡的變數是 PyTorch 張量。步驟我們可以使用... 閱讀更多

PyTorch – 如何計算張量的逐元素邏輯異或?

Shahid Akhtar Khan
更新於 2021 年 12 月 6 日 11:13:01

439 次檢視

torch.logical_xor() 計算給定兩個輸入張量的逐元素邏輯異或。在張量中,值為零的元素被視為 False,非零元素被視為 True。它以兩個張量作為輸入引數,並在計算邏輯異或後返回一個具有值的張量。語法torch.logical_xor(tensor1, tensor2)其中 tensor1 和 tensor2 是兩個輸入張量。步驟要計算給定輸入張量的逐元素邏輯異或,可以按照以下步驟操作 -匯入 torch 庫。確保您已安裝它。建立兩個張量,tensor1 和 tensor2,並列印張量。計算 torch.logical_xor(tesnor1, tesnor2) 並將值賦給... 閱讀更多

如何在 PyTorch 中縮小張量?

Shahid Akhtar Khan
更新於 2021 年 12 月 6 日 11:08:19

725 次檢視

torch.narrow() 方法用於對 PyTorch 張量執行縮小操作。它返回一個新的張量,它是原始輸入張量的縮小版本。例如,一個 [4, 3] 的張量可以縮小到 [2, 3] 或 [4, 2] 大小的張量。我們可以一次沿單個維度縮小張量。在這裡,我們不能將兩個維度都縮小到 [2, 2] 的大小。我們還可以使用 Tensor.narrow() 來縮小張量。語法torch.narrow(input, dim, start, length) Tensor.narrow(dim, start, length)引數input – 它是要縮小的 PyTorch 張量。dim – 它是沿... 閱讀更多

如何在 PyTorch 中執行置換操作?

Shahid Akhtar Khan
更新於 2021 年 12 月 6 日 11:03:59

3K+ 次檢視

torch.permute() 方法用於對 PyTorch 張量執行置換操作。它返回輸入張量的檢視,其維度已置換。它不會建立原始張量的副本。例如,一個維度為 [2, 3] 的張量可以置換為 [3, 2]。我們還可以使用 Tensor.permute() 使用新維度置換張量。語法torch.permute(input, dims)引數input – PyTorch 張量。dims – 期望維度的元組。步驟匯入 torch 庫。確保您已安裝它。import torch建立一個 PyTorch 張量並列印張量和張量的大小。t = torch.tensor([[1, 2], [3, 4], [5, 6]]) print("Tensor:", ... 閱讀更多

如何在 PyTorch 中執行擴充套件操作?

Shahid Akhtar Khan
更新於 2021 年 12 月 6 日 10:59:35

3K+ 次檢視

Tensor.expand() 屬性用於執行擴充套件操作。它沿著單例維度將張量擴充套件到新維度。擴充套件張量只會建立原始張量的新檢視;它不會建立原始張量的副本。如果將特定維度設定為 -1,則張量不會沿著此維度擴充套件。例如,如果我們有一個大小為 (3, 1) 的張量,我們可以沿著大小為 1 的維度擴充套件此張量。步驟要擴充套件張量,可以按照以下步驟操作 -匯入 torch 庫。確保您已安裝它。import torch定義一個張量... 閱讀更多

如何在 PyTorch 中建立具有梯度的張量?

Shahid Akhtar Khan
更新於 2021 年 12 月 6 日 10:54:45

5K+ 次檢視

要建立具有梯度的張量,我們在建立張量時使用一個額外的引數“requires_grad = True”。requires_grad 是一個標誌,用於控制張量是否需要梯度。只有浮點和複數型別的張量才能需要梯度。如果 requires_grad 為 false,則張量與沒有 requires_grad 引數的張量相同。語法torch.tensor(value, requires_grad = True)引數value – 張量資料,使用者定義或隨機生成。requires_grad – 一個標誌,如果為 True,則張量包含在梯度計算中。輸出它返回一個 requires_grad 為 True 的張量。步驟匯入所需的庫。所需的庫是 torch。定義一個 requires_grad = True 的張量顯示... 閱讀更多

如何在 PyTorch 中查詢逐元素餘數?

Shahid Akhtar Khan
更新於 2021 年 12 月 6 日 10:49:37

245 次檢視

使用 `torch.remainder()` 方法計算張量除以另一個張量後的元素級餘數。我們也可以使用 `torch.fmod()` 來查詢餘數。這兩種方法的區別在於,在 `torch.remainder()` 中,如果結果的符號與除數的符號不同,則將除數加到結果中;而在 `torch.fmod()` 中,則不會新增。語法 `torch.remainder(input, other)` `torch.fmod(input, other)` 引數 Input – 它是一個 PyTorch 張量或標量,被除數。 Other – 它也是一個 PyTorch 張量或標量,除數。 輸出 它返回一個包含元素級餘數值的張量。 步驟 匯入 torch 庫。 定義張量,即被除數和... 閱讀更多

廣告

© . All rights reserved.