神經網路的數學基礎



數學在任何機器學習演算法中都至關重要,並且包含各種核心數學概念,以便以特定的方式設計正確的演算法。

下面提到了數學主題對機器學習和資料科學的重要性:

machine learning

現在,讓我們關注機器學習的主要數學概念,這些概念對於自然語言處理的角度來說非常重要:

向量

向量被認為是數字陣列,可以是連續的或離散的,包含向量的空間稱為向量空間。向量的空間維度可以是有限的或無限的,但已經觀察到機器學習和資料科學問題處理的是固定長度的向量。

向量表示如下所示:

temp = torch.FloatTensor([23,24,24.5,26,27.2,23.0])
temp.size()
Output - torch.Size([6])

在機器學習中,我們處理多維資料。因此,向量變得非常關鍵,並且被視為任何預測問題陳述的輸入特徵。

標量

標量被認為具有零維,僅包含一個值。在 PyTorch 中,它不包含一個具有零維的特殊張量;因此,宣告將如下進行:

x = torch.rand(10)
x.size()
Output - torch.Size([10])

矩陣

大多數結構化資料通常以表格或特定矩陣的形式表示。我們將使用一個名為波士頓房價的資料集,它在 Python scikit-learn 機器學習庫中隨時可用。

boston_tensor = torch.from_numpy(boston.data)
boston_tensor.size()
Output: torch.Size([506, 13])
boston_tensor[:2]
Output:
Columns 0 to 7
0.0063 18.0000 2.3100 0.0000 0.5380 6.5750 65.2000 4.0900
0.0273 0.0000 7.0700 0.0000 0.4690 6.4210 78.9000 4.9671
Columns 8 to 12
1.0000 296.0000 15.3000 396.9000 4.9800
2.0000 242.0000 17.8000 396.9000 9.1400
廣告

© . All rights reserved.