1. 什么是tensor
在神經(jīng)網(wǎng)絡的計算中燥狰,數(shù)據(jù)都是以tensor(張量)的形式進行傳遞和運算的.
tensor是對一類數(shù)學概念的一個概括:
- 0維tensor = 數(shù)字 = 標量
- 1維tensor = 序列 = 向量
- 2維tensor = 2維序列 = 矩陣
- ……
- n維tensor = n維序列
其中n也代表了訪問tensor中某個元素所需要的indexs的數(shù)量预伺,例如對于一個2維的tensor:
a = [
[1, 2],
[3, 4]
]
當我們想要訪問3這個元素時候需要輸入:
a[1][0]
3
可以看到,需要2個indexs.
2. pytorch生成tensor
- 可以使用torch的construct function 和factory function 生成
import torch
import numpy as np
data = np.array([1, 2, 3])
print(type(data)) # <class 'numpy.ndarray'>
print(torch.Tensor(data)) # tensor([1., 2., 3.]) construct function copy
print(torch.tensor(data)) # tensor([1, 2, 3]) factory function copy mostly used
print(torch.as_tensor(data)) # tensor([1, 2, 3]) factory function share
print(torch.from_numpy(data)) # tensor([1, 2, 3]) factory function share
output:
<class 'numpy.ndarray'>
tensor([1., 2., 3.])
tensor([1, 2, 3])
tensor([1, 2, 3])
tensor([1, 2, 3])
以上幾種生成方式的區(qū)別如下:
- torch.Tensor()屬于construct function门驾,可以輸入list或numpy.ndarry,tensor的數(shù)據(jù)格式為float,生成的方式為copy咙冗,即對原數(shù)據(jù)進行復制孵滞,因此當原數(shù)據(jù)改動時中捆,生成的tensor不會隨之改變
- torch.tensor()屬于factory function,可以輸入list或numpy.ndarry坊饶,tensor的數(shù)據(jù)格式與輸入數(shù)據(jù)類型相同泄伪,生成的方式為copy,即對原數(shù)據(jù)進行復制匿级,因此當原數(shù)據(jù)改動時蟋滴,生成的tensor不會隨之改變,最常使用
- torch.as_tensor()屬于factory function痘绎,可以輸入list或numpy.ndarry津函,tensor的數(shù)據(jù)格式與輸入數(shù)據(jù)類型相同,生成的方式為share孤页,因此當原數(shù)據(jù)改動時尔苦,生成的tensor也會隨之改變
- torch.from_numpy()屬于factory function,只能輸入numpy.ndarry行施,tensor的數(shù)據(jù)格式與輸入數(shù)據(jù)類型相同允坚,生成的方式為share,因此當原數(shù)據(jù)改動時蛾号,生成的tensor也會隨之改變
- 也可以使用torch的函數(shù)生成特定張量
print(torch.eye(2)) # 生成階數(shù)為2的單位矩陣
print(torch.zeros(2, 2)) # 生成2*2的全0矩陣
print(torch.ones(2, 2)) # 生成2*2的全1矩陣
print(torch.rand(2, 2)) # 生成2*2的隨機矩陣
output:
tensor([[1., 0.],
[0., 1.]])
tensor([[0., 0.],
[0., 0.]])
tensor([[1., 1.],
[1., 1.]])
tensor([[0.6819, 0.8327],
[0.8718, 0.5971]])
3. tensor的屬性
tensor主要有3個屬性:rank, axes和shape
- rank: tensor的indexs數(shù)目屋讶,axes的數(shù)目,維度须教,shape的長度
- axes: tensor的軸皿渗,一個axes對應n維tensor的一個維度斩芭,例如2維tensor就有2個axes,可以形成一個平面. axes的數(shù)目就等于rank
- shape: tensor的shape用來描述每個axes的長度乐疆,而shape的長度就等于rank(因為要描述n個axes的長度)
舉個栗子:
t = torch.tensor([
[1, 1, 1, 1],
[2, 2, 2, 2],
[3, 3, 3, 3]
], dtype=torch.float32)
print(t.shape)
print('rank of tensor: %d' % len(t.shape))
print('number of elements: %d' % torch.tensor(t.shape).prod())
print('number of elements: %d' % t.numel())
output:
torch.Size([3, 4])
rank of tensor: 2
number of elements: 12
number of elements: 12
因為t這個tensor是2維的划乖,rank就是2.
t有2個axes,第一個axis的長度為3挤土,第二個axis為4琴庵,因此shape就是(3,4)
最后兩行都可以用來計算tensor中元素的個數(shù)