写点什么

Tensor:Pytorch 神经网络界的 Numpy

发布于: 刚刚

摘要:Tensor,它可以是 0 维、一维以及多维的数组,你可以将它看作为神经网络界的 Numpy,它与 Numpy 相似,二者可以共享内存,且之间的转换非常方便。


本文分享自华为云社区《Tensor:Pytorch神经网络界的Numpy》,作者: 择城终老 。

Tensor


Tensor,它可以是 0 维、一维以及多维的数组,你可以将它看作为神经网络界的 Numpy,它与 Numpy 相似,二者可以共享内存,且之间的转换非常方便。


但它们也不相同,最大的区别就是 Numpy 会把 ndarray 放在 CPU 中进行加速运算,而由 Torch 产生的 Tensor 会放在 GPU 中进行加速运算。


对于 Tensor,从接口划分,我们大致可分为 2 类:

1. torch.function:如 torch.sum、torch.add 等。

2. tensor.function:如 tensor.view、tensor.add 等。


而从是否修改自身来划分,会分为如下 2 类:

1. 不修改自身数据,如 x.add(y),x 的数据不变,返回一个新的 Tensor。

2. 修改自身数据,如 x.add_(y),运算结果存在 x 中,x 被修改。


简单的理解就是方法名带不带下划线的问题。


现在,我们来实现 2 个数组对应位置相加,看看其效果究竟如何:


import torch
x = torch.tensor([1, 2])y = torch.tensor([3, 4])print(x + y)print(x.add(y))print(x)print(x.add_(y))print(x)
复制代码


运行之后,效果如下:



下面,我们来正式讲解 Tensor 的使用方式。

创建 Tensor


与 Numpy 一样,创建 Tensor 也有很多的方法,可以自身的函数进行生成,也可以通过列表或者 ndarray 进行转换,同样也可以指定维度等。具体方法如下表(数组即张量):



这里需要注意 Tensor 有大写的方法也有小写的方法,具体效果我们先来看看代码:


import torch
t1 = torch.tensor(1)t2 = torch.Tensor(1)print("值{0},类型{1}".format(t1, t1.type()))print("值{0},类型{1}".format(t2, t2.type()))
复制代码


运行之后,效果如下:



其他示例如下:


import torchimport numpy as np
t1 = torch.zeros(1, 2)print(t1)t2 = torch.arange(4)print(t2)t3 = torch.linspace(10, 5, 6)print(t3)nd = np.array([1, 2, 3, 4])t4 = torch.from_numpy(nd)print(t4)
复制代码


其他例子基本与上面基本差不多,这里不在赘述。



修改 Tensor 维度


同样的与 Numpy 一样,Tensor 一样有维度的修改函数,具体的方法如下表所示:



示例代码如下所示:


import torch
t1 = torch.Tensor([[1, 2]])print(t1)print(t1.size())print(t1.dim())print(t1.view(2, 1))print(t1.view(-1))print(torch.unsqueeze(t1, 0))print(t1.numel())
复制代码


运行之后,效果如下:



截取元素


当然,我们创建 Tensor 张量,是为了使用里面的数据,那么就不可避免的需要获取数据进行处理,具体截取元素的方式如表:



示例代码如下所示:


import torch
# 设置随机数种子,保证每次运行结果一致torch.manual_seed(100)t1 = torch.randn(2, 3)# 打印t1print(t1)# 输出第0行数据print(t1[0, :])# 输出t1大于0的数据print(torch.masked_select(t1, t1 > 0))# 输出t1大于0的数据索引print(torch.nonzero(t1))# 获取第一列第一个值,第二列第二个值,第三列第二个值为第1行的值# 获取第二列的第二个值,第二列第二个值,第三列第二个值为第2行的值index = torch.LongTensor([[0, 1, 1], [1, 1, 1]])# 取0表示以行为索引a = torch.gather(t1, 0, index)print(a)# 反操作填0z = torch.zeros(2, 3)print(z.scatter_(1, index, a))
复制代码


运行之后,效果如下:



我们 a =torch.gather(t1, 0, index)对其做了一个图解,方便大家理解。如下图所示:



当然,我们直接有公式计算,因为这么多数据标线实在不好看,这里博主列出转换公式供大家参考:


当dim=0时,out[i,j]=input[index[i,j]][j]当dim=1时,out[i,j]=input[i][index[i][j]]
复制代码

简单的数学运算


与 Numpy 一样,Tensor 也支持数学运算。这里,博主列出了常用的数学运算函数,方便大家参考:



需要注意的是,上面表格所有的函数操作均会创建新的 Tensor,如果不需要创建新的,使用这些函数的下划线"_"版本。


示例如下:


t = torch.Tensor([[1, 2]])t1 = torch.Tensor([[3], [4]])t2 = torch.Tensor([5, 6])# t+0.1*(t1/t2)print(torch.addcdiv(t, 0.1, t1, t2))# t+0.1*(t1*t2)print(torch.addcmul(t, 0.1, t1, t2))print(torch.pow(t,3))print(torch.neg(t))
复制代码


运行之后,效果如下:



上面的这些函数都很好理解,只有一个函数相信没接触机器学习的时候,不大容易理解。也就是 sigmoid()激活函数,它的公式如下:



归并操作


简单的理解,就是对张量进行归并或者说合计等操作,这类操作的输入输出维度一般并不相同,而且往往是输入大于输出维度。而 Tensor 的归并函数如下表所示:



示例代码如下所示:


t = torch.linspace(0, 10, 6)a = t.view((2, 3))print(a)b = a.sum(dim=0)print(b)b = a.sum(dim=0, keepdim=True)print(b)
复制代码


运行之后,效果如下:



需要注意的是,sum 函数求和之后,dim 的元素个数为1,所以要被去掉,如果要保留这个维度,则应当 keepdim=True,默认为 False。

比较操作


在量化交易中,我们一般会对股价进行比较。而 Tensor 张量同样也支持比较的操作,一般是进行逐元素比较。具体函数如下表:



示例代码如下所示:


t = torch.Tensor([[1, 2], [3, 4]])t1 = torch.Tensor([[1, 1], [4, 4]])# 获取最大值print(torch.max(t))# 比较张量是否相等# equal直接返回True或Falseprint(torch.equal(t, t1))# eq返回对应位置是否相等的布尔值与两者维度相同print(torch.eq(t, t1))# 取最大的2个元素,返回索引与值print(torch.topk(t, 1, dim=0))
复制代码


运行之后,输出如下:



矩阵运算


机器学习与深度学习中,存在大量的矩阵运算。与 Numpy 一样常用的矩阵运算一样,一种是逐元素相乘,一种是点积乘法。函数如下表所示:



这里有 3 个主要的点积计算需要区分,dot()函数只能计算 1 维张量,mm()函数只能计算二维的张量,bmm 只能计算三维的矩阵张量。示例如下:


# 计算1维点积a = torch.Tensor([1, 2])b = torch.Tensor([3, 4])print(torch.dot(a, b))# 计算2维点积a = torch.randint(10, (2, 3))b = torch.randint(6, (3, 4))print(torch.mm(a, b))# 计算3维点积a = torch.randint(10, (2, 2, 3))b = torch.randint(6, (2, 3, 4))print(torch.bmm(a, b))
复制代码


运行之后,输出如下:



点击关注,第一时间了解华为云新鲜技术~

发布于: 刚刚阅读数: 2
用户头像

提供全面深入的云计算技术干货 2020.07.14 加入

华为云开发者社区,提供全面深入的云计算前景分析、丰富的技术干货、程序样例,分享华为云前沿资讯动态,方便开发者快速成长与发展,欢迎提问、互动,多方位了解云计算! 传送门:https://bbs.huaweicloud.com/

评论

发布
暂无评论
Tensor:Pytorch神经网络界的Numpy