Pytorch深度学习之神经网络合成(pytorch实现神经网络)

网友投稿 1180 2022-05-30

理解神经网络的基本组成部分,如张量、张量运算和梯度递减等,对构造复杂的神经网络至关重要。本章将构建首个神经网络的Hello world程序,并涵盖以下主题:

安装PyTorch;

实现第一个神经网络;

划分神经网络的功能模块;

介绍张量、变量、Autograd、梯度和优化器等基本构造模块;

使用PyTorch加载数据。

2.1 安装PyTorch

PyTorch可以作为Python包使用,用户可以使用pip或conda来构建,或者从源代码构建。本书推荐使用Anaconda Python 3发行版。要安装Anaconda,请参考Anaconda官方文档。所有示例将在本书的GitHub存储库中以Jupyter Notebook的形式提供。强烈建议使用Jupyter Notebook,因为它允许进行交互。如果已经安装了Anaconda Python,那么可以继续PyTorch安装的后续步骤。

基于GPU的Cuda 8版安装:

基于GPU的Cuda 7.5版安装:

非GPU版的安装:

在本书写作时,PyTorch还不支持Windows,所以可以尝试使用虚拟机或Docker镜像。

2.2 实现第一个神经网络

下面给出本书介绍的第一个神经网络,它将学习如何将训练示例(即输入数组)映射成目标(即输出数组)。假设我们为最大的在线公司之一Wondermovies工作(该公司按需提供视频服务),训练数据集包含了表示用户在平台上观看电影的平均时间的特征,网络将据此预测每个用户下周使用平台的时间。这是个假想出来的用例,不需要深入考虑。构建解决方案的主要分解活动如下。

准备数据:get_data函数准备输入和输出张量(数组)。

创建学习参数:get_weights函数提供以随机值初始化的张量,网络通过优化这些参数来解决问题。

网络模型:simple_network函数应用线性规则为输入数据生成输出,计算时先用权重乘以输入数据,再加上偏差(y

=wx

+b

)。 - 损失:loss_fn函数提供了评估模型优劣的信息。 - 优化器:optimize函数用于调整初始的随机权重,并帮助模型更准确地计算目标值。

如果大家刚接触机器学习,不用着急,到本章结束时将会真正理解每个函数的作用。下面这些从PyTorch代码抽取出来的函数,有助于更容易理解神经网络。我们将逐个详细讨论这些函数。前面提到的分解活动对大多数机器学习和深度学习问题而言都是相同的。接下来的章节会探讨为改进各项功能从而构建实际应用的各类技术。

神经网络的线性回归模型如下:

{-:-}y

= __w__x

+b

用PyTorch编码如下:

到本章结束时,你会了解到每个函数的作用。

2.2.1 准备数据

PyTorch提供了两种类型的数据抽象,称为张量和变量。张量类似于numpy中的数组,它们也可以在GPU上使用,并能够改善性能。数据抽象提供了GPU和CPU的简易切换。对某些运算,我们会注意到性能的提高,以及只有当数据被表示成数字的张量时,机器学习算法才能理解不同格式的数据。张量类似Python数组,并可以改变大小。例如,图像可以表示成三维数组(高,宽,通道(RGB)),深度学习中使用最多5个维度的张量表示也很常见。一些常见的张量如下:

标量(0维张量);

向量(1维张量);

矩阵(2维张量);

3维张量;

切片张量;

4维张量;

5维张量;

GPU张量。

包含一个元素的张量称为标量。标量的类型通常是FloatTensor或LongTensor。在本书写作时,PyTorch还没有特别的0维张量。因此,我们使用包含一个元素的一维张量表示:

向量只不过是一个元素序列的数组。例如,可以使用向量存储上周的平均温度:

大多数结构化数据都可以表示成表或矩阵。我们使用波士顿房价(Boston House Prices)的数据集,它包含在Python的机器学习包scikit-learn中。数据集是一个包含了506个样本或行的numpy数组,其中每个样本用13个特征表示。Torch提供了一个工具函数from_numpy(),它将numpy数组转换成torch张量,其结果张量的形状为506行×13列:

当把多个矩阵累加到一起时,就得到了一个3维张量。3维张量可以用来表示类似图像这样的数据。图像可以表示成堆叠到一起的矩阵中的数字。一个图像形状的例子是(224,224,3),其中第一个数字表示高度,第二个数字表示宽度,第三个表示通道数(RGB)。我们来看看计算机是如何识别大熊猫的,代码如下:

由于显示大小为(224,224,3)的张量会占用本书的很多篇幅,因此将把图2.1所示的图像切片成较小的张量来显示。

图2.1 显示的图像

PyTorch深度学习之神经网络合成(pytorch实现神经网络)

张量的一个常见操作是切片。举个简单的例子,我们可能选择一个张量的前5个元素,其中张量名称为sales。我们使用一种简单的记号sales[:slice_index],其中slice_index表示要进行切片的张量位置:

对熊猫图像做些更有趣的处理,比如只选择一个通道时熊猫图像的样子,以及如何选择熊猫的面部。

下面,只选择熊猫图像的一个通道:

输出如图2.2所示。

图2.2

现在裁剪图像,假设要构造一个熊猫的面部检测器,我们只需要熊猫图像的面部部分。我们来裁剪张量图像,让它只包含熊猫面部。

输出如图2.3所示。

另一个常见的例子是需要获取张量的某个特定元素:

第5章在讨论使用卷积神经网络构建图像分类器时,将再次用到图像数据。

图2.3

PyTorch的大多数张量运算都和NumPy运算非常类似。

4维张量类型的一个常见例子是批图像。为了可以更快地在多样例上执行相同的操作,现代的CPU和GPU都进行了专门优化,因此,处理一张或多张图像的时间相差并不大。因而,同时使用一批样例比使用单样例更加常见。对批大小的选择并不一目了然,它取决于多个因素。不使用更大批尺寸或完整数据集的主要因素是GPU的内存限制,16、32和64是通常使用的批尺寸。

举例来说,加载一批64×224×224×3的猫咪图片,其中64表示批尺寸或图片数量,两个224分别表示高和宽,3表示通道数:

可能必须使用5维张量的一个例子是视频数据。视频可以划分为帧,例如,熊猫玩球的长度为30秒的视频,可能包含30帧,这可以表示成形状为(1×30×224×224×3)的张量。一批这样的视频可以表示成形状为(32×30×224×224×3)的张量——例中的30表示每个视频剪辑中包含的帧数,32表示视频剪辑的个数。

我们已学习了如何用张量表示法表示不同形式的数据。有了张量格式的数据后,要进行一些常见运算,比如加、减、乘、点积和矩阵乘法等。所有这些操作都可以在CPU或GPU上执行。PyTorch提供了一个名为cuda()的简单函数,将张量从CPU复制到GPU。我们来看一下其中的一些操作,并比较矩阵乘法运算在CPU和GPU上的性能差异。

张量的加法运算用如下代码实现:

对于张量矩阵乘法,我们比较一下代码在CPU和GPU上的性能。所有张量都可以通过调用cuda()函数转移到GPU上。

GPU上的乘法运算运行如下:

加、减和矩阵乘法这些基础运算可以用于构建复杂运算,如卷积神经网络(CNN)和递归神经网络(RNN),本书稍后的章节将进行相关讲解。

深度学习算法经常可以表示成计算图。图2.4所示为一个在示例中构建的变量计算图的简单例子。

图2.4 变量计算图

在图2.4所示的计算图中,每个小圆圈表示一个变量,变量形成了一个轻量封装,将张量对象、梯度,以及创建张量对象的函数引用封装起来。图2.5所示为Variable类的组件。

图2.5 Variable类

梯度是指loss函数相对于各个参数(W

, b

)的变化率。例如,如果a

的梯度是2,那么a

值的任何变化都会导致Y

值变为原来的两倍。如果还不清楚,不要着急——大多数数深度学习框架都会为我们代为计算梯度值。本章中,我们将学习如何使用梯度来改善模型的性能。

除了梯度,变量还引用了创建它的函数,相应地也就指明了每个变量是如何创建的。例如,变量a带有的信息表明它是由X和W的积生成的。

让我们看个例子,创建变量并检查梯度和函数引用:

在上面的例子中,我们在变量上调用了backward操作来计算梯度。默认情况下,变量的梯度是none。

变量中的grad_fn指向了创建它的函数。变量被用户创建后,就像例子中的x一样,其函数引用为None。对于变量y,它指向的函数引用是MeanBackward。

属性Data用于获取变量相关的张量。

2.2.2 为神经网络创建数据

第一个神经网络中的get_data函数创建了两个变量:x和y,尺寸为(17, 1)和(17)。我们看函数内部的构造:

在前面神经网络的例子中,共有两个学习参数:w和b,还有两个不变的参数:x和y。我们已在get_data函数中创建了变量x和y。学习参数使用随机值初始化并创建,其中参数require_grad的值设为True,这与变量x和y不同,变量x和y创建时require_grad的值是False。初始化学习参数有不同的方法,我们将在后续章节探索。下面列出的是get_weights函数代码:

前面的代码大部分是一目了然的,其中torch.randn函数为任意给定形状创建随机值。

使用PyTorch变量定义了输入和输出后,就要构建模型来学习如何将输入映射到输出。在传统的编程中,我们手动编写具有不同逻辑的函数代码,将输入映射到输出。然而,在深度学习和机器学习中,是通过把输入和相关的输出展示给模型,让模型完成函数的学习。我们的例子中,在线性关系的假定下,实现了尝试把输入映射为输出的简单神经网络。线性关系可以表示为y

= wx

b

,其中w

和b

是学习参数。网络要学习w

和b

的值,这样wx

b

才能更加接近真实的y

。图2.6是训练集和神经网络要学习的模型的示意图。

图2.6 输入数据点

图2.7表示和输入数据点拟合的线性模型。

图2.7 拟合数据点的线性模型

图中的深灰(蓝)色线表示网络学习到的模型。

现在已经有了实现网络所需的所有参数(x、w、b和y),我们对w和x做矩阵乘法,然后,再把结果与b求和,这样就得到了预测值y。函数实现如下:

PyTorch在torch.nn中提供了称为层(layer)的高级抽象,层将负责多数常见的技术都需要用到的后台初始化和运算工作。这里使用低级些的操作是为了理解函数内部的构造。在第5章和第6章中,将用PyTorch抽象出来的层来构建复杂的神经网络或函数。前面的模型可以表示为torch.nn层,如下:

我们已经计算出了y值,接下来要了解模型的性能,必须通过loss函数评估。

由于我们的学习参数w和b以随机值开始,产生的结果y_pred,必和真实值y相去甚远。因此,需要定义一个函数,来告知模型预测值和真实值的差距。由于这是一个回归问题,我们使用称为误差平方和(也称为和方差,SSE)的损失函数。我们对y的预测值和真实值之差求平方。SSE有助于模型评估预测值和真实值的拟合程度。torch.nn库中有不同的损失函数,如均方差(又称方差,MSE)损失和交叉熵损失。但是在本章,我们自己来实现loss函数:

除了计算损失值,我们还进行了backward操作,计算出了学习参数w和b的梯度。由于我们会不止一次使用loss函数,因此通过调用grad.data.zero_()方法来清除前面计算出的梯度值。在第一次调用backward函数的时候,梯度是空的,因此只有当梯度不为None时才将梯度值设为0。

前面例子中的算法使用随机的初始权重来预测目标,并计算损失,最后调用loss变量上的backward函数计算梯度值。每次迭代都在整个样例集合上重复整个过程。在多数的实际应用中,每次迭代都要对整个数据集的一个小子集进行优化操作。损失值计算出来后,用计算出的梯度值进行优化,以让损失值降低。优化器通过下面的函数实现:

学习率是一个超参数,可以让用户通过较小的梯度值变化来调整变量的值,其中梯度指明了每个变量(w和b)需要调整的方向。

不同的优化器,如Adam、RmsProp和SGD,已在torch.optim包中实现好。后面的章节中,我们将使用这些优化器来降低损失或提高准确率。

2.2.3 加载数据

为深度学习算法准备数据本身就可能是件很复杂的事情。PyTorch提供了很多工具类,工具类通过多线程、数据增强和批处理抽象出了如数据并行化等复杂性。本章将介绍两个重要的工具类:Dataset类和DataLoader类。为了理解如何使用这些类,我们从Kaggle网站()上拿到Dogs vs. Cats数据集,并创建可以生成PyTorch张量形式的批图片的数据管道。

任何自定义的数据集类,例如Dogs数据集类,都要继承自PyTorch的数据集类。自定义的类必须实现两个函数:__len__(self)和__getitem__(self,idx)。任何和Dataset类表现类似的自定义类都应和下面的代码类似:

在init方法中,将进行任何需要的初始化。例如在本例中,读取表索引和图片的文件名。__len__(self)运算负责返回数据集中的最大元素个数。__getitem__ (self, idx)运算根据每次调用时的idx返回对应元素。下面的代码实现了DogsAndCatsDataset类。

在定义了DogsAndCatsDataset类后,可以创建一个对象并在其上进行迭代,如下面的代码所示。

在单个的数据实例上应用深度学习算法并不理想。我们需要一批数据,现代的GPU都对批数据的执行进行了性能优化。DataLoader类通过提取出大部分复杂度来帮助创建批数据。

DataLoader类位于PyTorch的utils类中,它将数据集对象和不同的取样器联合,如SequentialSampler和RandomSampler,并使用单进程或者多进程的的迭代器,为我们提供批量图片。取样器是为算法提供数据的不同策略。下面是使用DataLoader处理Dogs vs. Cats数据集的例子。

imgs包含一个形状为(32, 224, 224, 3)的张量,其中32表示批尺寸。

PyTorch团队也维护了两个有用的库,即torchvision和torchtext,这两个库基于Dataset和DataLoader类构建。我们将在相关章节使用它们。

2.3 小结

本章中,我们学习了PyTorch提供的多个数据结构和操作,并使用PyTorch的基础组成模块实现了几个组件。在数据准备上,我们创建了供算法使用的张量。我们的网络架构是一个可预测用户使用Wondermovies平台的平均小时数的模型。我们使用loss函数检查模型的性能,并使用optimize函数调整模型的学习参数,从而改善平台性能。

我们也了解了PyTorch如何通过抽象出数据并行化和数据增强的复杂度,让创建数据管道变得更简单。

下一章将深入探讨神经网络和深度学习算法的原理。我们将学习PyTorch内置的用于构建网络架构、损失函数和优化器的几个模块,也将演示如何在真实数据集上使用它们。

本文转载自异步社区

神经网络 深度学习 机器学习

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:excel两列数据相加结果显示在其中一列教程(excel一列与另一列相加)
下一篇:Python 前端开发之jQuery的事件操作(python是什么意思)
相关文章