深度学习入门之Pytorch 数据增强的实现
- 格式:pdf
- 大小:610.21 KB
- 文档页数:6
PyTorch面试知识点PyTorch是一个基于Torch的开源机器学习库,它提供了一个灵活的深度学习开发框架,因此在面试中对于PyTorch的了解是非常重要的。
下面是一些PyTorch面试中可能会涉及到的知识点。
1. 张量(Tensor)张量是PyTorch中最基本的数据结构,它类似于NumPy中的多维数组。
面试官可能会问你张量的创建方法、操作和索引等相关知识点。
以下是一些常见的张量操作:•创建一个张量:可以使用torch.tensor()函数创建一个新的张量。
还可以使用其他函数如torch.zeros(), torch.ones(), torch.randn()等来创建特定类型的张量。
•张量的操作:PyTorch提供了一系列的张量操作函数,如torch.add(), torch.matmul(), torch.transpose()等。
你应该熟悉这些函数的用法。
•张量的索引:与NumPy类似,你可以使用索引和切片来访问张量的元素。
同时,你还可以使用torch.masked_select()函数根据条件选择张量中的元素。
2. 自动求导(Autograd)PyTorch中的自动求导是其最重要的特性之一,它允许你在模型训练过程中自动计算梯度。
在面试中,你可能会被问到什么是自动求导、如何计算梯度以及如何使用PyTorch的自动求导功能。
以下是一些与自动求导相关的知识点:•自动求导机制:PyTorch使用动态图来实现自动求导。
你可以通过将requires_grad属性设置为True来追踪张量的操作,并使用backward()函数计算梯度。
•梯度计算:PyTorch使用反向传播算法来计算梯度。
你可以通过调用backward()函数在计算图上的某个节点上计算梯度。
•torch.no_grad()上下文管理器:有时候你可能需要在不计算梯度的情况下对张量进行操作。
在这种情况下,你可以使用torch.no_grad()上下文管理器来关闭自动求导功能。
基于Python的深度学习入门——使用TensorFlow进行深度学习在人工智能领域,深度学习是一种广泛使用的技术。
而 Python 语言作为一种高级编程语言,非常适合用来进行深度学习的开发。
因为 Python 语言有着丰富的第三方库,比如 TensorFlow,Keras,PyTorch 等等,这些库可以提供非常方便、高效的接口,来帮助我们完成深度学习的开发流程。
在本篇文章中,我将向大家介绍如何基于 Python 和 TensorFlow 进行深度学习的开发,我将从以下几点开始介绍:* 环境准备* TensorFlow 简介* 构建一个简单的神经网络* 训练、评估和预测模型环境准备在使用 Python 进行深度学习之前,我们需要安装 Python 环境。
从官网下载安装包并安装,推荐使用 Python 3.x 版本。
在安装完成后,我们需要下载 TensorFlow 库,可以使用如下命令快速安装:```pythonpip install tensorflow```TensorFlow 简介TensorFlow 是 Google 开发的一种深度学习框架,它可以用于各种类型的机器学习任务,包括分类、回归、聚类和语音识别等等。
TensorFlow 使用静态图形来表示计算过程,这种方式可以最大化运行时的性能,并且可以利用 GPU 在大规模数据集上处理数据。
TensorFlow 最适合的使用场景是当我们想要构建一个大型的神经网络,并在大规模数据集上进行训练时。
这种场景下,TensorFlow 可以提供非常高效的并行计算能力,来加速训练过程。
构建一个简单的神经网络在开发深度学习模型之前,我们需要定义一个神经网络结构。
在本文中,我们将构建一个非常简单的神经网络,它由一个输入层、一个隐藏层和一个输出层组成。
在隐藏层中,我们使用 ReLU 激活函数来增加非线性能力,并使用 Softmax 函数来进行分类。
接下来,我们定义用于训练模型的一些参数:```pythonlearning_rate = 0.01training_epochs = 100batch_size = 256display_step = 1```其中,学习率 (learning_rate) 用于控制梯度下降的步长,训练次数(training_epochs) 用于控制训练时的轮数,批量大小 (batch_size) 用于控制每次训练时数据的数量,显示步骤 (display_step) 用于控制每隔多少个 epoch 就显示一次训练结果。
利用Python实现深度学习网络
深度学习是一种机器学习的技术,它结合了多层感知器,卷积神经网络和深度强化学习等技术来设计和构建复杂的机器学习系统。
使用Python进行深度学习可以利用Python的各种特性,如它的面向对象、多线程以及模块化编程,来帮助实现深度学习网络。
首先,要实现深度学习网络,必须先准备好数据集,这些数据集包括图像,视频,语音或文本文件。
之后,通过导入
Python模块,将数据集转换为上下文相关特征,以便进行机
器学习模型训练。
接着,使用Python开发框架,如Tensorflow,Keras等,来构
建深度学习网络的拓扑结构,该拓扑结构包括神经网络层、激活函数层、损失函数层和优化器层。
之后,就可以利用深度学习网络对模型进行训练,以提高模型准确性。
最后,可以使用Python中的可视化工具,如Matplotlib,来可
视化深度学习网络的训练结果,以帮助开发者更好地理解深度学习模型的内部工作原理。
此外,还可以使用相应的库,如Pillow或OpenCV,将训练结果可视化出来,从而获得最佳的
模型表达。
总的来说,Python的强大特性及丰富的库支持,使得它是实
现深度学习网络的最佳选择。
只要具备基础的Python编程知识,就可以利用它来创建出兼具准确性与可视性的深度学习网络。
pytorch enumerate函数PyTorch的enumerate函数PyTorch是一个开源的机器学习框架,具有易于使用、灵活性和高性能的特点。
在PyTorch中,有许多内置函数可以帮助我们更方便地进行深度学习任务。
其中一个非常常用的函数是enumerate函数。
enumerate函数在Python中是一个内置函数,用于将一个可遍历的数据对象(如列表、元组或字符串)组合为一个索引序列,同时返回索引和对应的值。
在PyTorch中,enumerate函数常用于数据加载和训练过程中。
数据加载是深度学习任务中的一项重要工作。
通常情况下,我们需要将数据集划分为训练集和测试集,并从中读取批量的数据进行模型训练和评估。
在PyTorch中,我们可以使用enumerate函数来实现这一过程。
我们需要将数据集加载到内存中。
PyTorch提供了torch.utils.data 模块,其中包含了一些常用的数据集类,如torchvision.datasets.ImageFolder用于加载图像数据集。
我们可以使用该类加载数据集,并将其赋值给一个变量,如dataset。
接下来,我们可以使用torch.utils.data.DataLoader类来创建一个数据加载器,用于批量读取数据。
在创建数据加载器时,我们可以指定batch_size参数,用于指定每个批次中数据的数量。
例如,我们可以使用以下代码创建一个数据加载器:```dataloader = torch.utils.data.DataLoader(dataset, batch_size=32, shuffle=True)```在训练过程中,我们通常需要遍历数据加载器,并对每个批次的数据进行处理。
这时,就可以使用enumerate函数来获取每个批次的索引和对应的数据。
例如,我们可以使用以下代码实现:```for i, (inputs, labels) in enumerate(dataloader):# 对每个批次的数据进行处理# ...```在上述代码中,变量i表示当前批次的索引,inputs表示输入数据,labels表示标签数据。
数据增强方法数据增强是指通过对原始数据进行一系列变换和处理,以产生更多、更丰富的训练样本,从而提高模型的泛化能力和鲁棒性。
在机器学习和深度学习领域,数据增强是非常重要的一环,它可以有效地缓解数据稀缺和过拟合的问题,提高模型的性能和泛化能力。
本文将介绍几种常见的数据增强方法,并讨论它们在不同应用场景下的适用性。
1. 图像数据增强。
图像数据增强是深度学习中常见的数据增强方法之一。
它包括对图像进行旋转、翻转、缩放、裁剪、亮度调整、对比度调整等操作,以产生更多的训练样本。
例如,对于图像分类任务,可以通过对训练图像进行随机旋转、翻转和裁剪来生成新的训练样本。
这样可以有效地扩大训练数据集,提高模型的泛化能力。
2. 文本数据增强。
在自然语言处理领域,文本数据增强也是非常重要的。
文本数据增强包括对文本进行同义词替换、随机插入、随机删除、随机交换等操作,以产生更多的训练样本。
例如,对于文本分类任务,可以通过对训练文本进行同义词替换和随机删除来生成新的训练样本。
这样可以有效地扩大训练数据集,提高模型的泛化能力。
3. 增强学习。
增强学习是一种通过与环境交互来学习最优决策策略的方法。
在增强学习中,智能体通过与环境进行交互,不断尝试不同的动作,并根据环境的反馈来调整自己的策略,以获得最大的累积奖励。
增强学习可以应用于诸如机器人控制、游戏玩法、资源分配等领域,通过不断的试错和学习,最终找到最优的决策策略。
4. 数据合成。
数据合成是一种通过模拟和生成数据来扩充训练集的方法。
在某些领域,获取真实数据可能非常困难或昂贵,这时可以通过数据合成的方式来生成更多的训练样本。
例如,在计算机视觉领域,可以通过渲染引擎来合成更多的图像数据,用于训练模型。
数据合成可以有效地扩大训练数据集,提高模型的泛化能力。
总结。
数据增强是机器学习和深度学习中非常重要的一环,它可以有效地提高模型的性能和泛化能力。
本文介绍了几种常见的数据增强方法,包括图像数据增强、文本数据增强、增强学习和数据合成。
数据增强方法数据增强是指通过对原始数据进行一系列变换和处理,生成新的数据样本,以扩充训练数据集的方法。
在深度学习领域,数据增强被广泛应用于图像分类、目标检测、语义分割等任务中,能够有效提升模型的泛化能力和鲁棒性。
本文将介绍几种常见的数据增强方法,并对它们进行简要的分析和比较。
1. 图像数据增强。
图像数据增强是深度学习中应用最为广泛的数据增强方法之一。
常见的图像数据增强方法包括,随机裁剪、旋转、翻转、缩放、平移、亮度调整、对比度调整、添加噪声等。
这些方法能够有效地扩充训练数据集,使得模型对于不同尺度、角度、光照条件下的图像具有更好的识别能力。
2. 文本数据增强。
在自然语言处理领域,文本数据增强也是一项重要的工作。
常见的文本数据增强方法包括,同义词替换、随机插入、随机删除、随机交换、大小写转换等。
这些方法能够增加文本数据的多样性,提升模型对于不同表达方式的理解能力。
3. 音频数据增强。
随着语音识别和音频处理领域的发展,音频数据增强也逐渐成为研究热点。
常见的音频数据增强方法包括,添加噪声、变速、变调、混响、截断、加入背景音乐等。
这些方法能够模拟真实场景中的各种环境,提升模型对于复杂音频信号的识别和理解能力。
4. 视频数据增强。
随着视频分析和动作识别的需求增加,视频数据增强也变得越来越重要。
常见的视频数据增强方法包括,帧采样、帧间差分、镜像翻转、旋转、加入运动模糊等。
这些方法能够增加视频数据的多样性,提升模型对于不同动作和场景的识别能力。
总结。
数据增强是深度学习中一个重要的环节,能够有效提升模型的泛化能力和鲁棒性。
本文介绍了图像数据增强、文本数据增强、音频数据增强和视频数据增强等几种常见的数据增强方法,并简要分析了它们的作用和应用场景。
在实际应用中,我们可以根据具体任务的需求,选择合适的数据增强方法,以提升模型的性能和效果。
数据增强方法数据增强是指通过各种手段对已有的数据进行扩充和增加,以提高数据的多样性和丰富性,从而提升模型的性能和泛化能力。
在机器学习和深度学习领域,数据增强方法被广泛应用于图像识别、自然语言处理、语音识别等任务中。
本文将介绍一些常见的数据增强方法,帮助读者更好地理解和应用这些技术。
1. 图像数据增强。
图像数据增强是指对图像进行各种变换和处理,以生成新的训练样本。
常见的图像数据增强方法包括,随机裁剪、旋转、翻转、缩放、平移、添加噪声等。
这些方法可以增加图像的多样性,使模型更具鲁棒性。
例如,对于图像分类任务,可以通过随机裁剪和旋转来生成不同角度和尺寸的训练样本,从而提高模型在不同角度和尺寸下的识别能力。
2. 文本数据增强。
在自然语言处理领域,文本数据增强是非常重要的。
常见的文本数据增强方法包括,同义词替换、随机插入、随机删除、随机交换词语顺序等。
这些方法可以增加文本的多样性,提高模型对于语义和语法的理解能力。
例如,对于文本分类任务,可以通过同义词替换和随机插入来生成新的训练样本,从而提高模型在不同语境下的分类准确率。
3. 声音数据增强。
声音数据增强是指对声音信号进行各种变换和处理,以生成新的训练样本。
常见的声音数据增强方法包括,添加噪声、变速、变调、混响等。
这些方法可以增加声音数据的多样性,提高模型对于不同环境和噪声下的识别能力。
例如,对于语音识别任务,可以通过添加噪声和变速来生成新的训练样本,从而提高模型在嘈杂环境下的识别准确率。
总结。
数据增强是提高模型性能的重要手段,通过对已有数据进行扩充和增加,可以提高模型的泛化能力和鲁棒性。
在实际应用中,我们可以根据不同任务和数据特点选择合适的数据增强方法,从而提高模型的性能。
希望本文介绍的数据增强方法能对读者有所帮助,同时也欢迎读者在实践中探索更多有效的数据增强技术。
python在⼀个范围内取随机数的简单实例python在⼀个范围内取随机数的⽅法:可以利⽤random.uniform()函数来实现。
random.uniform()函数⽤于⽣成⼀个指定范围内的随机浮点数,如:【random.uniform(10, 20)】。
random.randint(a, b),⽤于⽣成⼀个指定范围内的整数。
其中参数a是下限,参数b是上限,⽣成的随机数n: a <= n <= b。
代码⽰例:print random.randint(12, 20) # ⽣成的随机数 n: 12 <= n <= 20print random.randint(20, 20) # 结果永远是20# print random.randint(20, 10) # 该语句是错误的。
下限必须⼩于上限random.uniform(a, b),⽤于⽣成⼀个指定范围内的随机符点数,两个参数其中⼀个是上限,⼀个是下限。
如果a > b,则⽣成的随机数n: a >= n >= b。
如果 a <b,则 b >= n >= a。
代码⽰例:print random.uniform(10, 20)print random.uniform(20, 10)# 18.7356606526# 12.5798298022内容扩展:python3实现随机数import random#随机整数import stringprint(random.randint(0,99))#随机选取0到100间的偶数print(random.randrange(0, 101, 2))#随机浮点数print(random.random())print(random.uniform(1, 10))#随机字符print(random.choice('abcdefg&#%^*f'))#多个字符中选取特定数量的字符print(random.sample('abcdefghij',3))#多个字符中选取特定数量的字符组成新字符串# print(string.join(random.sample(['a','b','c','d','e','f','g','h','i','j'], 3)).replace(" ",""))#随机选取字符串print(random.choice ( ['apple', 'pear', 'peach', 'orange', 'lemon'] ))#洗牌items = [1, 2, 3, 4, 5, 6]random.shuffle(items)print("洗牌:", items)#从指定序列中随机获取k个元素作为⼀个⽚段返回,不会改变原有序列list = []list = random.sample(items,2)print(list)以上就是python在⼀个范围内取随机数的简单实例的详细内容,更多关于python如何在⼀个范围内取随机数的资料请关注其它相关⽂章!。
机器学习技术的数据增强方法介绍数据增强技术是指在机器学习任务中,通过一系列操作来扩充现有数据集的方法。
这些操作可以使用各种图像处理和数据生成技术,以帮助模型更好地泛化和适应各种情况。
在本文中,我们将介绍几种常用的数据增强方法,包括图像数据增强和文本数据增强。
1. 图像数据增强方法1.1 随机裁剪和缩放随机裁剪和缩放是最常见的图像数据增强方法之一。
在该方法中,我们可以随机裁剪图像的一部分,并将其放大、缩小或重新排列。
这种方法可以帮助模型学习到不同尺寸的物体,并增加对物体位置和大小的鲁棒性。
1.2 翻转和旋转翻转和旋转是图像数据增强中的基本操作。
通过随机翻转图像,我们可以扩充数据集并增加模型对不同方向的物体的识别能力。
同时,通过随机旋转图像,我们可以使模型更好地适应不同角度和姿态的物体。
1.3 噪声添加在图像数据增强中,噪声添加是一种有效的方法,用于增加数据集的多样性。
可以通过向图像中添加高斯噪声、椒盐噪声等各种噪声类型,增加模型对于噪声环境下的鲁棒性。
1.4 亮度和对比度调整通过调整图像的亮度和对比度,可以改变图像的外观和光照条件,从而提高模型的鲁棒性。
通过随机调整图像的亮度、对比度和色彩,我们可以生成更多样的图像,并使模型能够更好地适应不同的光照条件。
2. 文本数据增强方法2.1 同义词替换同义词替换是一种常见的文本数据增强方法。
通过将文本中的某些词语替换为其同义词,可以生成不同的句子并增加数据集的多样性。
这种方法可以帮助模型更好地理解和处理不同的文本语义。
2.2 随机插入和删除随机插入和删除是一种用于文本数据增强的简单方法。
通过在文本中插入或删除一个或多个单词,可以生成不同长度的句子,并增加数据集的多样性。
2.3 词语重排序词语重排序是一种通过改变句子中词语的顺序来增强数据集的方法。
通过随机重排句子中的词语顺序,可以生成多样的句子并帮助模型更好地理解和处理不同的句子结构。
2.4 数据分割数据分割是一种常见的文本数据增强方法,在机器翻译和文本分类等任务中广泛使用。
深度学习入门之Pytorch 数据增强的实现这篇文章主要介绍了深度学习入门之Pytorch 数据增强的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
数据增强卷积神经网络非常容易出现过拟合的问题,而数据增强的方法是对抗过拟合问题的一个重要方法。2012 年 AlexNet 在 ImageNet 上大获全胜,图片增强方法功不可没,因为有了图片增强,使得训练的数据集比实际数据集多了很多'新'样本,减少了过拟合的问题,下面我们来具体解释一下。常用的数据增强方法常用的数据增强方法如下:1.对图片进行一定比例缩放2.对图片进行随机位置的截取3.对图片进行随机的水平和竖直翻转4.对图片进行随机角度的旋转5.对图片进行亮度、对比度和颜色的随机变化这些方法 pytorch 都已经为我们内置在了 torchvision 里面,我们在安装 pytorch 的时候也安装了 torchvision,下面我们来依次展示一下这些数据增强方法。
随机比例放缩随机比例缩放主要使用的是 torchvision.transforms.Resize() 这个函数,第一个参数可以是一个整数,那么图片会保存现在的宽和高的比例,并将更短的边缩放到这个整数的大小,第一个参数也可以是一个 tuple,那么图片会直接把宽和高缩放到这个大小;第二个参数表示放缩图片使用的方法,比如最邻近法,或者双线性差值等,一般双线性差值能够保留图片更多的信息,所以 pytorch 默认使用的是双线性差值,你可以手动去改这个参数,更多的信息可以看
看文档
import syssys.path.append('..')
from PIL import Imagefrom torchvision import transforms as tfs
# 读入一张图片im = Image.open('./cat.png')im
# 比例缩放随机位置截取随机位置截取能够提取出图片中局部的信息,使得网络接受的输入具有多尺度的特征,所以能够有较好的效果。在 torchvision 中主要有下面两种方式,一个是 torchvision.transforms.RandomCrop(),传入的参数就是截取出的图片的长和宽,对图片在随机位置进行截取;第二个是 torchvision.transforms.CenterCrop(),同样传入介曲初的图片的大小作为参数,会在图片的中心进行截取
随机的水平和竖直方向翻转对于上面这一张猫的图片,如果我们将它翻转一下,它仍然是一张猫,但是图片就有了更多的多样性,所以随机翻转也是一种非常有效的手段。在 torchvision 中,随机翻转使用的是 torchvision.transforms.RandomHorizontalFlip() 和 torchvision.transforms.RandomVerticalFlip()
print('before scale, shape: {}'.format(im.size))new_im = tfs.Resize((100, 200))(im)print('after scale, shape: {}'.format(new_im.size))new_im
# 随机裁剪出 100 x 100 的区域random_im1 = tfs.RandomCrop(100)(im)random_im1
# 中心裁剪出 100 x 100 的区域center_im = tfs.CenterCrop(100)(im)center_im
# 随机水平翻转h_filp = tfs.RandomHorizontalFlip()(im)h_filp随机角度旋转一些角度的旋转仍然是非常有用的数据增强方式,在 torchvision 中,使用 torchvision.transforms.RandomRotation(
) 来实现,其中第一个参数就是随机旋转的角度,比如填入 10,那么每次图片就会在 -10 ~ 10 度之间随机旋转
亮度、对比度和颜色的变化除了形状变化外,颜色变化又是另外一种增强方式,其中可以设置亮度变化,对比度变化和颜色变化等,在 torchvision 中主要使用 torchvision.transforms.ColorJitter() 来实现的,第一个参数就是亮度的比例,第二个是对比度,第三个是饱和度,第四个是颜色
# 随机竖直翻转v_flip = tfs.RandomVerticalFlip()(im)v_flip
rot_im = tfs.RandomRotation(45)(im)rot_im上面我们讲了这么图片增强的方法,其实这些方法都不是孤立起来用的,可以联合起来用,比如先做随机翻转,然后随机截取,再做对比度增强等等,torchvision 里面有个非常方便的函数能够将这些变化合起来,就是 torchvision.transforms.Compose(),下面我们举个例子
# 亮度bright_im = tfs.ColorJitter(brightness=1)(im) # 随机从 0 ~ 2 之间亮度变化,1 表示原图bright_im
# 对比度contrast_im = tfs.ColorJitter(contrast=1)(im) # 随机从 0 ~ 2 之间对比度变化,1 表示原图contrast_im
# 颜色color_im = tfs.ColorJitter(hue=0.5)(im) # 随机从 -0.5 ~ 0.5 之间对颜色变化color_im
im_aug = tfs.Compose([ tfs.Resize(120), tfs.RandomHorizontalFlip(), tfs.RandomCrop(96),可以看到每次做完增强之后的图片都有一些变化,所以这就是我们前面讲的,增加了一些'新'数据下面我们使用图像增强进行训练网络,看看具体的提升究竟在什么地方,使用 ResNet 进行训练使用数据增强
tfs.ColorJitter(brightness=0.5, contrast=0.5, hue=0.5)])
import matplotlib.pyplot as plt%matplotlib inlinenrows = 3ncols = 3figsize = (8, 8)_, figs = plt.subplots(nrows, ncols, figsize=figsize)for i in range(nrows): for j in range(ncols): figs[i][j].imshow(im_aug(im)) figs[i][j].axes.get_xaxis().set_visible(False) figs[i][j].axes.get_yaxis().set_visible(False)plt.show()
import numpy as npimport torchfrom torch import nnimport torch.nn.functional as Ffrom torch.autograd import Variablefrom torchvision.datasets import CIFAR10from utils import train, resnetfrom torchvision import transforms as tfs# 使用数据增强def train_tf(x): im_aug = tfs.Compose([ tfs.Resize(120), tfs.RandomHorizontalFlip(), tfs.RandomCrop(96), tfs.ColorJitter(brightness=0.5, contrast=0.5, hue=0.5), tfs.ToTensor(), tfs.Normalize([0.5, 0.5, 0.5], [0.5, 0.5, 0.5]) ]) x = im_aug(x)不使用数据增强从上面可以看出,对于训练集,不做数据增强跑 10 次,准确率已经到了 95%,而使用了数据增强,跑 10 次准确率只有 75%,说明数据增强之后变得更难了。
而对于测试集,使用数据增强进行训练的时候,准确率会比不使用更高,因为数据增强提高了模型应对于更多的不同数据集的泛化能力,所以有更好的效果。以上就是深度学习入门之Pytorch 数据增强的实现的详细内容,更多关于Pytorch 数据增强的资料请关注其它相关文章!
return xdef test_tf(x): im_aug = tfs.Compose([ tfs.Resize(96), tfs.ToTensor(), tfs.Normalize([0.5, 0.5, 0.5], [0.5, 0.5, 0.5]) ]) x = im_aug(x) return x
train_set = CIFAR10('./data', train=True, transform=train_tf)train_data = torch.utils.data.DataLoader(train_set, batch_size=64, shuffle=True)test_set = CIFAR10('./data', train=False, transform=test_tf)test_data = torch.utils.data.DataLoader(test_set, batch_size=128, shuffle=False)
net = resnet(3, 10)optimizer = torch.optim.SGD(net.parameters(), lr=0.01)criterion = nn.CrossEntropyLoss()train(net, train_data, test_data, 10, optimizer, criterion)
# 不使用数据增强def data_tf(x): im_aug = tfs.Compose([ tfs.Resize(96), tfs.ToTensor(), tfs.Normalize([0.5, 0.5, 0.5], [0.5, 0.5, 0.5]) ]) x = im_aug(x) return x
train_set = CIFAR10('./data', train=True, transform=data_tf)train_data = torch.utils.data.DataLoader(train_set, batch_size=64, shuffle=True)test_set = CIFAR10('./data', train=False, transform=data_tf)test_data = torch.utils.data.DataLoader(test_set, batch_size=128, shuffle=False)