摘要:测试结果最后两行分别为预测类别与真实类别。这里将其分成了类展平多维的卷积图成训练优化器损失函数开始训练将数据输入并且得到计算与真实值之间的误差清空上一步残余更新参数值误差反向传播,让参数进行更新将更新后的参数值施加到的上测试选取个数据
测试结果
最后两行分别为预测类别与真实类别。
这里的数据使用的是mnist数据集,大家可以将代码中的DOWNLOAD_MNIST值修改为True进行自动下载。
import torch import torch.nn as nn import torch.utils.data as Data import torchvision # 数据库模块 import matplotlib.pyplot as plt #训练整批数据多少次,这里为了节约时间,只训练一次 EPOCH=1 #每次批处理50个数据 BATCH_SIZE=50 #学习效率 LR=0.001 # 如果已经下载好了mnist数据就写上False DOWNLOAD_MNIST = False #训练的数据集:Mnist手写数字 train_data=torchvision.datasets.MNIST( #保存或提取数据集的位置 root="./mnist/", #该数据是训练数据 train=True, #转换PIL.Image or numpy.ndarray成torch.FloatTensor (C x H x W), 训练的时候 normalize 成 [0.0, 1.0] 区间 transform=torchvision.transforms.ToTensor(), #没下载就下载,下载了就不用再下了 download=DOWNLOAD_MNIST, ) #绘制一下数据集 #黑色的地方的值都是0, 白色的地方值大于0. print(train_data.train_data.size()) # (60000, 28, 28) print(train_data.train_labels.size()) # (60000) plt.imshow(train_data.train_data[2].numpy(), cmap="gray") plt.title("%i" % train_data.train_labels[2]) plt.show() #测试数据 test_data=torchvision.datasets.MNIST(root="./mnist/",train=False) #批训练50samples,1 channel,28x28 (50, 1, 28, 28) train_loader=Data.DataLoader(dataset=train_data,batch_size=BATCH_SIZE,shuffle=True) #这里只测试了前2000个 #特征 test_x=torch.unsqueeze(test_data.test_data,dim=1).type(torch.FloatTensor)[:2000]/255. #标签 test_y=test_data.test_labels[:2000] #构建CNN模型 class CNN(nn.Module): def __init__(self): super(CNN,self).__init__() #input shape(1,28,28) self.conv1=nn.Sequential( #卷积 nn.Conv2d( in_channels=1, out_channels=16, #filter size kernel_size=5, #filter movement/step stride=1, #如果想要con2d出来的图片长宽没有变化, #padding=(kernel_size-1)/2当stride=1 padding=2, ), #output shape(16,28,28) #激励函数 nn.ReLU(), #池化 # 在2x2空间里向下采样,output shape(16,14,14) nn.MaxPool2d(kernel_size=2), ) #input shape(16,14,14) self.conv2=nn.Sequential( nn.Conv2d(16,32,5,1,2), #output shape(32,14,14) #激励函数 nn.ReLU(), #output shape(32,7,7) nn.MaxPool2d(2), ) #全连接层——进行分类。这里将其分成了10类 self.out=nn.Linear(32*7*7,10) def forward(self,x): x=self.conv1(x) x=self.conv2(x) #展平多维的卷积图成(batch_size,32*7*7) x=x.view(x.size(0),-1) output=self.out(x) return output cnn=CNN() print(cnn) #训练 #优化器 optimizer=torch.optim.Adam(cnn.parameters(),lr=LR) #损失函数 loss_func=nn.CrossEntropyLoss() #开始训练 for epoch in range(EPOCH): for step,(b_x,b_y) in enumerate(train_loader): #将数据输入nn并且得到output output=cnn(b_x) #计算output与真实值之间的误差 loss=loss_func(output,b_y) #清空上一步残余更新参数值 optimizer.zero_grad() #误差反向传播,让参数进行更新 loss.backward() #将更新后的参数值施加到nn的parameters上 optimizer.step() #测试:选取10个数据 test_output=cnn(test_x[:10]) pred_y=torch.max(test_output,1)[1].data.numpy().squeeze() print(pred_y, "prediction number") print(test_y[:10].numpy(), "real number") # if __name__=="__main__": # print("hello word")
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/43525.html
摘要:而在卷积神经网络中,这两个神经元可以共用一套参数,用来做同一件事情。卷积神经网络的基本结构卷积神经网络的基本结构如图所示从右到左,输入一张图片卷积层池化层卷积层池化层展开全连接神经网络输出。最近几天陆续补充了一些线性回归部分内容,这节继续机器学习基础部分,这节主要对CNN的基础进行整理,仅限于基础原理的了解,更复杂的内容和实践放在以后再进行总结。卷积神经网络的基本原理 前面对全连接神经网络...
摘要:在计算机视觉领域,对卷积神经网络简称为的研究和应用都取得了显著的成果。文章讨论了在卷积神经网络中,该如何调整超参数以及可视化卷积层。卷积神经网络可以完成这项任务。 在深度学习中,有许多不同的深度网络结构,包括卷积神经网络(CNN或convnet)、长短期记忆网络(LSTM)和生成对抗网络(GAN)等。在计算机视觉领域,对卷积神经网络(简称为CNN)的研究和应用都取得了显著的成果。CNN网络最...
阅读 1400·2023-04-25 16:31
阅读 1998·2021-11-24 10:33
阅读 2706·2021-09-23 11:33
阅读 2491·2021-09-23 11:31
阅读 2857·2021-09-08 09:45
阅读 2281·2021-09-06 15:02
阅读 2610·2019-08-30 14:21
阅读 2284·2019-08-30 12:56