此篇文章主要是详细介绍了caffe的python插口形成环境变量学习培训,感兴趣的小伙伴可以参考借鉴一下,希望可以有一定的帮助,祝愿大家多多的发展,尽早涨薪
caffe是C++语言表达所写的,可能大家不太熟,所以想要更方便的编程语言来达到。caffe给予matlab接口和python插口,这几种语言表达就比较简单,并且很容易开展数据可视化,导致学习培训更为迅速,了解更加深刻。
一年前,我在学习CAFFE时,为了能加深记忆,所以写出了生活随笔,拥有多方面的caffe学习文章内容。大半年以往,好多人问起关于python插口和数据可视化的相关问题,如今有点儿空余时间,就再度写出某些生活随笔,各位一起学习。有一些重复具体内容,我也就不多说,如果你们感兴趣的话可换步:
上面这些实际操作全是练习以前的预备处理实际操作,不论是用哪种插口,都会用到。
要怎么写环境变量
最先,我们应该把握的,便是要怎么写环境变量,根据下方的编码去学习:
#-*-coding:utf-8-*- """ SpyderEditor """ fromcaffeimportlayersasL,paramsasP,to_proto path='/home/xxx/data/'#保存数据和配置文件的路径 train_lmdb=path+'train_db'#训练数据LMDB文件的位置 val_lmdb=path+'val_db'#验证数据LMDB文件的位置 mean_file=path+'mean.binaryproto'#均值文件的位置 train_proto=path+'train.prototxt'#生成的训练配置文件保存的位置 val_proto=path+'val.prototxt'#生成的验证配置文件保存的位置 #编写一个函数,用于生成网络 defcreate_net(lmdb,batch_size,include_acc=False): #创建第一层:数据层。向上传递两类数据:图片数据和对应的标签 data,label=L.Data(source=lmdb,backend=P.Data.LMDB,batch_size=batch_size,ntop=2, transform_param=dict(crop_size=40,mean_file=mean_file,mirror=True)) #创建第二屋:卷积层 conv1=L.Convolution(data,kernel_size=5,stride=1,num_output=16,pad=2,weight_filler=dict(type='xavier')) #创建激活函数层 relu1=L.ReLU(conv1,in_place=True) #创建池化层 pool1=L.Pooling(relu1,pool=P.Pooling.MAX,kernel_size=3,stride=2) conv2=L.Convolution(pool1,kernel_size=3,stride=1,num_output=32,pad=1,weight_filler=dict(type='xavier')) relu2=L.ReLU(conv2,in_place=True) pool2=L.Pooling(relu2,pool=P.Pooling.MAX,kernel_size=3,stride=2) #创建一个全连接层 fc3=L.InnerProduct(pool2,num_output=1024,weight_filler=dict(type='xavier')) relu3=L.ReLU(fc3,in_place=True) #创建一个dropout层 drop3=L.Dropout(relu3,in_place=True) fc4=L.InnerProduct(drop3,num_output=10,weight_filler=dict(type='xavier')) #创建一个softmax层 loss=L.SoftmaxWithLoss(fc4,label) ifinclude_acc:#在训练阶段,不需要accuracy层,但是在验证阶段,是需要的 acc=L.Accuracy(fc4,label) returnto_proto(loss,acc) else: returnto_proto(loss) defwrite_net(): #将以上的设置写入到prototxt文件 withopen(train_proto,'w')asf: f.write(str(create_net(train_lmdb,batch_size=64))) #写入配置文件 withopen(val_proto,'w')asf: f.write(str(create_net(val_lmdb,batch_size=32,include_acc=True))) if__name__=='__main__': write_net()
根据以上这一文件信息实行,大家就能得到2个环境变量:train.prototxt和val.prototxt,各自用以练习环节和检验环节。
图片格式转换成LMDB文档
这种方法形成环境变量,务必有一个前提条件,便是首先要把原始图片转变成LMDB文档才能。假如我们已经将原始图片做成一个1个目录明细(txt文件,一列一张照片),则可以不LMDB文件格式做为录入数据,能用ImageData做为数据库键入,编码如下所示:
#-*-coding:utf-8-*- fromcaffeimportlayersasL,paramsasP,to_proto path='/home/xxx/data/' train_list=path+'train.txt' val_list=path+'val.txt' train_proto=path+'train.prototxt' val_proto=path+'val.prototxt' defcreate_net(img_list,batch_size,include_acc=False): data,label=L.ImageData(source=img_list,batch_size=batch_size,new_width=48,new_height=48,ntop=2, transform_param=dict(crop_size=40,mirror=True)) conv1=L.Convolution(data,kernel_size=5,stride=1,num_output=16,pad=2,weight_filler=dict(type='xavier')) relu1=L.ReLU(conv1,in_place=True) pool1=L.Pooling(relu1,pool=P.Pooling.MAX,kernel_size=3,stride=2) conv2=L.Convolution(pool1,kernel_size=53,stride=1,num_output=32,pad=1,weight_filler=dict(type='xavier')) relu2=L.ReLU(conv2,in_place=True) pool2=L.Pooling(relu2,pool=P.Pooling.MAX,kernel_size=3,stride=2) conv3=L.Convolution(pool2,kernel_size=53,stride=1,num_output=32,pad=1,weight_filler=dict(type='xavier')) relu3=L.ReLU(conv3,in_place=True) pool3=L.Pooling(relu3,pool=P.Pooling.MAX,kernel_size=3,stride=2) fc4=L.InnerProduct(pool3,num_output=1024,weight_filler=dict(type='xavier')) relu4=L.ReLU(fc4,in_place=True) drop4=L.Dropout(relu4,in_place=True) fc5=L.InnerProduct(drop4,num_output=7,weight_filler=dict(type='xavier')) loss=L.SoftmaxWithLoss(fc5,label) ifinclude_acc: acc=L.Accuracy(fc5,label) returnto_proto(loss,acc) else: returnto_proto(loss) defwrite_net(): # withopen(train_proto,'w')asf: f.write(str(create_net(train_list,batch_size=64))) # withopen(val_proto,'w')asf: f.write(str(create_net(val_list,batch_size=32,include_acc=True))) if__name__=='__main__': write_net()
即第1层从原来的Data类型,成了ImageData类型,不用LMDB文件或平均值文档,但是需要1个txt文件。
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/128811.html
本文主要是给大家介绍了caffe的python插口形成solver文件详细说明学习培训实例,感兴趣的小伙伴可以参考借鉴一下,希望可以有一定的帮助,祝愿大家多多的不断进步,尽早涨薪 也有一些基本参数必须计算出来的,并不是乱设定。 solver.prototxt的文件参数设置 caffe在训练的时候,需要一些参数设置,我们一般将这些参数设置在一个叫solver.prototxt的文件里面,如...
本文主要是给大家介绍了caffe的python插口生成deploy文件学习培训及其用练习好一点的实体模型(caffemodel)来归类新的图片实例详细说明,感兴趣的小伙伴可以参考借鉴一下,希望可以有一定的帮助,祝愿大家多多的发展,尽早涨薪 caffe的python插口生成deploy文件 假如要将练习好一点的实体模型用于检测新的图片,那必然必须得一个deploy.prototxt文件,这一...
文中主要是给大家介绍了caffe的python插口之手写数字识别mnist案例详细说明,感兴趣的小伙伴可以参考借鉴一下,希望可以有一定的帮助,祝愿大家多多的发展,尽早涨薪 论文引言 机器学习第一个案例一般都是是mnist,只需这个案例彻底搞懂了,其他的便是触类旁通的事了。因为字数缘故,文中不简单介绍环境变量里边每一个指标的具体函义,如果要搞明白的,请参考我之前的微博文章: 数据访问层及主...
此篇文章关键给大家介绍了python格式Caffe图片数据信息均值测算学习培训实例详细说明,感兴趣的小伙伴可以参考借鉴一下,希望可以一些帮助,祝愿大家多多的发展,尽早涨薪 前言 照片减掉均值后,然后再进行练习和检测,也会提高速度与精密度。因而,通常在各类实体模型中都有这种操作。 那么这样的均值是怎么来的呢,实际上是测算全部svm分类器的均值,计算出来后,储存为均值文档,在今后的检测中,就...
此篇文章主要是给大家介绍了caffe的python插口制作loss和accuracy曲线图实例详细说明,感兴趣的小伙伴可以参考借鉴一下,希望可以有一定的帮助,祝愿大家多多的发展,尽早涨薪 前言 使用python插口来运行caffe程序流程,根本原因是python很容易数据可视化。所以才建议大家在cmd下边运行python程序流程。如果一定要在cmd下边运作,不如直接用c++算了。 强烈推...
阅读 889·2023-01-14 11:38
阅读 833·2023-01-14 11:04
阅读 684·2023-01-14 10:48
阅读 1887·2023-01-14 10:34
阅读 890·2023-01-14 10:24
阅读 750·2023-01-14 10:18
阅读 479·2023-01-14 10:09
阅读 519·2023-01-14 10:02