caffe是C++語言寫的,可能不少人不太熟悉,所以想用更簡單的腳本語言來實現。caffe提供matlab接口和python接口,這兩種語言就很是簡單,並且很是容易進行可視化,使得學習更加快速,理解更加深刻。html
半年前,我在學習CAFFE的時候,爲了加深理解,所以寫下了隨筆,有了一系列的caffe學習文章。半年過去,不少人問到關於python接口和可視化的一些問題,如今有點空閒時間,就再次寫下一些隨筆,你們一塊兒來學習。有些重複的內容,我就再也不多講,若是你們有興趣可移步:python
以上這些操做都是訓練以前的預處理操做,無論是用什麼接口,都要用到。學習
首先,咱們須要掌握的,就是如何寫配置文件,經過下面的代碼來學習:spa
# -*- coding: utf-8 -*- """ Spyder Editor """ from caffe import layers as L,params as P,to_proto path='/home/xxx/data/' #保存數據和配置文件的路徑 train_lmdb=path+'train_db' #訓練數據LMDB文件的位置 val_lmdb=path+'val_db' #驗證數據LMDB文件的位置 mean_file=path+'mean.binaryproto' #均值文件的位置 train_proto=path+'train.prototxt' #生成的訓練配置文件保存的位置 val_proto=path+'val.prototxt' #生成的驗證配置文件保存的位置 #編寫一個函數,用於生成網絡 def create_net(lmdb,batch_size,include_acc=False): #建立第一層:數據層。向上傳遞兩類數據:圖片數據和對應的標籤 data, label = L.Data(source=lmdb, backend=P.Data.LMDB, batch_size=batch_size, ntop=2, transform_param=dict(crop_size=40,mean_file=mean_file,mirror=True)) #建立第二屋:卷積層 conv1=L.Convolution(data, kernel_size=5, stride=1,num_output=16, pad=2,weight_filler=dict(type='xavier')) #建立激活函數層 relu1=L.ReLU(conv1, in_place=True) #建立池化層 pool1=L.Pooling(relu1, pool=P.Pooling.MAX, kernel_size=3, stride=2) conv2=L.Convolution(pool1, kernel_size=3, stride=1,num_output=32, pad=1,weight_filler=dict(type='xavier')) relu2=L.ReLU(conv2, in_place=True) pool2=L.Pooling(relu2, pool=P.Pooling.MAX, kernel_size=3, stride=2) #建立一個全鏈接層 fc3=L.InnerProduct(pool2, num_output=1024,weight_filler=dict(type='xavier')) relu3=L.ReLU(fc3, in_place=True) #建立一個dropout層 drop3 = L.Dropout(relu3, in_place=True) fc4 = L.InnerProduct(drop3, num_output=10,weight_filler=dict(type='xavier'))
#建立一個softmax層 loss = L.SoftmaxWithLoss(fc4, label) if include_acc: #在訓練階段,不須要accuracy層,可是在驗證階段,是須要的 acc = L.Accuracy(fc4, label) return to_proto(loss, acc) else: return to_proto(loss) def write_net(): #將以上的設置寫入到prototxt文件 with open(train_proto, 'w') as f: f.write(str(create_net(train_lmdb,batch_size=64))) #寫入配置文件 with open(val_proto, 'w') as f: f.write(str(create_net(val_lmdb,batch_size=32, include_acc=True))) if __name__ == '__main__': write_net()
經過上面這個文件的執行,咱們就會獲得兩個配置文件:train.prototxt和val.prototxt,分別用於訓練階段和驗證階段。code
這種方式生成配置文件,必須有個前提,就是要先把原始圖片轉換成LMDB文件才行。若是咱們已經把原始圖片作成了一個列表清單(txt文件,一行一張圖片),則能夠不用LMDB格式做爲輸入數據,能夠用ImageData做爲數據源輸入,代碼以下:orm
# -*- coding: utf-8 -*- from caffe import layers as L,params as P,to_proto path='/home/xxx/data/' train_list=path+'train.txt' val_list=path+'val.txt' train_proto=path+'train.prototxt' val_proto=path+'val.prototxt' def create_net(img_list,batch_size,include_acc=False): data,label=L.ImageData(source=img_list,batch_size=batch_size,new_width=48,new_height=48,ntop=2, transform_param=dict(crop_size=40,mirror=True)) conv1=L.Convolution(data, kernel_size=5, stride=1,num_output=16, pad=2,weight_filler=dict(type='xavier')) relu1=L.ReLU(conv1, in_place=True) pool1=L.Pooling(relu1, pool=P.Pooling.MAX, kernel_size=3, stride=2) conv2=L.Convolution(pool1, kernel_size=53, stride=1,num_output=32, pad=1,weight_filler=dict(type='xavier')) relu2=L.ReLU(conv2, in_place=True) pool2=L.Pooling(relu2, pool=P.Pooling.MAX, kernel_size=3, stride=2) conv3=L.Convolution(pool2, kernel_size=53, stride=1,num_output=32, pad=1,weight_filler=dict(type='xavier')) relu3=L.ReLU(conv3, in_place=True) pool3=L.Pooling(relu3, pool=P.Pooling.MAX, kernel_size=3, stride=2) fc4=L.InnerProduct(pool3, num_output=1024,weight_filler=dict(type='xavier')) relu4=L.ReLU(fc4, in_place=True) drop4 = L.Dropout(relu4, in_place=True) fc5 = L.InnerProduct(drop4, num_output=7,weight_filler=dict(type='xavier')) loss = L.SoftmaxWithLoss(fc5, label) if include_acc: acc = L.Accuracy(fc5, label) return to_proto(loss, acc) else: return to_proto(loss) def write_net(): # with open(train_proto, 'w') as f: f.write(str(create_net(train_list,batch_size=64))) # with open(val_proto, 'w') as f: f.write(str(create_net(val_list,batch_size=32, include_acc=True))) if __name__ == '__main__': write_net()
即第一層由原來的Data類型,變成了ImageData類型,不須要LMDB文件和均值文件,但須要一個txt文件。htm