安裝CaffeOnSpark過程當中遇到的問題及解決方案

安裝教程來自 http://blog.csdn.net/sadonmyown/article/details/72781393ubuntu

首先,我使用的節點環境是ubuntu 16.04.1,事先 成功安裝了spark和hadoop,版本分別爲spark-2.11和hadoop-2.7.3ruby

問題 1按照教程一步步進行到編譯Caffe步驟時,出現以下錯誤:oop

 

                      

   Step 1ui

    在Makefile.config文件的第95行,添加/usr/include/hdf5/serial/ 到 INCLUDE_DIRS,也就是把下面第一行代碼改成第二行代碼。spa

    1 INCLUDE_DIRS := $(PYTHON_INCLUDE) /usr/local/include
    2 INCLUDE_DIRS := $(PYTHON_INCLUDE) /usr/local/include /usr/include/hdf5/serial/

    Step 2.net

    在Makefile文件的第181行,把 hdf5_hl 和hdf5修改成hdf5_serial_hl 和 hdf5_serial,也就是把下面第一行代碼改成第二行代碼。code

    1 LIBRARIES += glog gflags protobuf boost_system boost_filesystem m hdf5_hl hdf5
    2 LIBRARIES += glog gflags protobuf boost_system boost_filesystem m hdf5_serial_hl hdf5_serial

問題 2編譯CaffeOnSpark時,出現以下錯誤:

         

  同問題1解決方式相同,不一樣的是修改的文件是CaffeOnSpark/caffe-public下面的Makefile.config和Makefile文件,此處無須贅述!blog

 繼續編譯,仍有錯誤出現,最終致使編譯失敗,部分截圖以下所示:
              
              
根據錯誤發現是節點缺乏Protobuf依賴,所以須要安裝對應hadoop版本的Protobuf,安裝過程我參考了 http://blog.csdn.net/blue_it/article/details/53996216 的安裝教程,安裝過程當中主要注意有兩點:
1.版本號必須對應,不然極可能出現不可預料的錯誤
2.編譯過程當中須要使用sudo權限,以避免出現權限不夠的狀況
其餘相關問題教程中也會有說起。

               

  此處問題我上網搜了不少問題,最終是把Caffe目錄下的Makefile.config 文件拷貝到了CaffeOnSpark/caffe-public目錄下,執行教程

  make clean make buildhadoop

  再從新編譯,最終成功了。

              

  但願對碰見相同問題的你有所幫助!

相關文章
相關標籤/搜索