Hyperledger Fabric 1.0 從零開始(九)——Fabric多節點集羣生產啓動

7Fabric多節點集羣生產啓動

7.1、多節點服務器配置

在生產環境上,咱們沿用4.1、配置說明中的服務器各節點配置方案。html

咱們申請了五臺生產服務器,其中四臺服務器運行peer節點,另一臺服務器運行orderer節點,爲其它四個節點提供排序服務。node

虛擬機具體參數以下表所示:git

名稱github

ipdocker

節點標識bash

節點Hostname服務器

Organization(組織機構)ui

Server1spa

10.130.116.8debug

orderer

orderer.example.com

Orderer

Server2

10.130.116.9

org0

peer0.org.example.com

org

Server3

10.130.116.10

orgs0

peer0.orgs.example.com

orgS

Server4

10.130.116.25

orgpay0

peer0.orgpay.example.com

orgPAY

Server5

10.130.116.27

orgt0

peer0.orgt.example.com

orgT

7.2、啓動orderer排序服務節點

第六章中提到的全部配置方案能夠在任意一臺符合條件的服務器上進行生成配置,配置完成後,咱們首先要啓動屬於本組織(org)的排序節點服務,啓動以前須要建立一個docker-compose-orderer.yaml文件,該文件可參考fabric-samples-release/first-network/docker-compose-cli.yaml進行個性化編寫。

具體的編寫步驟和內容介紹可參考4.6、設置order節點的docker-compose文件,根據第六章所配置的聯盟環境及本組織名稱等內容及4.5節中的介紹,咱們最終獲得屬於本組織的專屬docker-compose-orderer.yaml文件,具體內容以下:

version: '2'

services:

  orderer.example.com:
    extends:
      file:   base/docker-compose-base.yaml
      service: orderer.example.com
    container_name: orderer.example.com

這裏有一個協助啓動文件,是位於base目錄下的docker-compose-base.yaml文件,這個文件的參數配置以下:

docker-compose-base.yaml

version: '2'

services:

  orderer.example.com:
    container_name: orderer.example.com
    image: hyperledger/fabric-orderer
    environment:
      - ORDERER_GENERAL_LOGLEVEL=debug
      - ORDERER_GENERAL_LISTENADDRESS=0.0.0.0
      - ORDERER_GENERAL_GENESISMETHOD=file
      - ORDERER_GENERAL_GENESISFILE=/var/hyperledger/orderer/orderer.genesis.block
      - ORDERER_GENERAL_LOCALMSPID=OrdererMSP
      - ORDERER_GENERAL_LOCALMSPDIR=/var/hyperledger/orderer/msp
      # enabled TLS
      - ORDERER_GENERAL_TLS_ENABLED=true
      - ORDERER_GENERAL_TLS_PRIVATEKEY=/var/hyperledger/orderer/tls/server.key
      - ORDERER_GENERAL_TLS_CERTIFICATE=/var/hyperledger/orderer/tls/server.crt
      - ORDERER_GENERAL_TLS_ROOTCAS=[/var/hyperledger/orderer/tls/ca.crt]
    working_dir: /opt/gopath/src/org/peer
    command: orderer
    volumes:
    - ../bin/channel-artifacts/genesis.block:/var/hyperledger/orderer/orderer.genesis.block
   - ../bin/crypto-config/ordererOrganizations/example.com/orderers/orderer.example.com/msp:/var/hyperledger/orderer/msp
    - ../bin/crypto-config/ordererOrganizations/example.com/orderers/orderer.example.com/tls/:/var/hyperledger/orderer/tls
    ports:
      - 7050:7050

文件及目錄編寫完成後上傳至服務器指定位置,本組織的目錄爲org,以下視圖:

隨後在org目錄下執行以下命令:

docker-compose -f docker-compose-orderer.yaml up -d

完成後執行以下命令:

docker ps

至此咱們在10.130.116.8這臺服務器上啓動了orderer排序服務。

 

7.3、啓動orgMSP peer節點

peer節點的啓動方式可參考4.4、設置peer0.org1.excmple.com節點的docker-compose文件,這裏由於在6.6、生成channel下節點集合認證文件已經生成了orgMSP的認證文件,故此咱們沒必要再去建立和生成,爲了避免必要的混亂,建議各組織生成統一認證的服務器固定。

咱們須要將orderer排序服務器上的org/bin目錄下的文件拷貝至org組織所在節點服務器org0,即10.130.116.9服務器的/opt/gopath/src目錄下。其中crypto-config.yaml和configtx.yaml文件無需拷貝,由於具體的證書等生成都交由orderer排序服務器去執行。

這裏的啓動步驟與上一節的內容相似,在啓動orgMSP以前須要建立一個docker-compose-org.yaml文件,該文件可參考fabric-samples-release/first-network/docker-compose-cli.yaml進行個性化編寫。

具體的編寫步驟和內容介紹可參考4.4、設置peer0.org1.excmple.com節點的docker-compose文件,根據第六章所配置的聯盟環境及本組織名稱等內容及4.4節中的介紹,咱們最終獲得屬於本組織的專屬docker-compose-org.yaml文件,具體內容以下:

version: '2'

services:

  peer0.org.example.com:
    container_name: peer0.org.example.com
    extends:
      file:  base/docker-compose-base.yaml
      service: peer0.org.example.com
    extra_hosts:
     - "orderer.example.com:10.130.116.8"

  cli:
    container_name: cli
    image: hyperledger/fabric-tools
    tty: true
    environment:
      - GOPATH=/opt/gopath
      - CORE_VM_ENDPOINT=unix:///host/var/run/docker.sock
      - CORE_LOGGING_LEVEL=DEBUG
      - CORE_PEER_ID=cli
      - CORE_PEER_ADDRESS=peer0.org.example.com:7051
      - CORE_PEER_LOCALMSPID=orgMSP
      - CORE_PEER_TLS_ENABLED=true
      - CORE_PEER_TLS_CERT_FILE=/opt/gopath/src/org/peer/crypto/peerOrganizations/org.example.com/peers/peer0.org.example.com/tls/server.crt
      - CORE_PEER_TLS_KEY_FILE=/opt/gopath/src/org/peer/crypto/peerOrganizations/org.example.com/peers/peer0.org.example.com/tls/server.key
      - CORE_PEER_TLS_ROOTCERT_FILE=/opt/gopath/src/org/peer/crypto/peerOrganizations/org.example.com/peers/peer0.org.example.com/tls/ca.crt
      - CORE_PEER_MSPCONFIGPATH=/opt/gopath/src/org/peer/crypto/peerOrganizations/org.example.com/users/Admin@org.example.com/msp
    working_dir: /opt/gopath/src/org/peer
    volumes:
        - /var/run/:/host/var/run/
        - ./chaincode/:/opt/gopath/src/github.com/hyperledger/fabric/examples/chaincode/go
        - ./bin/crypto-config:/opt/gopath/src/org/peer/crypto/
        - ./scripts:/opt/gopath/src/github.com/hyperledger/fabric/peer/scripts/
        - ./bin/channel-artifacts:/opt/gopath/src/org/peer/channel-artifacts
    depends_on:
      - peer0.org.example.com
    extra_hosts:
     - "orderer.example.com:10.130.116.8"
     - "peer0.org.example.com:10.130.116.9"

這裏orderer不一樣,有兩個協助啓動文件,分別是位於base目錄下的docker-compose-base.yaml和peer-base.yaml文件,這兩個文件的參數配置分別以下:

docker-compose-base.yaml:

version: '2'

services:

  peer0.org.example.com:
    container_name: peer0.org.example.com
    extends:
      file: peer-base.yaml
      service: peer-base
    environment:
      - CORE_PEER_ID=peer0.org.example.com
      - CORE_PEER_ADDRESS=peer0.org.example.com:7051
      - CORE_PEER_CHAINCODELISTENADDRESS=peer0.org.example.com:7052
      - CORE_PEER_GOSSIP_EXTERNALENDPOINT=peer0.org.example.com:7051
      - CORE_PEER_LOCALMSPID=orgMSP
    volumes:
        - /var/run/:/host/var/run/
        - ../bin/crypto-config/peerOrganizations/org.example.com/peers/peer0.org.example.com/msp:/etc/hyperledger/fabric/msp
        - ../bin/crypto-config/peerOrganizations/org.example.com/peers/peer0.org.example.com/tls:/etc/hyperledger/fabric/tls
    ports:
      - 7051:7051
      - 7052:7052
      - 7053:7053

peer-base.yaml:

version: '2'
services:
  peer-base:
    image: hyperledger/fabric-peer
    environment:
      - CORE_VM_ENDPOINT=unix:///host/var/run/docker.sock
      # the following setting starts chaincode containers on the same
      # bridge network as the peers
      # https://docs.docker.com/compose/networking/
      - CORE_VM_DOCKER_HOSTCONFIG_NETWORKMODE=e2ecli_default
      #- CORE_LOGGING_LEVEL=ERROR
      - CORE_LOGGING_LEVEL=DEBUG
      - CORE_PEER_TLS_ENABLED=true
      - CORE_PEER_GOSSIP_USELEADERELECTION=true
      - CORE_PEER_GOSSIP_ORGLEADER=false
      - CORE_PEER_PROFILE_ENABLED=true
      - CORE_PEER_TLS_CERT_FILE=/etc/hyperledger/fabric/tls/server.crt
      - CORE_PEER_TLS_KEY_FILE=/etc/hyperledger/fabric/tls/server.key
      - CORE_PEER_TLS_ROOTCERT_FILE=/etc/hyperledger/fabric/tls/ca.crt
    working_dir: /opt/gopath/src/org/peer
    command: peer node start

隨後在org目錄下執行以下命令:

docker-compose -f docker-compose-org.yaml up -d

完成後執行以下命令:

docker ps

便可查看當前啓動鏡像,以下視圖:

繼續執行以下命令來查看咱們掛載的peer工做路徑是否正確,是否爲/opt/gopath/src/org/peer:

docker exec -it cli bash

該命令執行後會有以下結果視圖:

出現上述目錄,則表示咱們的掛載沒有問題。

由於後續的工做都須要在cli容器中執行,而peer節點的操做就掛載在cli容器中的指定目錄。

 

7.4、建立並加入channel

操做org所在組織的所在節點,即org組織所在節點服務器org0,即10.130.116.9服務器。

7.3中最後所述,當咱們進入peer掛載目錄後,便可對當前peer進行相關操做。

6.5、生成channel源文件的過程當中,咱們定義了當前channel的名稱爲examplechannel。參照/scripts/ script.sh文件,咱們能夠看到建立channel的相關命令,也能夠參照官網給定的方案。

具體須要執行命令的樣本以下:

peer channel create -o orderer.example.com:7050 -c $CHANNEL_NAME -f ./channel-artifacts/channel.tx --tls $CORE_PEER_TLS_ENABLED --cafile $ORDERER_CA

上述命令中須要根據生產中實際的需求進行替換,將orderer.example.com組織替換成咱們以前定義的orderer.example.com;將$CHANNEL_NAME替換成examplechannel;$CORE_PEER_TLS_ENABLED這個全局變量咱們在docker-compose-org.yaml已經定義過了,能夠直接引用;$ORDERER_CA是orderer排序服務器TLS證書所在位置,該位置須要經過peer的掛載路徑來定位,所以將$ORDERER_CA替換成/opt/gopath/src/org/peer/crypto/ordererOrganizations/example.com/orderers/orderer.example.com/msp/tlscacerts/tlsca.example.com-cert.pem。

在前一步$ORDERER_CA定位的過程當中,咱們經過ftp等在peer下是找不到指定目錄及文件的,主要是經過掛載的方式將./bin/crypto-config和/opt/gopath/src/org/peer/crypto/路徑相關聯,參考7.3、啓動orgMSP peer節點對docker-compose-org.yaml文件的配置詳情。

綜上所述,咱們最終在peer掛載路徑下須要執行的命令以下:

peer channel create -o orderer.example.com:7050 -c example -f ./channel-artifacts/example_channel.tx --tls $CORE_PEER_TLS_ENABLED --cafile /opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/ordererOrganizations/example.com/orderers/orderer.example.com/msp/tlscacerts/tlsca.example.com-cert.pem

執行該命令會返回了一個genesis block- <channel-ID.block> -咱們能夠經過這個id進入到channel。它包含channel.tx中指定的配置信息,建立成功後有以下視圖:

接下來,咱們要將本組織的當前節點,即org組織所在節點服務器org0,即10.130.116.9服務器節點,加入到channel中,這其中會用到channel-ID.block,而channel-ID.block是上一步所生成的,即example.block。

參照/scripts/ script.sh文件,咱們能夠看到加入channel的相關命令,也能夠參照官網給定的方案。

具體須要執行命令的樣本以下:

peer channel join -b $CHANNEL_NAME.block

$CHANNEL_NAME修改爲example.block,即執行以下命令:

peer channel join -b example.block

加入成功後,會有以下視圖:

 7.4.1注意事項-必讀

經過peer來建立並加入一個channel的時候,若是以前已經建立過一樣的channel,致使系統已經返回過一個[channel-ID].block,此時再執行建立的時候會提示該channel已經建立過,若執行加入又會提示該channel的[channel-ID].block 文件不存在,沒法加入。

解決上述問題的方案目前筆者已知的有且僅有一個,即在建立channel的時候,系統會返回一個[channel-ID].block文件,該文件就存儲在cli容器入口目錄裏面,當咱們建立一個channel成功以後,再次執行以下命令:

docker exec -it cli bash
ls

該命令執行後會有以下視圖:

能夠看到咱們這裏有一個example.block文件,該文件的命名方式以各自聯盟channel需求爲主,這個文件會跟隨cli進程的生命週期,即當cli進程被銷燬的時候,該進程下的全部目錄、文件都會被銷燬,好比執行了以下兩種命令來銷燬進程:

docker-compose -f docker-compose.yaml down -d

docker stop [CONTAINER ID]

所以,當咱們確認channel建立無誤後,須要對該[channel-ID].block文件進行備份,而docker容器內的文件拷貝到實際掛載硬盤中須要docker cp命令的支持,這裏給一個簡單的demo,以下命令格式:

docker cp <containerId>:/file/path/within/container /host/path/target

這裏實際操做的命令是:

docker cp 56d4d547f93f:/opt/gopath/src/github.com/hyperledger/fabric/peer/example.block /opt/gopath/src/github.com/hyperledger/fabric/example/org/channelbak/

咱們在org目錄下新建一個channelbak目錄,專門用來備份各類[channel-ID].block文件。

有了這個備份以後,咱們能夠中止或刪除以前建立的cli及peer等進程,隨後當咱們建立新的cli及peer容器後,將備份的[channel-ID].block文件拷貝回容器中便可,執行以下命令格式:

docker cp /host/path/target <containerId>:/file/path/within/container

這裏實際操做的命令是:

docker cp /opt/gopath/src/github.com/hyperledger/fabric/example/org/channelbak/example.block c912fb6c0a0b:/opt/gopath/src/github.com/hyperledger/fabric/peer/

若是以前沒有備份[channel-ID].block文件,那麼該服務器可能已經被污染,執行任何刪除或銷燬容器的方法都沒法再次成功建立或加入以前已經建立過的channel中,只能暴力解決該問題,即刪除peer、cli等相關鏡像,並從新load進來,再執行後續初始化yaml等方法來一步一步實現,但該方案筆者並何嘗試過,只是猜想,由於channel的建立依賴cli容器。

補充說明一點,根據peer建立channel的命令來看,建立channel須要的文件都是由configtxgen生成的channel.tx及orderer組織下的pem文件,這兩個文件是固定的,且在各不一樣組織的節點都是相同的,只要其中一個組織生成了[channel-ID].block文件,並將其拷貝給其它組織,其它組織的peer節點無需再次生成,只須要藉此文件執行加入channel的命令就能夠了。

即,若是想加入該channel的組織的peer節點服務器由於一些錯誤操做致使丟失[channel-ID].block文件,能夠經過從其它組織的peer節點中拷貝的方式來繼續完成加入channel流程。

相關文章
相關標籤/搜索