GitHub地址:https://github.com/leebingbin/前端
背景git
隨着互聯網的發展,網站應用的規模不斷擴大,常規的垂直應用架構已沒法應對,分佈式服務架構以及流動計算架構勢在必行,亟需一個治理系統確保架構有條不紊的演進。github
• 單一應用架構
• 當網站流量很小時,只需一個應用,將全部功能都部署在一塊兒,以減小部署節點和成本。
• 此時,用於簡化增刪改查工做量的 數據訪問框架(ORM) 是關鍵。算法
• 垂直應用架構
• 當訪問量逐漸增大,單一應用增長機器帶來的加速度愈來愈小,將應用拆成互不相干的幾個應用,以提高效率。
• 此時,用於加速前端頁面開發的 Web框架(MVC) 是關鍵。數據庫
• 分佈式服務架構
• 當垂直應用愈來愈多,應用之間交互不可避免,將核心業務抽取出來,做爲獨立的服務,逐漸造成穩定的服務中心,使前端應用能更快速的響應多變的市場需求。
• 此時,用於提升業務複用及整合的 分佈式服務框架(RPC) 是關鍵。apache
• 流動計算架構
• 當服務愈來愈多,容量的評估,小服務資源的浪費等問題逐漸顯現,此時需增長一個調度中心基於訪問壓力實時管理集羣容量,提升集羣利用率。
• 此時,用於提升機器利用率的 資源調度和治理中心(SOA) 是關鍵。緩存
需求bash
在大規模服務化以前,應用可能只是經過RMI或Hessian等工具,簡單的暴露和引用遠程服務,經過配置服務的URL地址進行調用,經過F5等硬件進行負載均衡。
(1) 當服務愈來愈多時,服務URL配置管理變得很是困難,F5硬件負載均衡器的單點壓力也愈來愈大。
此時須要一個服務註冊中心,動態的註冊和發現服務,使服務的位置透明。
並經過在消費方獲取服務提供方地址列表,實現軟負載均衡和Failover,下降對F5硬件負載均衡器的依賴,也能減小部分紅本。
(2) 當進一步發展,服務間依賴關係變得錯蹤複雜,甚至分不清哪一個應用要在哪一個應用以前啓動,架構師都不能完整的描述應用的架構關係。
這時,須要自動畫出應用間的依賴關係圖,以幫助架構師理清理關係。
(3) 接着,服務的調用量愈來愈大,服務的容量問題就暴露出來,這個服務須要多少機器支撐?何時該加機器?
爲了解決這些問題,第一步,要將服務如今天天的調用量,響應時間,都統計出來,做爲容量規劃的參考指標。
其次,要能夠動態調整權重,在線上,將某臺機器的權重一直加大,並在加大的過程當中記錄響應時間的變化,直到響應時間到達閥值,記錄此時的訪問量,再以此訪問量乘以機器數反推總容量。服務器
架構網絡
節點角色說明:
• Provider: 暴露服務的服務提供方。
• Consumer: 調用遠程服務的服務消費方。
• Registry: 服務註冊與發現的註冊中心。
• Monitor: 統計服務的調用次調和調用時間的監控中心。
• Container: 服務運行容器。
調用關係說明:
• 0. 服務容器負責啓動,加載,運行服務提供者。
• 1. 服務提供者在啓動時,向註冊中心註冊本身提供的服務。
• 2. 服務消費者在啓動時,向註冊中心訂閱本身所需的服務。
• 3. 註冊中心返回服務提供者地址列表給消費者,若是有變動,註冊中心將基於長鏈接推送變動數據給消費者。
• 4. 服務消費者,從提供者地址列表中,基於軟負載均衡算法,選一臺提供者進行調用,若是調用失敗,再選另外一臺調用。
• 5. 服務消費者和提供者,在內存中累計調用次數和調用時間,定時每分鐘發送一次統計數據到監控中心。
(1) 連通性:
• 註冊中心負責服務地址的註冊與查找,至關於目錄服務,服務提供者和消費者只在啓動時與註冊中心交互,註冊中心不轉發請求,壓力較小
• 監控中心負責統計各服務調用次數,調用時間等,統計先在內存彙總後每分鐘一次發送到監控中心服務器,並以報表展現
• 服務提供者向註冊中心註冊其提供的服務,並彙報調用時間到監控中心,此時間不包含網絡開銷
• 服務消費者向註冊中心獲取服務提供者地址列表,並根據負載算法直接調用提供者,同時彙報調用時間到監控中心,此時間包含網絡開銷
• 註冊中心,服務提供者,服務消費者三者之間均爲長鏈接,監控中心除外
• 註冊中心經過長鏈接感知服務提供者的存在,服務提供者宕機,註冊中心將當即推送事件通知消費者
• 註冊中心和監控中心所有宕機,不影響已運行的提供者和消費者,消費者在本地緩存了提供者列表
• 註冊中心和監控中心都是可選的,服務消費者能夠直連服務提供者
(2) 健狀性:
• 監控中心宕掉不影響使用,只是丟失部分採樣數據
• 數據庫宕掉後,註冊中心仍能經過緩存提供服務列表查詢,但不能註冊新服務
• 註冊中心對等集羣,任意一臺宕掉後,將自動切換到另外一臺
• 註冊中心所有宕掉後,服務提供者和服務消費者仍能經過本地緩存通信
• 服務提供者無狀態,任意一臺宕掉後,不影響使用
• 服務提供者所有宕掉後,服務消費者應用將沒法使用,並沒有限次重連等待服務提供者恢復
(3) 伸縮性:
• 註冊中心爲對等集羣,可動態增長機器部署實例,全部客戶端將自動發現新的註冊中心
• 服務提供者無狀態,可動態增長機器部署實例,註冊中心將推送新的服務提供者信息給消費者
(4) 升級性:
• 當服務集羣規模進一步擴大,帶動IT治理結構進一步升級,須要實現動態部署,進行流動計算,現有分佈式服務架構不會帶來阻力:
安裝 Dubbo 註冊中心(Zookeeper-3.4.6)
zookeeper是一個爲分佈式應用提供一致性服務的軟件,它是開源的Hadoop項目中的一個子項目,而且根據google發表的<The Chubby lock service for loosely-coupled distributed systems>論文來實現的。Zookeeper是Apache Hadoop的子項目,強度相對較好,建議生產環境使用該註冊中心。Dubbo未對Zookeeper服務器端作任何侵入修改,只需安裝原生的Zookeeper服務器便可,全部註冊中心邏輯適配都在調用Zookeeper客戶端時完成。Dubbo 建議使用 Zookeeper 做爲服務的註冊中心。
一、 修改操做系統的/etc/hosts 文件中添加:
# zookeeper servers
192.168.3.66 edu-provider-01
二、 到 http://apache.fayea.com/zookeeper/下載 zookeeper-3.4.6:
$ wget http://apache.fayea.com/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz
三、 解壓 zookeeper 安裝包:
$ tar -zxvf zookeeper-3.4.6.tar.gz
四、 在/home/wusc/zookeeper-3.4.6 目錄下建立如下目錄:
$ cd /home/wusc/zookeeper-3.4.6
$ mkdir data
$ mkdir logs
五、 將 zookeeper-3.4.6/conf 目錄下的 zoo_sample.cfg 文件拷貝一份,命名爲爲zoo.cfg
$ cp zoo_sample.cfg zoo.cfg
六、 修改 zoo.cfg 配置文件:
$ vi zoo.cfg
# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just
# example sakes.
dataDir=/home/wusc/zookeeper-3.4.6/data
dataLogDir=/home/wusc/zookeeper-3.4.6/logs
# the port at which the clients will connect
clientPort=2181
#2888,3888 are election port
server.1=edu-provider-01:2888:3888
其中,
2888 端口號是 zookeeper 服務之間通訊的端口。
3888 是 zookeeper 與其餘應用程序通訊的端口。
edu-provider-01 是在 hosts 中已映射了 IP 的主機名。
initLimit:這個配置項是用來配置 Zookeeper 接受客戶端(這裏所說的客戶端不是用戶鏈接 Zookeeper 服務器的客戶端,而是 Zookeeper 服務器集羣中鏈接到Leader 的 Follower 服務器)初始化鏈接時最長能忍受多少個心跳時間間隔數。當已經超過 10 個心跳的時間(也就是 tickTime)長度後 Zookeeper 服務器還沒
有收到客戶端的返回信息,那麼代表這個客戶端鏈接失敗。總的時間長度就是5*2000=10 秒。
syncLimit:這個配置項標識 Leader 與 Follower 之間發送消息,請求和應答時間長度,最長不能超過多少個 tickTime 的時間長度,總的時間長度就是 2*2000=4秒。
server.A=B:C:D:其中 A 是一個數字,表示這個是第幾號服務器; B 是這個服務器的 IP 地址或/etc/hosts 文件中映射了 IP 的主機名; C 表示的是這個服務器與集羣中的 Leader 服務器交換信息的端口; D 表示的是萬一集羣中的 Leader 服務器掛了,須要一個端口來從新進行選舉,選出一個新的 Leader,而這個端口就是用來執行選舉時服務器相互通訊的端口。若是是僞集羣的配置方式,因爲 B 都是同樣,因此不一樣的 Zookeeper 實例通訊端口號不能同樣,因此要給它們分配不一樣的端口號。
七、 在 dataDir=/home/wusc/zookeeper-3.4.6/data 下建立 myid 文件
編輯 myid 文件,並在對應的 IP 的機器上輸入對應的編號。如在 zookeeper 上, myid文件內容就是 1。 若是隻在單點上進行安裝配置, 那麼只有一個 server.1。
$ vi myid
1
八、 wusc 用戶下修改 vi /home/wusc/.bash_profile, 增長 zookeeper 配置:
# zookeeper env
export ZOOKEEPER_HOME=/home/wusc/zookeeper-3.4.6
export PATH=$ZOOKEEPER_HOME/bin:$PATH
使配置文件生效
$ source /home/wusc/.bash_profile
九、 在防火牆中打開要用到的端口 218一、 288八、 3888
切換到 root 用戶權限,執行如下命令:
# chkconfig iptables on
# service iptables start
編輯/etc/sysconfig/iptables
# vi /etc/sysconfig/iptables
增長如下 3 行:
-A INPUT -m state --state NEW -m tcp -p tcp --dport 2181 -j ACCEPT
-A INPUT -m state --state NEW -m tcp -p tcp --dport 2888 -j ACCEPT
-A INPUT -m state --state NEW -m tcp -p tcp --dport 3888 -j ACCEPT
重啓防火牆:
# service iptables restart
查看防火牆端口狀態:
# service iptables status
十、 啓動並測試 zookeeper( 要用 wusc 用戶啓動,不要用 root) :
(1) 使用 wusc 用戶到/home/wusc/zookeeper-3.4.6/bin 目錄中執行:
$ zkServer.sh start
(2) 輸入 jps 命令查看進程:
$ jps
1456 QuorumPeerMain
1475 Jps
其中, QuorumPeerMain 是 zookeeper 進程,啓動正常
(3) 查看狀態:
$ zkServer.sh status
(4) 查看 zookeeper 服務輸出信息:
因爲服務信息輸出文件在/home/wusc/zookeeper-3.4.6/bin/zookeeper.out
$ tail -500f zookeeper.out
十一、 中止 zookeeper 進程:
$ zkServer.sh stop
十二、 配置 zookeeper 開機使用 wusc 用戶啓動:
編輯/etc/rc.local 文件,加入:
su - wusc -c '/home/wusc/zookeeper-3.4.6/bin/zkServer.sh start'
GitHub地址:https://github.com/leebingbin/