openvSwitch是一個高質量的、多層虛擬交換機,使用開源Apache2.0許可協議,由 Nicira Networks開發,主要實現代碼爲可移植的C代碼。它的目的是讓大規模網絡自動化能夠經過編程擴展,同時仍然支持標準的管理接口和協議(例如NetFlow, sFlow, SPAN, RSPAN, CLI, LACP, 802.1ag)。此外,它被設計位支持跨越多個物理服務器的分佈式環境,相似於VMware的vNetwork分佈式vswitch或Cisco Nexus 1000 V。Open vSwitch支持多種linux 虛擬化技術,包括Xen/XenServer, KVM和VirtualBox。
openvswitch是一個虛擬交換軟件,主要用於虛擬機VM環境,做爲一個虛擬交換機,支持Xen/XenServer,KVM以及virtualBox多種虛擬化技術。在這種虛擬化的環境中,一個虛擬交換機主要有兩個做用:傳遞虛擬機之間的流量,以及實現虛擬機和外界網絡的通訊。
內核模塊實現了多個「數據路徑」(相似於網橋),每一個均可以有多個「vports」(相似於橋內的端口)。每一個數據路徑也經過關聯一下流表(flow table)來設置操做,而這些流表中的流都是用戶空間在報文頭和元數據的基礎上映射的關鍵信息,通常的操做都是將數據包轉發到另外一個vport。當一個數據包到達一個vport,內核模塊所作的處理是提取其流的關鍵信息並在流表中查找這些關鍵信息。當有一個匹配的流時它執行對應的操做。若是沒有匹配,它會將數據包送到用戶空間的處理隊列中(做爲處理的一部分,用戶空間可能會設置一個流用於之後碰到相同類型的數據包能夠在內核中執行操做)。linux
ovs的主要組成模塊以下圖所示:數據庫
ovs-vswitchd:OVS守護進程是,OVS的核心部件,實現交換功能,和Linux內核兼容模塊一塊兒,實現基於流的交換(flow-based switching)。它和上層 controller 通訊聽從 OPENFLOW 協議,它與 ovsdb-server 通訊使用 OVSDB 協議,它和內核模塊經過netlink通訊,它支持多個獨立的 datapath(網橋),它經過更改flow table 實現了綁定和VLAN等功能。 編程
ovsdb-server:輕量級的數據庫服務,主要保存了整個OVS 的配置信息,包括接口啊,交換內容,VLAN啊等等。ovs-vswitchd 會根據數據庫中的配置信息工做。它於 manager 和 ovs-vswitchd 交換信息使用了OVSDB(JSON-RPC)的方式。
安全
ovs-dpctl:一個工具,用來配置交換機內核模塊,能夠控制轉發規則。 服務器
ovs-vsctl:主要是獲取或者更改ovs-vswitchd 的配置信息,此工具操做的時候會更新ovsdb-server 中的數據庫。 網絡
ovs-appctl:主要是向OVS 守護進程發送命令的,通常用不上。併發
ovsdbmonitor:GUI 工具來顯示ovsdb-server 中數據信息。 app
ovs-controller:一個簡單的OpenFlow 控制器 tcp
ovs-ofctl:用來控制OVS 做爲OpenFlow 交換機工做時候的流表內容。分佈式
下圖經過ovs實現虛擬機和外部通訊的過程,通訊流程以下:
1.VM實例 instance 產生一個數據包併發送至實例內的虛擬網絡接口 VNIC,圖中就是 instance 中的 eth0.
2.這個數據包會傳送到物理機上的VNIC接口,如圖就是vnet接口.
3.數據包從 vnet NIC 出來,到達橋(虛擬交換機) br100 上.
4.數據包通過交換機的處理,從物理節點上的物理接口發出,如圖中物理機上的 eth0 .
5.數據包從 eth0 出去的時候,是按照物理節點上的路由以及默認網關操做的,這個時候該數 據包其實已經不受你的控制了.
注:通常 L2 switch 鏈接 eth0 的這個口是一個 trunk 口, 由於虛擬機對應的 VNET 每每會設置 VLAN TAG, 能夠經過對虛擬機對應的 vnet 打 VALN TAG 來控制虛擬機的網絡廣播域. 若是跑多個虛擬機的話, 多個虛擬機對應的 vnet 能夠設置不一樣的 vlan tag, 那麼這些虛擬機的數據包從 eth0(4)出去的時候, 會帶上TAG標記. 這樣也就必須是 trunk 口才行。
以下圖所示,建立從物理機到物理機的網絡拓撲:
經過如下命令便可實現:
root[@localhost](https://my.oschina.net/u/570656):~# ovs-vsctl add-br br0 root[@localhost](https://my.oschina.net/u/570656):~# ovs-vsctl add-port br0 eth0 root[@localhost](https://my.oschina.net/u/570656):~# ovs-vsctl add-port br0 eth1
添加網橋:
ovs-vsctl add-br br0
列出全部網橋:
ovs-vsctl list-br
判斷網橋是否存在:
ovs-vsctl br-exists br0
將物理網卡掛載到網橋上:
ovs-vsctl add-port br0 eth0
列出網橋中的全部端口:
ovs-vsctl list-ports br0
列出全部掛載到網卡的網橋:
ovs-vsctl port-to-br eth0
查看ovs的網絡狀態:
ovs-vsctl show
刪除網橋上已經掛載的網口:
ovs-vsctl del-port br0 eth0
刪除網橋:
ovs-vsctl del-br br0
設置控制器:
ovs-vsctl set-controller br0 tcp:ip:6633
刪除控制器:
ovs-vsctl del-controller br0
設置支持OpenFlow Version 1.3:
ovs-vsctl set bridge br0 protocols=OpenFlow13
刪除OpenFlow支持設置:
ovs-vsctl clear bridge br0 protocols
設置vlan標籤:
ovs-vsctl add-port br0 vlan3 tag=3 -- set interface vlan3 type=internal
刪除vlan標籤:
ovs-vsctl del-port br0 vlan3
查詢 VLAN:
ovs-vsctl show ifconfig vlan3
查看網橋上全部交換機端口的狀態:
ovs-ofctl dump-ports br0
查看網橋上全部的流規則:
ovs-ofctl dump-flows br0
查看ovs的版本:
ovs-ofctl -V
Openstack在建立虛擬機進行網絡配置的時候大體分爲兩個步驟:
一、Nova-compute經過調度在主機側建立虛擬機,而且建立好linux bridge,是否建立linux網橋取決因而否把安全組的功能打開,建立好bridge和veth類型的點對點端口,鏈接bridge設備和br-int網橋。
二、Neutron-ovs-agent週期任務掃描到網橋上的端口發送rpc請求到neutron-server側,獲取端口的詳細信息,進行網絡配置,固然,不一樣類型的網絡會進行不一樣的處理,OVS當前支持,vlan、vxlan、flat、gre類型的網絡。
具體虛擬機通訊分爲如下兩種狀況:
在報文入口方向打上vlan,在br-int網橋上進行二層的隔離,對neutron-ovs-agent來講,這個是一個內部vlan,所以,很顯然,對於這個主機使用的network來講,在主機側neutron-ovs-agent都會維護一個內部vlan,而且是一一對應的,用於不一樣network的虛擬機在板上的互相隔離,因爲板內虛擬機通訊不通過物理網口,所以,也不會受到網口帶寬和物理交換機性能的影響。
這裏以vlan類型網絡舉例,network的segment_id爲100,即vlan爲100,虛擬機出來的報文在進入br-int網橋上被打上內部的vlan,舉例來講打上vlan 3,下行的流量在通過對應的網絡平面後,vlan會進行對應的修改,經過ovs的flow table把vlan修改爲真實的vlan值100;上行流量在br-int網橋上經過flow table把vlan 100修改爲內部的vlan 3,flat網絡原理相似,下行流量會在br-eth經過flow table strip_vlan送出網口,vxlan類型的網絡稍有不一樣,不過原理也是相似。