期刊來源:git
一 NFV性能的具體診斷github
三 主要作法是監控每一個NF的隊列。 利用來自全部NF的排隊信息,咱們能夠了解每一個數據包的體驗,以及流量模式如何在不一樣的NF之間變化。 使用資源計數器,咱們還能夠隨時瞭解每一個資源處於什麼樣的爭用狀態。 所以,對於每一個性能問題,咱們能夠了解哪些資源爭用會致使問題,以及誰是競爭者。 此外,咱們還能夠了解資源爭用如何改變不一樣NF的流量模式,以及流量模式變化如何影響NF的性能。算法
三緩存
一 是從出了問題去找問題的根源。仍是會有致使性能等的問題。
診斷性能原型圖
服務器
無。網絡
期刊來源:架構
爲了使此類分佈式中間盒具備可伸縮性,咱們須要在本地或遠程服務器之間無縫移動處理及其關聯的流狀態的方法。這將容許平臺經過添加服務器來應對負載激增,並經過關閉計算機來有效地縮小規模。 處理甚至能夠遷移到世界其餘地區的不一樣中間盒,以優化其餘方面,例如用戶感知的延遲。(無縫遷移流)
實現保持每條流的網絡狀態的處理,通常用種兩方法一塊兒來解決流遷移問題(方法:Pre-copy,Stop-and-copy,Demand migration)框架
基本思想是容許短流死亡,並在發生任何流狀態轉移以前刪除它們的相應狀態。 爲了實現此目標,咱們在較短的時間內並行運行了源處理和目標處理。 遷移開始時,會將一小組頁面複製到包含代碼和不變全局狀態的B中。 此後,該算法包括兩個重疊的階段:空閒階段和迭代的凍結和複製階段。
在空閒階段,全部流量最初都會轉發到A。A中止爲還沒有看到的流量創建新狀態。 全部命中A但沒有任何匹配狀態的數據包都將轉發給B,後者將對其進行正常處理。空閒階段利用了大多數流都是短暫的這一事實。 無需轉移這些狀態,而是能夠將它們保留在原始計算機上,直到它們到期,同時容許在另外一臺計算機上創建新流的狀態。 兩臺機器都是菊花鏈式鏈接(不管方向如何,數據包始終始終先命中A;見圖1(a))
凍結和複製階段是迭代的,僅在狀態在A上到期的速率降至某個閾值如下時纔開始; 其他國家多是長期存在的,須要轉移。 A凍結其一些剩餘狀態,並開始將它們傳輸到B。全部將修改凍結狀態的數據包都由A進行緩衝。傳輸完成後,全部凍結狀態都將被刪除,而且已緩衝的數據包將轉發到B。重複該過程 直到全部狀態都複製到B。此階段僅處理長期流,凍結的目的是減小丟棄的數據包數量。 菊花鏈持續進行,直到凍結和複製狀態結束。 此時,機器A上沒有剩餘流量狀態,而且流量在OF交換機中被重定向到直接命中機器B。
分佈式
期刊來源:工具
四 什麼時候以及如何遷移VNFI,以響應SFC請求強度和位置的更改。
咱們開發了一種方法,該方法使用了三種算法,這些算法被背對背使用,以響應不斷變化的工做負載而致使VNFI放置,SFC路由和VNFI遷移。目的是首先最大程度地減小對SFC帶寬的拒絕,其次是在儘量少的服務器中整合VNFI,以減小能耗。所提出的合併算法基於VNFI的遷移策略,該策略考慮了因爲遷移過程當中發生的信息丟失而使用戶遭受的QoS降低所致使的收入損失。目的是最大程度地減小能耗和因爲QoS下降而致使的收入損失所帶來的總成本
### 本文貢獻:
本文提供了兩個主要的貢獻。
第一個是提出一種用於SFC路由和VNFI放置的算法,其中,按照核心文獻中提出的最多文獻[11]所假定的,按核數肯定VNFI的尺寸不是先驗肯定的,可是能夠做爲問題的輸出;提出的算法的目的是在高峯時段間隔內執行SFC路由和VNF放置,以最小化拒絕的SFC帶寬。
第二個貢獻是提出流量發生變化期間SFC路由和VNF佈置分配的VNFI的遷移策略。遷移策略的目標是在總體時間範圍內將總成本降至最低,同時考慮能耗和從新配置成本。該策略在合併帶來的節能優點與VNFI遷移期間發生的QoS下降致使運營商的收入損失的劣勢之間提供了適當的權衡。咱們給出了最佳問題的整數線性規劃(ILP)公式,而且因爲其複雜性,咱們提出了一種針對循環平穩交通場景的解決方案,並根據給定的最優性先驗評估了VNFI到服務器的可能映射標準。咱們經過比較其結果與ILP公式的精確解決方案(對於小型網絡)的效果,來評估所提出的解決方案啓發式方法的有效性。最後,咱們將建議的遷移策略的性能與簡單的本地策略進行比較,在本地策略中,遷移決策僅考慮瞬時從新配置成本,而再也不考慮長期因素。
當運營和從新配置成本分別由能耗和因爲VNFI遷移致使的信息損失來表徵時,咱們提出了優化問題。 所提出的解決方案基於Markov決策過程理論的應用,已經由咱們本身解決了其餘問題(覆蓋網絡[24],虛擬網絡嵌入[23], [25], [26]
[12] [11]也是關於遷移的論文 【10】【13】-【15】關於VNFI的路由和放置問題
期刊來源:
可使用PktGen生成流量,速度可達到 10Gbps;地址: https:/github.comPktgen Pktgcn-DPDK/ NDPI:一款開源的深度包檢測庫。
爲了更高效利用網絡資源和計算資源以及快速實現密集的網絡功能而開發的一個工具
2.經過訪問NIC能夠實現高效的網絡功能
網絡功能虛擬化(NFV)的主要目標是將物理網絡功能遷移到在雲計算環境中在虛擬機(VM)上運行的軟件版本中。 虛擬化技術的飛速發展已使虛擬化基礎架構環境中的高速網絡鏈接和線速數據包處理成爲可能。選擇了以計算密集型虛擬化網絡功能(VNF)形式進行的網絡流量的深度數據包檢查(DPI),做爲表明用例。 使用了DPI用例,以演示將支持SRIOV的設備與DPDK一塊兒使用以支持高性能虛擬網絡功能(VNF)部署的好處。已經對使用LibPCAP,SRIOV和DPDK的VNF版本進行了性能評估。結果代表, 與使用本機Linux內核網絡堆棧進行數據包處理相比,統一使用SRIOV和DPDK能夠顯着提升數據包吞吐性能
路由、過濾、流重建等雲架構方案(好比OpenStack)運行在大量的網絡組件之上,產生巨大負載,致使性能penalties,這是因爲每一個數據包通過OS內核而且不是直接訪問用戶空間。因爲OpenStack的網絡服務Neutron實質上是創建在一個OVS實例上,OVS包含許多的native虛擬端口,TAP虛擬網絡接口和內核bridge對它們進行鏈接。多個虛擬bridge接口的安裝,致使了在數據包轉發性能上的延遲。這是因爲每一個數據包到達最終目的地以前,必須屢次經過內核以及由內核進行處理。這種設計方案內核性能很快就成爲限制的瓶頸。
描述和設計實現:
設計兩組實驗,第一組,DPI應用直接使用物理NIC。第二組,DPI應用部署於虛擬機,數據包的拿到方式是經過SR-IOV快速路徑方式。在對應的性能評測時,分別使用LibPCAP和DPDK。第一個組實驗的目的是爲了給DPDK提高的DPI應用提供一個相應的基準線。
第一組:
第二組:
使用DPDK做爲數據包加速框架的緣由是:1.DPDK提供高級的用戶級功能;2.DPDK有兩種執行模式(pipline model and run-to-completion model)
pipline model:一個計算機內核可以將從NIC獲得的數據傳遞給第二個內核。
run-to-completion model:數據包分佈在全部的內核中進行加速處理。
期刊來源: IEEE International Conference on Computer & Information Technology
以前NFV遷移,集中在VNF內部的狀態遷移,須要從新編寫VNF軟件和定製新協議。因爲再次軟件開發引入了額外的工做和更多的bugs。
本文提出一種直接遷移VM而不是VNF的方法來簡化再次軟件開發的工做負載。VM遷移引入的傳輸負載應該降至最小,本文將試下良好的VM遷移以及最小化其遷移時間,同時知足網絡帶寬需求。最後給出了仿真結果,對將來的方向進行了探討。
針對稠密圖和稀疏圖推薦了兩種算法來創建遷移的路徑,從而下降遷移的成本(用時間做爲衡量標準):算法分別爲Preallocation和Backtracking(回溯法調整遷移帶寬)