運維是一個融合多學科(網絡、系統、開發、安全、應用架構、存儲等)的綜合性技術崗位。前端
從最初的網絡管理(網管)發展到如今的系統運維工程師、網絡運維工程師、安全運維工程師、運維開發工程師等,能夠看出,運維的分工一直在細化,而且對綜合技能要求愈來愈高。web
將來運維的發展趨勢是高、精、尖。高表示高度,精表示精通,尖表示尖端,也就是運維職場必定要站在必定的技術高度,在多個技術領域中,要精通某項技能,同時對尖端前沿技術必定要能掌控趨勢。數據庫
根據不一樣的運維領域和技術面以及分工流程三個方面來了解下2019年運維職位的發展趨勢。後端
1.按領域來劃分
1)基礎設施運維:IDC/網絡運維、服務器/存儲設備運維
2)系統運維:系統中間件運維、雲計算平臺運維
3)數據運維:數據庫運維、大數據技術平臺運維
4)應用運維:應用軟件系統
5)雲平臺運維:公有云平臺運維
6)容器運維:基於容器服務的運維緩存
2.按技術切面來分
1)安全運維
2)性能運維
3)數據運維
4)集成運維安全
3.按流程來劃分
1)構建/持續集成、發佈
2)安裝部署、升級、遷移、合併、擴展
3)配置、初始化、配置變動
4)備份、傳輸、恢復
5)日誌、監控、預警
6)診斷排查、優化服務器
系統運維是運維的基礎,新的一年中,對基礎運維技能要求也在提升,打好系統運維基礎,才能深刻學習後面的各類運維技能。網絡
下圖列出了系統運維要掌握的必備技能:
架構
web運維是運維崗位中崗位最多的一個,薪資也相對較高,但須要掌握的知識點也比較多,新的技能要掌握,老的運維技能也不能丟。運維
下圖列出了web運維要掌握的各類必備技能。
大數據從2017年開始逐漸走到生活的各個角落,2018年在逐漸落地,而在2019年,大數據依然火熱。
加上國家對大數據產業的扶持,大數據產業在新的一年崗位需求必定會更加大,所以掌握大數據運維技能,就走在了運維的前沿。
下圖列出了大數據運維要掌握的各類必備技能。
容器的產生,是一次IT行業的革命,2015 年到 2016 年,是業界廣泛認爲的容器技術爆發的一年,短短一年多時間裏,容器技術在中國大陸完成了從零星概念到烽火燎原的壯舉。
時至今日,容器技術在國內大多數企業中落地已成爲一種共識,而國內的生態系統,也呈現出了企業產品、開源社區和公有云齊頭並進的良好局面。
所以,2019年也是容器繼續快速落地的一年,下圖列出了大數據運維要掌握的各類必備技能。
萬丈高樓平地起,高樓穩不穩取決於地基是否紮實。運維數據即是運維管理這座高樓的地基。運維數據大體分爲CMDB、日誌、生產DB、知識庫四個方面。
對數據的維護和管理相當重要,特別是日誌數據,對運維來講,經過日誌能夠比較準確全面地知道系統或是設備的運行狀況,能夠返查問題產生的緣由,還原問題發生的整個過程。
經過日誌也能夠提早預測系統可能要發生的問題或是故障,如系統安全日誌,若是網絡安全防禦會在系統安全日誌中有必定的體現。
這麼多的日誌,運維要經過各類手段完成日誌的收集、過濾分析、可視化展現,那麼如何實現這些功能呢?
方法不少,例如ELK集成套件(Elasticsearch , Logstash, Kibana)就能夠輕鬆實現日誌數據的實時收集、分析傳輸以及圖形化展現。
那麼要如何使用ELK呢,根據日誌量的不一樣,對應的ELK架構也不盡相同,看下面幾個常見架構:
此架構主要是將Logstash部署在各個節點上搜集相關日誌、數據,並通過分析、過濾後發送給遠端服務器上的Elasticsearch進行存儲。
Elasticsearch再將數據以分片的形式壓縮存儲,並提供多種API供用戶查詢、操做。用戶能夠經過Kibana Web直觀的對日誌進行查詢,並根據需求生成數據報表。
此架構的優勢是搭建簡單,易於上手。缺點是Logstash消耗系統資源比較大,運行時佔用CPU和內存資源較高。
另外,因爲沒有消息隊列緩存,可能存在數據丟失的風險。此架構建議供初學者或數據量小的環境使用。
由此衍生出來了第二種架構:
此架構主要特色是引入了消息隊列機制,位於各個節點上的Logstash Agent(一級Logstash,主要用來傳輸數據)先將數據傳遞給消息隊列(常見的有Kafka、Redis等)。
接着,Logstash server(二級Logstash,主要用來拉取消息隊列數據,過濾並分析數據)將格式化的數據傳遞給Elasticsearch進行存儲。
最後,由Kibana將日誌和數據呈現給用戶。因爲引入了Kafka(或者Redis)緩存機制,即便遠端Logstash server因故障中止運行,數據也不會丟失,由於數據已經被存儲下來了。
這種架構適合於較大集羣、數據量通常的應用環境,但因爲二級Logstash要分析處理大量數據,同時Elasticsearch也要存儲和索引大量數據,所以它們的負荷會比較重,解決的方法是將它們配置爲集羣模式,以分擔負載。
此架構的優勢在於引入了消息隊列機制,均衡了網絡傳輸,從而下降了網絡閉塞尤爲是丟失數據的可能性,但依然存在Logstash佔用系統資源過多的問題,在海量數據應用場景下,可能會出現性能瓶頸。
最後,還有第三種架構:
這個架構是在上面第二個架構基礎上改進而來的,主要是將前端收集數據的Logstash Agent換成了filebeat,消息隊列使用了kafka集羣,而後將Logstash和Elasticsearch都經過集羣模式進行構建。
此架構適合大型集羣、海量數據的業務場景,它經過將前端Logstash Agent替換成filebeat,有效下降了收集日誌對業務系統資源的消耗。
同時,消息隊列使用kafka集羣架構,有效保障了收集數據的安全性和穩定性,然後端Logstash和Elasticsearch均採用集羣模式搭建,從總體上提升了ELK系統的高效性、擴展性和吞吐量。
大數據分析最先就來源於運維人的日誌分析,到逐漸發展對各類業務的分析,人們發現這些數據蘊涵着很是大的價值。
那麼如何用大數據思惟作運維呢,大數據架構上的一個思惟就是:提供一個平臺讓運維方便解決這些問題, 而不是,讓大數據平臺去解決出現的問題。
基本的一個大數據運維架構是這樣的:
對於運維的監控,利用大數據思惟,須要分三步走:
獲取須要的數據
過濾出異常數據並設置告警閥值
經過第三方監控平臺進行告警
全部系統最可靠的就是日誌輸出,系統是否是正常,發生了什麼狀況,咱們之前是出了問題去查日誌,或者本身寫個腳本定時去分析。如今這些事情均可以整合到一個已有的平臺上,咱們惟一要作的就是定義分析日誌的的邏輯。
好啦,這就是今天要給你們介紹的2019核心運維技能啦,抓住時機,開始全新學習吧!2019,你的全新開始!!!
更多好內容,請訂閱南非螞蟻三部曲《大牛帶你解決運維典型難題》 如今訂閱,免費送圖書>>>