1.Logstash吐出來的記錄 有大量冗餘數據,配置刪除項用來改變,減小存儲壓力,針對 配置文件中的 filter mutate grok json 等插件的使用。linux
2.一臺linux服務器上是否能夠開多個logstash實例,用來解決各個輸出源 不一樣 相互隔離的問題。目前還在測試,一個服務器配置多個logstash實例,區分監聽文件讀取信息記錄的位置【sincedb_path】。目前 開啓兩個logstash 實例,能夠正常運行,每一個實例的配置文件中的 input{ file 監聽 path 是同一個},斷掉一個不會影響另外一個logstash,同時在開啓斷掉的那個logstash實例,也能夠按照結束位置開始讀取文件。json
3.Logstash重啓後 確保從當前未吐出消息的位置 開始持續吐出消息。logstash 控制 讀取文件的位置,
sincedb_path => ’$HOME/. sincedb‘ #sincedb記錄數據上一次的讀取位置的一個index
start_position => ‘beginning #logstash 從什麼 位置開始讀取文件數據, 默認是結束位置 也能夠設置爲:beginning 從頭開始服務器
兩種讀取方式:從頭 beginning 從結束 (默認)測試
若是須要每次從頭開始消費的話,除了設置 start_position => beginning 還須要 sincedb_path 定義爲 /dev/null【沒有保存上次讀取的位置】。若是有sincedb_path存儲的值,即便設置了 start_position => ‘beginning 仍是不會從頭開始讀取消息,和 t start_position => "end" 同樣,讀取新的消息。spa
從開頭開始消費相似於 cat file; 從結束開始消費 相似於 tail -f file 每次拿的最新來的 ;對於 從結束開始消費的設置,無論有沒有sincedb_path存儲的值 ,都會等待新的消息來消費。插件