在生成業務常有將MySQL數據同步到ES的需求,若是須要很高的定製化,每每須要開發同步程序用於處理數據。但沒有特殊業務需求,官方提供的logstash就頗有優點了。
在使用logstash咱們應先了解其特性,再決定是否使用:java
前往官網下載logstash,下載地址www.elastic.co/downloads/l…,zip壓縮包大約160M(以爲官網下載慢的可前往@zxiaofan的CSDN下載);
程序目錄:【windows】G:\ELK\logstash-6.5.4;【linux】/tomcat/logstash/logstash-6.5.4。
下文統一以【程序目錄】表示不一樣環境的安裝目錄。mysql
在【程序目錄】目錄(\bin同級)新建mysql目錄,將下載好的mysql-connector-java-5.1.34.jar放入此目錄;
在【程序目錄】\mysql目錄新建jdbc.conf文件,此文件將配置數據庫鏈接信息、查詢數據sql、分頁信息、同步頻率等核心信息。
注意事項請查看註釋信息。linux
input {
stdin {}
jdbc {
type => "jdbc"
# 數據庫鏈接地址
jdbc_connection_string => "jdbc:mysql://192.168.1.1:3306/TestDB?characterEncoding=UTF-8&autoReconnect=true""
# 數據庫鏈接帳號密碼;
jdbc_user => "username"
jdbc_password => "pwd"
# MySQL依賴包路徑;
jdbc_driver_library => "mysql/mysql-connector-java-5.1.34.jar"
# the name of the driver class for mysql
jdbc_driver_class => "com.mysql.jdbc.Driver"
# 數據庫重連嘗試次數
connection_retry_attempts => "3"
# 判斷數據庫鏈接是否可用,默認false不開啓
jdbc_validate_connection => "true"
# 數據庫鏈接可用校驗超時時間,默認3600S
jdbc_validation_timeout => "3600"
# 開啓分頁查詢(默認false不開啓);
jdbc_paging_enabled => "true"
# 單次分頁查詢條數(默認100000,若字段較多且更新頻率較高,建議調低此值);
jdbc_page_size => "500"
# statement爲查詢數據sql,若是sql較複雜,建議配經過statement_filepath配置sql文件的存放路徑;
# sql_last_value爲內置的變量,存放上次查詢結果中最後一條數據tracking_column的值,此處即爲ModifyTime;
# statement_filepath => "mysql/jdbc.sql"
statement => "SELECT KeyId,TradeTime,OrderUserName,ModifyTime FROM `DetailTab` WHERE ModifyTime>= :sql_last_value order by ModifyTime asc"
# 是否將字段名轉換爲小寫,默認true(若是有數據序列化、反序列化需求,建議改成false);
lowercase_column_names => false
# Value can be any of: fatal,error,warn,info,debug,默認info;
sql_log_level => warn
#
# 是否記錄上次執行結果,true表示會將上次執行結果的tracking_column字段的值保存到last_run_metadata_path指定的文件中;
record_last_run => true
# 須要記錄查詢結果某字段的值時,此字段爲true,不然默認tracking_column爲timestamp的值;
use_column_value => true
# 須要記錄的字段,用於增量同步,需是數據庫字段
tracking_column => "ModifyTime"
# Value can be any of: numeric,timestamp,Default value is "numeric"
tracking_column_type => timestamp
# record_last_run上次數據存放位置;
last_run_metadata_path => "mysql/last_id.txt"
# 是否清除last_run_metadata_path的記錄,須要增量同步時此字段必須爲false;
clean_run => false
#
# 同步頻率(分 時 天 月 年),默認每分鐘同步一次;
schedule => "* * * * *"
}
}
filter {
json {
source => "message"
remove_field => ["message"]
}
# convert 字段類型轉換,將字段TotalMoney數據類型改成float;
mutate {
convert => {
"TotalMoney" => "float"
}
}
}
output {
elasticsearch {
# host => "192.168.1.1"
# port => "9200"
# 配置ES集羣地址
hosts => ["192.168.1.1:9200", "192.168.1.2:9200", "192.168.1.3:9200"]
# 索引名字,必須小寫
index => "consumption"
# 數據惟一索引(建議使用數據庫KeyID)
document_id => "%{KeyId}"
}
stdout {
codec => json_lines
}
}
複製代碼
多表配置和單表配置的區別在於input模塊的jdbc模塊有幾個type,output模塊就需對應有幾個type;git
input {
stdin {}
jdbc {
# 多表同步時,表類型區分,建議命名爲「庫名_表名」,每一個jdbc模塊需對應一個type;
type => "TestDB_DetailTab"
# 其餘配置此處省略,參考單表配置
# ...
# ...
# record_last_run上次數據存放位置;
last_run_metadata_path => "mysql\last_id.txt"
# 是否清除last_run_metadata_path的記錄,須要增量同步時此字段必須爲false;
clean_run => false
#
# 同步頻率(分 時 天 月 年),默認每分鐘同步一次;
schedule => "* * * * *"
}
jdbc {
# 多表同步時,表類型區分,建議命名爲「庫名_表名」,每一個jdbc模塊需對應一個type;
type => "TestDB_Tab2"
# 多表同步時,last_run_metadata_path配置的路徑應不一致,避免有影響;
# 其餘配置此處省略
# ...
# ...
}
}
filter {
json {
source => "message"
remove_field => ["message"]
}
}
output {
# output模塊的type需和jdbc模塊的type一致
if [type] == "TestDB_DetailTab" {
elasticsearch {
# host => "192.168.1.1"
# port => "9200"
# 配置ES集羣地址
hosts => ["192.168.1.1:9200", "192.168.1.2:9200", "192.168.1.3:9200"]
# 索引名字,必須小寫
index => "detailtab1"
# 數據惟一索引(建議使用數據庫KeyID)
document_id => "%{KeyId}"
}
}
if [type] == "TestDB_Tab2" {
elasticsearch {
# host => "192.168.1.1"
# port => "9200"
# 配置ES集羣地址
hosts => ["192.168.1.1:9200", "192.168.1.2:9200", "192.168.1.3:9200"]
# 索引名字,必須小寫
index => "detailtab2"
# 數據惟一索引(建議使用數據庫KeyID)
document_id => "%{KeyId}"
}
}
stdout {
codec => json_lines
}
}
複製代碼
在【程序目錄】目錄執行如下命令啓動:github
【windows】
bin\logstash.bat -f mysql\jdbc.conf
【linux】
nohup ./bin/logstash -f mysql/jdbc_jx_moretable.conf &
複製代碼
可新建腳本配置好啓動命令,後期直接運行便可。
在【程序目錄】\logs目錄會有運行日誌。sql
Note:
5.x/6.X/7.x版本須要jdk8支持,若是默認jdk版本不是jdk8,那麼須要在logstash或logstash.lib.sh的行首位置添加兩個環境變量:數據庫
export JAVA_CMD="/usr/tools/jdk1.8.0_162/bin"
export JAVA_HOME="/usr/tools/jdk1.8.0_162/"
複製代碼
開機自啓動:json
output.elasticsearch模塊的index必須是全小寫;windows
若是lowercase_column_names配置的不是false,那麼tracking_column字段配置的必須是全小寫。tomcat
2032 com.mysql.jdbc.Driver not loaded.
Are you sure you've included the correct jdbc driver in :jdbc_driver_library?
複製代碼
檢測配置的地址是否正確,若是是linux環境,注意路徑分隔符是「/」,而不是「\」。
statement配置的sql中,若是比較字段使用的是大於「>」,可能存在數據丟失。
假設當同步完成後last_run_metadata_path存放的時間爲2019-01-30 20:45:30,而這時候新入庫一條數據的更新時間也爲2019-01-30 20:45:30,那麼這條數據將沒法同步。
解決方案:將比較字段使用 大於等於「>=」。
上一個問題「數據丟失」提供的解決方案是比較字段使用「大於等於」,但這時又會產生新的問題。
假設當同步完成後last_run_metadata_path存放的時間爲2019-01-30 20:45:30,而數據庫中更新時間最大值也爲2019-01-30 20:45:30,那麼這些數據將重複更新,直到有更新時間更大的數據出現。
當上述特殊數據不少,且長期沒有新的數據更新時,會致使大量的數據重複同步到ES。
什麼時候會出現以上狀況呢:①比較字段非「自增」;②比較字段是程序生成插入。
解決方案:
logstash自己沒法集羣,咱們常使用的組合ELK是經過kafka集羣變相實現集羣的。
可供選擇的處理方式:①使用任務程序推送數據到kafaka,由kafka同步數據到ES,但任務程序自己也須要容災,並須要考慮重複推送的問題;②將logstash加入守護程序,並輔以第三方監控其運行狀態。
具體如何選擇,須要結合自身的應用場景了。
爲何會慢?logstash分頁查詢使用臨時表分頁,每條分頁SQL都是將全集查詢出來看成臨時表,再在臨時表上分頁查詢。這樣致使每次分頁查詢都要對主表進行一次全表掃描。
SELECT * FROM (SELECT * FROM `ImageCN1`
WHERE ModifyTime>= '1970-01-01 08:00:00'
order by ModifyTime asc) AS `t1`
LIMIT 5000 OFFSET 10000000;
複製代碼
數據量太大,首次同步如何安全過渡同步?
可考慮在statement對應的sql中加上分頁條件,好比ID在什麼範圍,修改時間在什麼區間,將單詞同步的數據總量減小。先少許數據同步測試驗證,再根據測試狀況修改區間條件啓動logstash完成同步。好比將SQL修改成:
SELECT
*
FROM
`ImageCN1`
WHERE
ModifyTime < '2018-10-10 10:10:10' AND ModifyTime >= '1970-01-01 08:00:00'
ORDER BY
ModifyTime ASC
複製代碼
當同步完ModifyTime<'2018-10-10 10:10:10'區間的數據在修改SQL同步剩餘區間的數據。
這樣須要每次同步後就修改sql,線上運營比較繁瑣,是否能夠不修改sql,同時保證同步效率呢?SQL咱們能夠再修改下:
SELECT
*
FROM
`ImageCN1`
WHERE
ModifyTime >= '1970-01-01 08:00:00'
ORDER BY
ModifyTime ASC
LIMIT 100000
複製代碼
這樣就能保證每次子查詢的數據量不超過10W條,實際測試發現,數據量很大時效果很明顯。
[SQL]USE XXXDataDB;
受影響的行: 0
時間: 0.001s
[SQL]
SELECT
*
FROM
( SELECT * FROM `ImageCN1` WHERE ModifyTime >= '1970-01-01 08:00:00' ORDER BY ModifyTime ASC ) AS `t1`
LIMIT 5000 OFFSET 900000;
受影響的行: 0
時間: 7.229s
[SQL]
SELECT
*
FROM
( SELECT * FROM `ImageCN1` WHERE ModifyTime >= '2018-07-18 19:35:10' ORDER BY ModifyTime ASC LIMIT 100000 ) AS `t1`
LIMIT 5000 OFFSET 90000
受影響的行: 0
時間: 1.778s
複製代碼
測試能夠看出,SQL不加limit 10W時,越日後分頁查詢越慢,耗時達到8S,而加了limit條件的SQL耗時穩定在2S之內。
祝君好運!