安裝軟件 | 主機名 | IP地址 | 內存需求 |
---|---|---|---|
Elasticsearch | mes | 192.168.13.142 | 至少3G |
Logstash | log | 192.168.13.143 | 至少2G |
head,Kibana | head-kib | 192.168.13.139 | 至少2G |
地址與版本html
Elasticsearch: 6.5.4 #https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.5.4.tar.gz Logstash: 6.5.4 #https://artifacts.elastic.co/downloads/logstash/logstash-6.5.4.tar.gz Kibana: 6.5.4 #https://artifacts.elastic.co/downloads/kibana/kibana-6.5.4-linux-x86_64.tar.gz Kafka: 2.11-2.1 #https://archive.apache.org/dist/kafka/2.1.0/kafka_2.11-2.1.0.tgz Filebeat: 6.5.4 相應的版本最好下載對應的插件
相關地址:
官網地址java
系統類型:Centos7.5 節點IP:172.16.13.142 軟件版本:jdk-8u211-linux-x64.tar.gz、elasticsearch-6.5.4.tar.gz
JDK下載地址node
[root@mes ~]# tar xzf jdk-8u211-linux-x64.tar.gz -C /usr/local/ #解壓 [root@mes ~]# cd /usr/local/ [root@mes local]# mv jdk1.8.0_211/ java [root@mes local]# echo ' JAVA_HOME=/usr/local/java PATH=$JAVA_HOME/bin:$PATH export JAVA_HOME PATH ' >>/etc/profile [root@mes local]# source /etc/profile [root@mes local]# java -version #出現版本號就表明jdk配置成功 java version "1.8.0_211" Java(TM) SE Runtime Environment (build 1.8.0_211-b12) Java HotSpot(TM) 64-Bit Server VM (build 25.211-b12, mixed mode)
[root@mes ~]# useradd elsearch #建立運行用戶 [root@mes ~]# echo "123456" | passwd --stdin "elsearch" #設置密碼 [root@mes ~]# tar xzf elasticsearch-6.5.4.tar.gz -C /usr/local/ [root@mes ~]# cd /usr/local/elasticsearch-6.5.4/config/ [root@mes config]# cp elasticsearch.yml elasticsearch.yml.bak #備份 [root@mes config]# vim elasticsearch.yml # 在最後一行添加以下內容 cluster.name: elk node.name: elkyjssjm node.master: true node.data: true path.data: /data/elasticsearch/data path.logs: /data/elasticsearch/logs bootstrap.memory_lock: false bootstrap.system_call_filter: false network.host: 0.0.0.0 http.port: 9200 http.cors.enabled: true http.cors.allow-origin: "*" #discovery.zen.ping.unicast.hosts: ["192.168.246.234", "192.168.246.231","192.168.246.235"] #discovery.zen.minimum_master_nodes: 2 #discovery.zen.ping_timeout: 150s #discovery.zen.fd.ping_retries: 10 #client.transport.ping_timeout: 60s
參數詳解linux
cluster.name 集羣名稱,各節點配成相同的集羣名稱。 node.name 節點名稱,各節點配置不一樣。 node.master 指示某個節點是否符合成爲主節點的條件。 node.data 指示節點是否爲數據節點。數據節點包含並管理索引的一部分。 path.data 數據存儲目錄。 path.logs 日誌存儲目錄。 bootstrap.memory_lock 內存鎖定,是否禁用交換。 bootstrap.system_call_filter 系統調用過濾器。 network.host 綁定節點IP。 http.port 端口。 discovery.zen.ping.unicast.hosts 提供其餘 Elasticsearch 服務節點的單點廣播發現功能。 discovery.zen.minimum_master_nodes 集羣中可工做的具備Master節點資格的最小數量,官方的推薦值是(N/2)+1,其中N是具備master資格的節點的數量。 discovery.zen.ping_timeout 節點在發現過程當中的等待時間。 discovery.zen.fd.ping_retries 節點發現重試次數。 http.cors.enabled 是否容許跨源 REST 請求,表示支持全部域名,用於容許head插件訪問ES。 http.cors.allow-origin 容許的源地址。
設置JVM堆大小,通常設置爲內存的一半,但最少2G [root@mes ~]# sed -i 's/-Xms1g/-Xms2g/' /usr/local/elasticsearch-6.5.4/config/jvm.options [root@mes ~]# sed -i 's/-Xmx1g/-Xmx2g/' /usr/local/elasticsearch-6.5.4/config/jvm.options 建立ES數據及日誌存儲目錄並修改屬主和屬組,與上面配置文件中的路徑一一對應 [root@mes ~]# mkdir -p /data/elasticsearch/data [root@mes ~]# mkdir -p /data/elasticsearch/logs [root@mes ~]# chown -R elsearch:elsearch /data/elasticsearch #給剛剛建立的目錄修改屬主和屬組 [root@mes ~]# chown -R elsearch:elsearch /usr/local/elasticsearch-6.5.4
系統優化: 1.增長最大進程數 [root@mes ~]# vim /etc/security/limits.conf #在文件最後面添加以下內容 * soft nofile 65536 * hard nofile 131072 * soft nproc 2048 * hard nproc 4096 ================================================================ 解釋: soft xxx : 表明警告的設定,能夠超過這個設定值,可是超事後會有警告。 hard xxx : 表明嚴格的設定,不容許超過這個設定的值。 nofile : 是每一個進程能夠打開的文件數的限制 nproc : 是操做系統級別對每一個用戶建立的進程數的限制 ================================================================ 2.增長最大內存映射數 [root@mes ~]# vim /etc/sysctl.conf #添加以下 vm.max_map_count=262144 #elasticsearch用戶擁有的內存權限過小,至少須要262144; vm.swappiness=0 #表示最大限度使用物理內存,在內存不足的狀況下,而後纔是swap空間
[root@mes ~]# su - elsearch Last login: Sat Aug 3 19:48:59 CST 2019 on pts/0 [root@mes ~]$ cd /usr/local/elasticsearch-6.5.4/ [root@mes elasticsearch-6.5.4]$ ./bin/elasticsearch #先啓動看看報錯不,須要多等一會 終止以後(等cpu降下來再終止) [root@mes elasticsearch-6.5.4]$ nohup ./bin/elasticsearch & #放後臺啓動 [1] 11462 nohup: ignoring input and appending output to ‘nohup.out’ [root@mes elasticsearch-6.5.4]$ tail -f nohup.out #看一下是否啓動 或者: su - elsearch -c "cd /usr/local/elasticsearch-6.5.4 && nohup bin/elasticsearch &"
測試:訪問http://192.168.13.142:9200/ 記得加端口9200
nginx
系統類型:Centos7.5 節點IP:172.16.13.139 軟件版本:node-v4.4.7-linux-x64.tar.gz、elasticsearch-head-master.zip、phantomjs-2.1.1-linux-x86_64.tar.bz二、kibana-6.5.4-linux-x86_64.tar.gz
1.安裝node [root@head-kib ~]# wget https://npm.taobao.org/mirrors/node/latest-v4.x/node-v4.4.7-linux-x64.tar.gz [root@head-kib ~]# tar -zxf node-v4.4.7-linux-x64.tar.gz –C /usr/local [root@head-kib ~]# vim /etc/profile #在最後添加以下變量 NODE_HOME=/usr/local/node-v4.4.7-linux-x64 PATH=$NODE_HOME/bin:$PATH export NODE_HOME PATH [root@head-kib ~]# source /etc/profile [root@head-kib ~]# node --version #檢查node版本號 v4.4.7 2.下載head插件grunt [root@head-kib ~]# wget https://github.com/mobz/elasticsearch-head/archive/master.zip [root@head-kib ~]# cp elasticsearch-head-master.zip /usr/local/ [root@head-kib ~]# yum -y install unzip [root@head-kib local]# cd /usr/local [root@head-kib local]# unzip elasticsearch-head-master.zip [root@head-kib local]# cd elasticsearch-head-master/ [root@head-kib elasticsearch-head-master]# npm config set registry https://registry.npm.taobao.org #改源地址,要否則下面的安裝時間會特別長 [root@head-kib elasticsearch-head-master]# npm install -g grunt-cli #安裝grunt [root@head-kib elasticsearch-head-master]# grunt --version #檢查grunt版本號 grunt-cli v1.3.2
[root@head-kib elasticsearch-head-master]# vim /usr/local/elasticsearch-head-master/Gruntfile.js #在95行左右
[root@head-kib elasticsearch-head-master]# vim /usr/local/elasticsearch-head-master/_site/app.js #在4374行左右
3.下載head必要的文件 [root@head-kib ~]# wget https://github.com/Medium/phantomjs/releases/download/v2.1.1/phantomjs-2.1.1-linux-x86_64.tar.bz2 [root@head-kib ~]# yum -y install bzip2 [root@head-kib ~]# tar -jxf phantomjs-2.1.1-linux-x86_64.tar.bz2 -C /tmp/ #解壓 4.運行head [root@head-kib ~]# cd /usr/local/elasticsearch-head-master/ [root@head-kib elasticsearch-head-master]# npm config set registry https://registry.npm.taobao.org [root@head-kib elasticsearch-head-master]# npm install ... grunt-contrib-jasmine@1.0.3 node_modules/grunt-contrib-jasmine ├── sprintf-js@1.0.3 ├── lodash@2.4.2 ├── es5-shim@4.5.13 ├── chalk@1.1.3 (escape-string-regexp@1.0.5, supports-color@2.0.0, ansi-styles@2.2.1, strip-ansi@3.0.1, has-ansi@2.0.0) ├── jasmine-core@2.99.1 ├── rimraf@2.6.3 (glob@7.1.4) └── grunt-lib-phantomjs@1.1.0 (eventemitter2@0.4.14, semver@5.7.0, temporary@0.0.8, phan [root@head-kib elasticsearch-head-master]# nohup grunt server & [root@head-kib elasticsearch-head-master]# tail -f nohup.out Running "connect:server" (connect) task Waiting forever... Started connect web server on http://localhost:9100
測試:訪問http://192.168.13.139:9100/
git
1.安裝和配置 [root@head-kib ~]# tar zvxf kibana-6.5.4-linux-x86_64.tar.gz -C /usr/local/ [root@head-kib ~]# cd /usr/local/kibana-6.5.4-linux-x86_64/config/ [root@head-kib config]# vim kibana.yml #在末尾添加如下內容 server.port: 5601 server.host: "192.168.13.139" #本機 elasticsearch.url: "http://192.168.13.142:9200" #ES節點 kibana.index: ".kibana" ==================================================================================== server.port kibana 服務端口,默認5601 server.host kibana 主機IP地址,默認localhost elasticsearch.url 用來作查詢的ES節點的URL,默認http://localhost:9200 kibana.index kibana在Elasticsearch中使用索引來存儲保存的searches, visualizations和dashboards,默認.kibana ===================================================================================== 2.啓動 [root@head-kib config]# cd .. [root@head-kib kibana-6.5.4-linux-x86_64]# nohup ./bin/kibana & [1] 12054 [root@head-kib kibana-6.5.4-linux-x86_64]# nohup: ignoring input and appending output to ‘nohup.out’
咱們能夠用nginx進行反向代理,不至於顯示出咱們真正的IP和端口號
我是在這一臺上面部署了nginx,在任意一臺部署均可以github
[root@head-kib ~]# rpm -ivh http://nginx.org/packages/centos/7/noarch/RPMS/nginx-release-centos-7-0.el7.ngx.noarch.rpm #下載源 [root@head-kib ~]# yum -y install nginx #安裝 [root@head-kib ~]# cd /etc/nginx/conf.d/ [root@head-kib conf.d]# cp default.conf default.conf.bak #備份 [root@head-kib conf.d]# vim default.conf #清空並添加如下內容 server { listen 80; server_name 192.168.13.139; #你的nginx所在的機器 #charset koi8-r; # access_log /var/log/nginx/host.access.log main; # access_log off; location / { proxy_pass http://192.168.13.139:5601; #kibana所在的機器 proxy_set_header Host $host:5601; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header Via "nginx"; } location /status { stub_status on; #開啓網站監控狀態 access_log /var/log/nginx/kibana_status.log; #監控日誌 auth_basic "NginxStatus"; } location /head/{ proxy_pass http://192.168.246.13.139:9100; #head所在的機器 proxy_set_header Host $host:9100; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header Via "nginx"; } } root@head-kib ~]# systemctl start nginx #啓動nginx
測試:訪問 http://192.168.13.139/
剛開始沒數據,會提示你建立新的數據
web
系統類型:Centos7.5 節點IP:192.168.13.143 軟件版本:jdk-8u121-linux-x64.tar.gz、logstash-6.5.4.tar.gz
Logstash運行一樣依賴jdk,本次爲節省資源,故將Logstash安裝在了kafka244.231節點。
你想收集哪臺機器上的信息就將Logstash安裝到哪臺上。shell
1.安裝配置jdk [root@log ~]# tar xzf jdk-8u211-linux-x64.tar.gz -C /usr/local/ #解壓 [root@log ~]# cd /usr/local/ [root@log local]# mv jdk1.8.0_211/ java [root@log local]# echo ' JAVA_HOME=/usr/local/java PATH=$JAVA_HOME/bin:$PATH export JAVA_HOME PATH ' >>/etc/profile [root@log local]# source /etc/profile [root@log local]# java -version #出現版本號就表明jdk配置成功 java version "1.8.0_211" Java(TM) SE Runtime Environment (build 1.8.0_211-b12) Java HotSpot(TM) 64-Bit Server VM (build 25.211-b12, mixed mode)
2.安裝配置Logstash [root@log ~]# tar xvzf logstash-6.5.4.tar.gz -C /usr/local/ #安裝 建立目錄,將輸入輸出都放在該目錄裏面 [root@log ~]# mkdir -p /usr/local/logstash-6.5.4/etc/conf.d [root@log ~]# cd /usr/local/logstash-6.5.4/etc/conf.d/ [root@log conf.d]# vim input.conf #在下面添加 input{ #讓logstash能夠讀取特定的事件源。 file{ #從文件讀取 path => ["/var/log/nginx/access_json.log"] #要輸入的文件路徑 # code => "json" #定義編碼,用什麼格式輸入和輸出,因爲日誌就是json格式,這裏不用再寫 type => "nginx" #定義一個類型,通用選項. 用於激活過濾器 } } output{ #輸出插件,將事件發送到特定目標 elasticsearch { #輸出到es hosts => ["192.168.13.142:9200"] #指定es服務的ip加端口 index => ["%{type}-%{+YYYY.MM.dd}"] #引用input中的type名稱,定義輸出的格式 } }
咱們這裏以nginx的日誌爲例 [root@log ~]# cd [root@log ~]# rpm -ivh http://nginx.org/packages/centos/7/noarch/RPMS/nginx-release-centos-7-0.el7.ngx.noarch.rpm [root@log ~]# yum install -y nginx 將原來的日誌格式註釋掉定義成json格式: [root@log conf.d]# vim /etc/nginx/nginx.conf # 在http模塊裏面添加 log_format json '{"@timestamp":"$time_iso8601",' '"@version":"1",' '"client":"$remote_addr",' '"url":"$uri",' '"status":"$status",' '"domain":"$host",' '"host":"$server_addr",' '"size":$body_bytes_sent,' '"responsetime":$request_time,' '"referer": "$http_referer",' '"ua": "$http_user_agent"' '}'; access_log /var/log/nginx/access_json.log json; #引用定義的json格式的日誌:
啓動nginx [root@log ~]# systemctl start nginx [root@log ~]# systemctl enable nginx 啓動logstash [root@log ~]# cd /usr/local/logstash-6.5.4/ [root@log logstash-6.5.4]# nohup bin/logstash -f etc/conf.d/ --config.reload.automatic &
訪問http://192.168.13.143/ 多刷新幾回效果更明顯
而後去head插件頁面查看是否有nginx索引出現 http://192.168.13.139:9100/
發現以後,去配置kibanna添加索引
apache
而後你就能看見nginx日誌的可視化界面了。
大家的評論和點贊是我寫文章的最大動力,蟹蟹。