1.將日誌產生程序寫入crontab中:git
crontab -e
#每一分鐘執行一次 */1 * * * * /home/qian/data/project/log_generator.sh
進入logs日誌文件中:tail -f access.logbash
定時腳本添加成功服務器
2.開啓ZK:app
zkServer.sh start
3.開啓kafka-server:spa
kafka-server-start.sh -daemon \ /home/qian/app/kafka_2.11-0.9.0.0/config/server.properties
3.開啓flume agent:scala
flume-ng agent \ --name exec-memory-kafka \ --conf $FLUME_HOME/conf/ \ --conf-file ~/data/project/streaming_project2.conf \ -Dflume.root.logger=INFO,console
4.開啓sparkstremaing(只作了簡單的計數操做):日誌
(1)在IDEA中執行scala代碼,控制檯以下:code
(2)在git-bash中打成jar包:server
mvn clean package -DskipTests
(3)打包成功上傳到服務器上:blog
(4)在服務器上運行上傳的jar包。