flume監控本地文件並同步到hdfs進行數據查詢與分析

總體要求 利用python編寫爬蟲程序,從招聘網站上爬取數據,將數據存入到MongoDB數據庫中,將存入的數據作一定的數據清洗後做數據分析,最後將分析的結果做數據可視化。 ** 前期準備 ** 1、配置大數據需要的環境 (1)配置Hadoop環境:可看博客: (2)配置zookeeper環境:https://blog.csdn.net/weixin_44701468/article/details
相關文章
相關標籤/搜索