Crawler - 如何爬取列表後進行文章的爬取


已知BUG:(version:5) 1-爬取後生成的XML默認編碼是Java環境決定導入數據庫可能出問題 方法修改xml編碼後導入

Crawler Shell

重點CL 和 CI命令數據庫

CL 是爬取List列表 會經過file生成文件編碼

CI 中file是CL執行後生存的File文件xml

CL生成File文件(List),CI讀取File文件(list)進行對List遍歷,經過Cq命令提取List中每個文章的內容,而後經過CI的input命令輸出到xml中,就能夠入庫了。input

流程:CL生成List CI讀取LIST 完成任務it

相關文章
相關標籤/搜索