爬取簡書網30日熱門得到詞雲 續

前面所使用的jieba分詞中,是自行收集一些不重要的詞進行過濾的,效率不是很高,並且帶有比較大的主觀性(算是優點,也算是缺點)。 本次則改爲使用中文停用詞表來過濾一些詞語。代碼相對於上一節來說變化的主要是analysis.py 中的analysis函數。 代碼大致如下: import jieba.analyse def analysis(db_name, collection_name):
相關文章
相關標籤/搜索