國家統計局的公開數據真實性強,宏觀且與咱們的生活息息相關。html
所以,採集此數據做爲數據分析實驗的數據再好不過。node
採集過程採集各類公開數據的第一步就是分析網頁。python
上面的圖是國家統計局年度數據的界面。 左邊是數據分類的樹形菜單,右邊是每一個菜單點擊以後顯示的數據,能夠設置年份來過濾數據。json
根據頁面的狀況,首先,咱們須要採集樹形菜單中的數據,而後再根據菜單的分類來依次採集右邊的數據。 這樣能夠避免採集的遺漏。app
爬蟲採集數據通常有 2 種狀況:ide
經過分析網頁的加載過程,發現國際統計局的數據是有 API 的,這就節省了不少時間。 API 信息以下:函數
host: "https://data.stats.gov.cn/easyquery.htm" method: POST params: id=zb&dbcode=hgnd&wdcode=zb&m=getTree
經過 python 的 requests 庫模擬 POST 請求就能夠獲取到樹形菜單中的數據了。post
def init_tree(tree_data_path): data = get_tree_data() with open(tree_data_path, "wb") as f: pickle.dump(data, f) def get_tree_data(id="zb"): r = requests.post(f"{host}?id={id}&dbcode=hgnd&wdcode=zb&m=getTree", verify=False) logging.debug("access url: %s", r.url) data = r.json() for node in data: if node["isParent"]: node["children"] = get_tree_data(node["id"]) else: node["children"] = [] return data
直接調用上面的 init_tree 函數便可,樹形菜單會以 json 格式序列化到 tree_data_path 中。
序列化的目的是爲了後面採集數據時能夠反覆使用,不用每次都去採集這個樹形菜單。(畢竟菜單是基本不變的)編碼
有了分類的菜單,下一步就是採集具體的數據。 一樣,經過分析網頁,數據也是有 API 的,不用採集 html 頁面再提取數據。url
host: "https://data.stats.gov.cn/easyquery.htm" method: GET params: 參數有變量,具體參見代碼
採集數據稍微複雜一些,不像採集樹形菜單那樣訪問一次 API 便可,而是遍歷樹形菜單,根據菜單的信息訪問 API。
# -*- coding: utf-8 -*- import logging import os import pickle import time import pandas as pd import requests host = "https://data.stats.gov.cn/easyquery.htm" tree_data_path = "./tree.data" data_dir = "./data" def data(sj="1978-"): tree_data = [] with open(tree_data_path, "rb") as f: tree_data = pickle.load(f) traverse_tree_data(tree_data, sj) def traverse_tree_data(nodes, sj): for node in nodes: # 葉子節點上獲取數據 if node["isParent"]: traverse_tree_data(node["children"], sj) else: write_csv(node["id"], sj) def write_csv(nodeId, sj): fp = os.path.join(data_dir, nodeId + ".csv") # 文件是否存在, 若是存在, 不爬取 if os.path.exists(fp): logging.info("文件已存在: %s", fp) return statData = get_stat_data(sj, nodeId) if statData is None: logging.error("NOT FOUND data for %s", nodeId) return # csv 數據 csvData = {"zb": [], "value": [], "sj": [], "zbCN": [], "sjCN": []} for node in statData["datanodes"]: csvData["value"].append(node["data"]["data"]) for wd in node["wds"]: csvData[wd["wdcode"]].append(wd["valuecode"]) # 指標編碼含義 zbDict = {} sjDict = {} for node in statData["wdnodes"]: if node["wdcode"] == "zb": for zbNode in node["nodes"]: zbDict[zbNode["code"]] = { "name": zbNode["name"], "cname": zbNode["cname"], "unit": zbNode["unit"], } if node["wdcode"] == "sj": for sjNode in node["nodes"]: sjDict[sjNode["code"]] = { "name": sjNode["name"], "cname": sjNode["cname"], "unit": sjNode["unit"], } # csv 數據中加入 zbCN 和 sjCN for zb in csvData["zb"]: zbCN = ( zbDict[zb]["cname"] if zbDict[zb]["unit"] == "" else zbDict[zb]["cname"] + "(" + zbDict[zb]["unit"] + ")" ) csvData["zbCN"].append(zbCN) for sj in csvData["sj"]: csvData["sjCN"].append(sjDict[sj]["cname"]) # write csv file df = pd.DataFrame( csvData, columns=["sj", "sjCN", "zb", "zbCN", "value"], ) df.to_csv(fp, index=False) def get_stat_data(sj, zb): payload = { "dbcode": "hgnd", "rowcode": "zb", "m": "QueryData", "colcode": "sj", "wds": "[]", "dfwds": '[{"wdcode":"zb","valuecode":"' + zb + '"},{"wdcode":"sj","valuecode":"' + sj + '"}]', } r = requests.get(host, params=payload, verify=False) logging.debug("access url: %s", r.url) time.sleep(2) logging.debug(r.text) resp = r.json() if resp["returncode"] == 200: return resp["returndata"] else: logging.error("error: %s", resp) return None
代碼說明:
本次採集的結果有 1917 個不一樣種類的數據。