國家統計局數據採集

概述

國家統計局的公開數據真實性強,宏觀且與咱們的生活息息相關。html

所以,採集此數據做爲數據分析實驗的數據再好不過。node

採集過程

採集各類公開數據的第一步就是分析網頁。python

數據展現界面

上面的圖是國家統計局年度數據的界面。 左邊是數據分類的樹形菜單,右邊是每一個菜單點擊以後顯示的數據,能夠設置年份來過濾數據。json

採集數據分類樹

根據頁面的狀況,首先,咱們須要採集樹形菜單中的數據,而後再根據菜單的分類來依次採集右邊的數據。 這樣能夠避免採集的遺漏。app

爬蟲採集數據通常有 2 種狀況:ide

  • 採集 html 頁面,而後分析其中的結構,提取出數據
  • 查看是否存在獲取數據的 API,直接從 API 中提取數據

經過分析網頁的加載過程,發現國際統計局的數據是有 API 的,這就節省了不少時間。 API 信息以下:函數

host: "https://data.stats.gov.cn/easyquery.htm"
method: POST
params:  id=zb&dbcode=hgnd&wdcode=zb&m=getTree

經過 python 的 requests 庫模擬 POST 請求就能夠獲取到樹形菜單中的數據了。post

def init_tree(tree_data_path):
    data = get_tree_data()
    with open(tree_data_path, "wb") as f:
        pickle.dump(data, f)


def get_tree_data(id="zb"):
    r = requests.post(f"{host}?id={id}&dbcode=hgnd&wdcode=zb&m=getTree", verify=False)
    logging.debug("access url: %s", r.url)
    data = r.json()

    for node in data:
        if node["isParent"]:
            node["children"] = get_tree_data(node["id"])
        else:
            node["children"] = []

    return data

直接調用上面的 init_tree 函數便可,樹形菜單會以 json 格式序列化到 tree_data_path 中。
序列化的目的是爲了後面採集數據時能夠反覆使用,不用每次都去採集這個樹形菜單。(畢竟菜單是基本不變的)編碼

根據分類採集數據

有了分類的菜單,下一步就是採集具體的數據。 一樣,經過分析網頁,數據也是有 API 的,不用採集 html 頁面再提取數據。url

host: "https://data.stats.gov.cn/easyquery.htm"
method: GET
params: 參數有變量,具體參見代碼

採集數據稍微複雜一些,不像採集樹形菜單那樣訪問一次 API 便可,而是遍歷樹形菜單,根據菜單的信息訪問 API。

# -*- coding: utf-8 -*-

import logging
import os
import pickle
import time

import pandas as pd
import requests

host = "https://data.stats.gov.cn/easyquery.htm"
tree_data_path = "./tree.data"
data_dir = "./data"


def data(sj="1978-"):
    tree_data = []
    with open(tree_data_path, "rb") as f:
        tree_data = pickle.load(f)

    traverse_tree_data(tree_data, sj)


def traverse_tree_data(nodes, sj):
    for node in nodes:
        # 葉子節點上獲取數據
        if node["isParent"]:
            traverse_tree_data(node["children"], sj)
        else:
            write_csv(node["id"], sj)


def write_csv(nodeId, sj):
    fp = os.path.join(data_dir, nodeId + ".csv")
    # 文件是否存在, 若是存在, 不爬取
    if os.path.exists(fp):
        logging.info("文件已存在: %s", fp)
        return

    statData = get_stat_data(sj, nodeId)
    if statData is None:
        logging.error("NOT FOUND data for %s", nodeId)
        return

    # csv 數據
    csvData = {"zb": [], "value": [], "sj": [], "zbCN": [], "sjCN": []}
    for node in statData["datanodes"]:
        csvData["value"].append(node["data"]["data"])
        for wd in node["wds"]:
            csvData[wd["wdcode"]].append(wd["valuecode"])

    # 指標編碼含義
    zbDict = {}
    sjDict = {}
    for node in statData["wdnodes"]:
        if node["wdcode"] == "zb":
            for zbNode in node["nodes"]:
                zbDict[zbNode["code"]] = {
                    "name": zbNode["name"],
                    "cname": zbNode["cname"],
                    "unit": zbNode["unit"],
                }

        if node["wdcode"] == "sj":
            for sjNode in node["nodes"]:
                sjDict[sjNode["code"]] = {
                    "name": sjNode["name"],
                    "cname": sjNode["cname"],
                    "unit": sjNode["unit"],
                }

    # csv 數據中加入 zbCN 和 sjCN
    for zb in csvData["zb"]:
        zbCN = (
            zbDict[zb]["cname"]
            if zbDict[zb]["unit"] == ""
            else zbDict[zb]["cname"] + "(" + zbDict[zb]["unit"] + ")"
        )
        csvData["zbCN"].append(zbCN)

    for sj in csvData["sj"]:
        csvData["sjCN"].append(sjDict[sj]["cname"])

    # write csv file
    df = pd.DataFrame(
        csvData,
        columns=["sj", "sjCN", "zb", "zbCN", "value"],
    )
    df.to_csv(fp, index=False)


def get_stat_data(sj, zb):
    payload = {
        "dbcode": "hgnd",
        "rowcode": "zb",
        "m": "QueryData",
        "colcode": "sj",
        "wds": "[]",
        "dfwds": '[{"wdcode":"zb","valuecode":"'
        + zb
        + '"},{"wdcode":"sj","valuecode":"'
        + sj
        + '"}]',
    }

    r = requests.get(host, params=payload, verify=False)
    logging.debug("access url: %s", r.url)
    time.sleep(2)

    logging.debug(r.text)
    resp = r.json()
    if resp["returncode"] == 200:
        return resp["returndata"]
    else:
        logging.error("error: %s", resp)
        return None

代碼說明:

  1. tree_data_path = "./tree.data" : 這個是第一步序列化出的樹形菜單數據
  2. 採集的數據按照樹形菜單中的每一個菜單的編號生成相應的 csv
  3. 樹形菜單的每一個葉子節點纔有數據,非葉子節點不用採集
  4. 調用 data 函數來採集數據,默認是從 1978 年的數據開始採集的
採集結果

本次採集的結果有 1917 個不一樣種類的數據。

相關文章
相關標籤/搜索