Python數據可視化:淺談數據分析崗

講道理,pyspider確實是一款優秀的爬蟲框架,咱們能夠利用它快速方便地實現一個頁面的抓取。javascript


不過帶來便捷性的同時,也有它的侷限性,複雜頁面很差爬取。html


在本次的數據爬取中,BOSS直聘是成功使用pyspider。但拉勾網卻不行,由於拉勾網的數據是Ajax加載的。java


拉勾網崗位數據請求的網址是不變的,改變的是表單數據表單數據隨着頁數改變請求方式爲POST。這裏沒辦法在pyspider裏用循環遍從來獲取每一頁的數據。python


也許是我對pyspider框架了解的不夠,還達不到駕輕就熟。因此最後拉勾網的爬取,採用日常的辦法,在PyCharm中自行編寫程序。mysql


本次經過對BOSS直聘,拉勾網數據分析崗數據分析,瞭解數據分析崗的行業狀況,也以此來了解從事數據分析所須要的技能。sql



/ 01 / 網頁分析數據庫


圖片


獲取BOSS直聘索引頁信息,主要是崗位名稱、薪資、地點、工做年限、學歷要求,公司名稱、類型、狀態、規模。json


原本一開始是想對詳情頁分析的,還能夠獲取詳情頁裏的工做內容和工做技能需求。瀏覽器


而後因爲請求太多,就放棄了。索引頁有10頁,1頁有30個崗位,一個詳情頁就須要一個請求,算起來一共有300個請求。app


我是到了第2頁(60個請求),就出現了訪問過於頻繁的警告。


而只獲取索引頁信息的話,只有10個請求,基本上沒什麼問題,外加也不想去鼓搗代理IP,因此來點簡單的。


到時候作數據挖掘崗位的數據時,看看放慢時間可否獲取成功。



獲取拉勾網索引頁信息,主要是崗位名稱、地點、薪資、工做年限、學歷要求,公司名稱、類型、狀態、規模,工做技能,工做福利。


網頁爲Ajax請求,採用PyCharm編寫代碼,輕車熟路。



/ 02 / 數據獲取


01 pyspider獲取BOSS直聘數據


pyspider的安裝很簡單,直接在命令行pip3 install pyspider便可。


這裏由於以前沒有安裝pyspider對接的PhantomJS(處理JavaScript渲染的頁面)。


因此須要從網站下載下來它的exe文件,將其放入Python的exe文件所在的文件夾下。


最後在命令行輸入pyspider all,便可運行pyspider。


在瀏覽器打開網址http://localhost:5000/,建立項目,添加項目名稱,輸入請求網址,獲得以下圖。



最後在pyspider的腳本編輯器裏編寫代碼,結合左邊的反饋狀況,對代碼加以改正。


圖片


腳本編輯器具體代碼以下。


 
 

#!/usr/bin/env python
# -*- encoding: utf-8 -*-
# Project: BOSS

from pyspider.libs.base_handler import *
import pymysql
import random
import time
import re

count = 0

class Handler(BaseHandler):
    # 添加請求頭,不然出現403報錯
    crawl_config = {'headers': {'User-Agent''Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}}

    def __init__(self):
        # 鏈接數據庫
        self.db = pymysql.connect(host='127.0.0.1', user='root', password='774110919', port=3306, db='boss_job', charset='utf8mb4')

    def add_Mysql(self, id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people):
        # 將數據寫入數據庫中
        try:
            cursor = self.db.cursor()
            sql = 'insert into job(id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people) values ("%d", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s")' % (id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people);
            print(sql)
            cursor.execute(sql)
            print(cursor.lastrowid)
            self.db.commit()
        except Exception as e:
            print(e)
            self.db.rollback()

    @every(minutes=24 * 60)
    def on_start(self):
        # 由於pyspider默認是HTTP請求,對於HTTPS(加密)請求,須要添加validate_cert=False,不然599/SSL報錯
        self.crawl('https://www.zhipin.com/job_detail/?query=%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90&scity=100010000&industry=&position=', callback=self.index_page, validate_cert=False)

    @config(age=10 * 24 * 60 * 60)
    def index_page(self, response):
        time.sleep(random.randint(25))
        for i in response.doc('li > div').items():
            # 設置全局變量
            global count
            count += 1
            # 崗位名稱
            job_title = i('.job-title').text()
            print(job_title)
            # 崗位薪水
            job_salary = i('.red').text()
            print(job_salary)
            # 崗位地點
            city_result = re.search('(.*?)<em class=', i('.info-primary > p').html())
            job_city = city_result.group(1).split(' ')[0]
            print(job_city)
            # 崗位經驗
            experience_result = re.search('<em class="vline"/>(.*?)<em class="vline"/>', i('.info-primary > p').html())
            job_experience = experience_result.group(1)
            print(job_experience)
            # 崗位學歷
            job_education = i('.info-primary > p').text().replace(' ''').replace(city_result.group(1).replace(' '''), '').replace(experience_result.group(1).replace(' '''),'')
            print(job_education)
            # 公司名稱
            company_name = i('.info-company a').text()
            print(company_name)
            # 公司類型
            company_type_result = re.search('(.*?)<em class=', i('.info-company p').html())
            company_type = company_type_result.group(1)
            print(company_type)
            # 公司狀態
            company_status_result = re.search('<em class="vline"/>(.*?)<em class="vline"/>', i('.info-company p').html())
            if company_status_result:
                company_status = company_status_result.group(1)
            else:
                company_status = '無信息'
            print(company_status)
            # 公司規模
            company_people = i('.info-company p').text().replace(company_type, '').replace(company_status,'')
            print(company_people + '\n')
            # 寫入數據庫中
            self.add_Mysql(count, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people)
        # 獲取下一頁信息
        next = response.doc('.next').attr.href
        if next != 'javascript:;':
            self.crawl(next, callback=self.index_page, validate_cert=False)
        else:
            print("The Work is Done")
        # 詳情頁信息獲取,因爲訪問次數有限制,不使用
        #for each in response.doc('.name > a').items():
            #url = each.attr.href
            #self.crawl(each.attr.href, callback=self.detail_page, validate_cert=False)

    @config(priority=2)
    def detail_page(self, response):
        # 詳情頁信息獲取,因爲訪問次數有限制,不使用
        message_job = response.doc('div > .info-primary > p').text()
        city_result = re.findall('城市:(.*?)經驗', message_job)
        experience_result = re.findall('經驗:(.*?)學歷', message_job)
        education_result = re.findall('學歷:(.*)', message_job)

        message_company = response.doc('.info-company > p').text().replace(response.doc('.info-company > p > a').text(),'')
        status_result = re.findall('(.*?)\d', message_company.split(' ')[0])
        people_result = message_company.split(' ')[0].replace(status_result[0], '')

        return {
            "job_title": response.doc('h1').text(),
            "job_salary": response.doc('.info-primary .badge').text(),
            "job_city": city_result[0],
            "job_experience": experience_result[0],
            "job_education": education_result[0],
            "job_skills": response.doc('.info-primary > .job-tags > span').text(),
            "job_detail": response.doc('div').filter('.text').eq(0).text().replace('\n'''),
            "company_name": response.doc('.info-company > .name > a').text(),
            "company_status": status_result[0],
            "company_people": people_result,
            "company_type": response.doc('.info-company > p > a').text(),
        }


獲取BOSS直聘數據分析崗數據以下。



02 PyCharm獲取拉勾網數據


 
 

import requests
import pymysql
import random
import time
import json

count = 0
# 設置請求網址及請求頭參數
url = 'https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false'
headers = {
    'User-Agent''Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36',
    'Cookie''你的Cookie值',
    'Accept''application/json, text/javascript, */*; q=0.01',
    'Connection''keep-alive',
    'Host''www.lagou.com',
    'Origin''https://www.lagou.com',
    'Referer''ttps://www.lagou.com/jobs/list_%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90?labelWords=sug&fromSearch=true&suginput=shuju'
}

# 鏈接數據庫
db = pymysql.connect(host='127.0.0.1', user='root', password='774110919', port=3306, db='lagou_job', charset='utf8mb4')


def add_Mysql(id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people, job_tips, job_welfare):
    # 將數據寫入數據庫中
    try:
        cursor = db.cursor()
        sql = 'insert into job(id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people, job_tips, job_welfare) values ("%d", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s")' % (id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people, job_tips, job_welfare);
        print(sql)
        cursor.execute(sql)
        print(cursor.lastrowid)
        db.commit()
    except Exception as e:
        print(e)
        db.rollback()


def get_message():
    for i in range(131):
        print('第' + str(i) + '頁')
        time.sleep(random.randint(1020))
        data = {
            'first''false',
            'pn': i,
            'kd''數據分析'
        }
        response = requests.post(url=url, data=data, headers=headers)
        result = json.loads(response.text)
        job_messages = result['content']['positionResult']['result']
        for job in job_messages:
            global count
            count += 1
            # 崗位名稱
            job_title = job['positionName']
            print(job_title)
            # 崗位薪水
            job_salary = job['salary']
            print(job_salary)
            # 崗位地點
            job_city = job['city']
            print(job_city)
            # 崗位經驗
            job_experience = job['workYear']
            print(job_experience)
            # 崗位學歷
            job_education = job['education']
            print(job_education)
            # 公司名稱
            company_name = job['companyShortName']
            print(company_name)
            # 公司類型
            company_type = job['industryField']
            print(company_type)
            # 公司狀態
            company_status = job['financeStage']
            print(company_status)
            # 公司規模
            company_people = job['companySize']
            print(company_people)
            # 工做技能
            if len(job['positionLables']) > 0:
                job_tips = ','.join(job['positionLables'])
            else:
                job_tips = 'None'
            print(job_tips)
            # 工做福利
            job_welfare = job['positionAdvantage']
            print(job_welfare + '\n\n')
            # 寫入數據庫
            add_Mysql(count, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people, job_tips, job_welfare)


if __name__ == '__main__':
    get_message()


獲取拉勾網數據分析崗數據以下。


圖片


這裏的數據庫都是本身在外面建立的,以前也用了好多回,就不貼代碼細說了。



/ 03 / 數據可視化


01 城市分佈圖


圖片


圖片


崗位的分佈狀況,這裏能夠看出崗位大多都分佈在東部地區,中部也有一些。


02 城市分佈熱力圖




京津冀、長三角、珠三角密集度不相上下,成都重慶地區也有一小些需求。


能夠說北上廣深,這四個一線城市包攬了大部分的崗位需求。


03 工做經驗薪水圖


圖片


圖片


這裏經過看箱形圖的四分位及中間值,大體能看出隨着工做年限的增加,薪資也是一路上升。


BOSS直聘裏,1年之內工做經驗的薪資,有個最高4萬多的,這確定是不合理的。


因而就去數據庫看了下,其實那個崗位要求是3年以上,但實際給的標籤倒是1年之內。


因此說數據來源提供的數據的準確性很重要。


04 學歷薪水圖


圖片


圖片


總的來講「碩士」>「本科」>「大專」,固然大專、本科中也有高薪水的。


畢竟越日後能力就越重要,學歷算是一個重要的加分項


05 公司狀態薪水圖


圖片



這裏的數據沒什麼特色,就當瞭解下這些概念。


一個公司的發展,能夠是從天使輪一直到上市公司」,路途坎坷。


06 公司規模薪水圖


圖片


圖片


正常來講,公司規模越大,薪水應該會越高。


畢竟大廠的工資擺在那裏,想不知道都難。


不過這裏沒能體現出來差距,卻是發現人數最少的公司,最高工資給的不高,難不成是初期缺錢?


07 公司類型TOP10


圖片


圖片


數據分析崗主要集中在互聯網行業,金融地產教育醫療遊戲」也有所涉及。


大部分崗位需求都集中第三產業上。


08 工做技能圖


圖片


這個算是本次的重點,這些技能將會是往後學習的重點。


數據挖掘」「SQL」「BI」「數據運營」「SPSS」「數據庫」「MySQL」等等。


09 工做福利圖


圖片


這裏能夠看出大部分重點都圍繞着五險一金福利多團隊氛圍好晉升空間大行業大牛領頭」上。


要是哪家公司都具有了,那簡直就是要上天。


不過你我都清楚,這是不存在的,就算可能存在,也只是別人家的公司而已~



/ 04 / 總結


最後貼兩張BOSS直聘以及拉勾網薪水TOP20,以此來做爲勉勵。


01 BOSS直聘薪水TOP20


圖片


02 拉勾網薪水TOP20


圖片


畢竟咱們不能僅僅當條鹹魚,咱們要當就當一隻有夢想的鹹魚!!!


公衆號回覆數據分析,便可獲取源碼。


文末點個贊,比心!!!

相關文章
相關標籤/搜索