如何提升CSDN博客的訪問量

        開設CSDN博客也有幾天時間了,博客的訪問量已逐步逼近7000。雖然不是不少,但小菌已經很是知足了,畢竟在CSDN上開源分享,總結經驗纔是最重要的,訪問量,點贊數,評論數等附加數據則是用來評判博客內容質量好壞以及其自己受歡迎程度。最近小菌去瀏覽了一下博客周排行榜以及總排行榜的那些博客專家,IT大佬們的博客,不只粉絲數,獲贊數,瀏覽量讓小菌可望不可即,其博客內容的深度更是讓本菌自嘆不如(大佬就是大佬(T_T))。同時我也在思考如何向排行榜這個"福地"看齊,首當其衝即是提升博客訪問量。因而我在通過仔細的研究以後,總結出瞭如下方案,決定曬出來與小夥伴們一塊兒分享~
在這裏插入圖片描述html

正面例子

多寫經常使用知識點的博客

        這一點仍是很是的好理解,畢竟經常使用知識無論在哪一個領域受用人羣每每都是最多的,並且經常使用知識通常都偏向於基礎化,使用頻率高。只要你總結的到位,靠譜,無論發佈在哪都是很容易受到大量用戶的"追捧"!python

想辦法提升百度排名,注意標題不要寫的太複雜

        百度做爲全球最大的中文搜索引擎及最大的中文網站,每日的搜索量,瀏覽量是至關大的。只要你能在百度上搜索到本身的文章,而且還有一個不錯的位置,而且自帶一個好的標題,那麼訪問量日過萬(短時間)不是問題。(下面附上百度連接提交入口,須要審覈)百度搜索資源平臺
在這裏插入圖片描述
        對了,這種狀況下,一個好的標題就顯得很是重要!那什麼樣的標題纔算的上好的標題呢?注意標題必定要精煉,精煉,精煉!(重要的事總要說三遍)像有的文章內容質量不錯,結果標題起的不清不楚,平淡無奇,這樣作就很容易使博客埋沒在"貧民區"。精煉的標題可讓人理解起來更方便,而且小菌還建議你們能夠在標題後面適當的增長一些誘人詞彙吸引你們的關注,無形之中增長了在同類文章,博客中的競爭力。像寫篇介紹Java基礎的博客,你就能夠用《Java零基礎入門學習(小白也能看懂!)》相似的你們能夠自行發揮!web

寫國內比較新的技術

        這個就對自身學識有必定的要求了。在IT圈,新的技術無論在哪就像娛樂新聞同樣走到哪裏都自帶流量。像近幾年比較火的"區塊鏈",「大數據」,「雲計算」,「AI」…若是你有幸在這些領域工做,寫出"高訪問量"的文章應該不是很難!尤爲是中短時間,效果很好!正則表達式

區塊鏈
在這裏插入圖片描述
雲計算
在這裏插入圖片描述cookie

大數據多線程

在這裏插入圖片描述

人工智能app

在這裏插入圖片描述

成系列的寫技術文章,有利於增長評論,粉絲,中長期可以大幅度提升平常訪問量

        像下面幾位大佬學習!(僅舉出幾個例子,還有不少!)
在這裏插入圖片描述
dom

成系列的專欄,利於增長粉絲,亦能提升平常訪問量

        這裏以博客專家二師兄-公衆號-程序新視界爲例
在這裏插入圖片描述
在這裏插入圖片描述ide

"硬核"外掛–腳本刷CSDN訪問量

        這裏小菌不提倡你們這麼作,但做爲一個新用戶名的話,前期刷點訪問量美化數據仍是有點用的(真香,哈哈٩(๑❛ᴗ❛๑)۶)。直接上腳本吧,一樣仍是用python寫的。svg

腳本1:循環刷一個用戶下的全部博文

import requests
import re
import time
payload = ""
# 請求頭
headers = { 
 
   
    "Accept": "*/*",
    "Accept-Encoding": "gzip, deflate, br",
    "Accept-Language": "zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3",
    "Cookie": "l=AurqcPuigwQdnQv7WvAfCoR1OlrRQW7h; isg=BHp6mNB79CHqYXpVEiRteXyyyKNcg8YEwjgLqoRvCI3ddxqxbLtOFUBGwwOrZ3ad; thw=cn; cna=VsJQERAypn0CATrXFEIahcz8; t=0eed37629fe7ef5ec0b8ecb6cd3a3577; tracknick=tb830309_22; _cc_=UtASsssmfA%3D%3D; tg=0; ubn=p; ucn=unzbyun; x=e%3D1%26p%3D*%26s%3D0%26c%3D0%26f%3D0%26g%3D0%26t%3D0%26__ll%3D-1%26_ato%3D0; miid=981798063989731689; hng=CN%7Czh-CN%7CCNY%7C156; um=0712F33290AB8A6D01951C8161A2DF2CDC7C5278664EE3E02F8F6195B27229B88A7470FD7B89F7FACD43AD3E795C914CC2A8BEB1FA88729A3A74257D8EE4FBBC; enc=1UeyOeN0l7Fkx0yPu7l6BuiPkT%2BdSxE0EqUM26jcSMdi1LtYaZbjQCMj5dKU3P0qfGwJn8QqYXc6oJugH%2FhFRA%3D%3D; ali_ab=58.215.20.66.1516409089271.6; mt=ci%3D-1_1; cookie2=104f8fc9c13eb24c296768a50cabdd6e; _tb_token_=ee7e1e1e7dbe7; v=0",
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64;` rv:47.0) Gecko/20100101 Firefox/47.0"
}
# 得到文章列表urls
def getUrls(url):

    # 發送請求
    resp = requests.request("GET", url, data=payload, headers=headers)
    #設置解碼方式
    resp.encoding=resp.apparent_encoding
    #這裏會用設置的解碼方式解碼
    html_source = resp.text
    # 正則表達式,取出網頁中的url連接(一些尋找注入點的工具也是這麼作出來的)
    urls = re.findall("https://[^>\";\']*\d",html_source)
    new_urls=[]
    for url in urls:
        if 'details' in url:
            if url not in new_urls:
                new_urls.append(url)
    return new_urls

# 這裏替換成你要刷訪問量博客的首頁 
urls = getUrls("你的博客首頁地址")
while True:
    for url in urls:
        requests.request("GET", url, data=payload, headers=headers)
        print(url, "Ok")
        time.sleep(5)
    time.sleep(5)

腳本2:定時刷指定url的博文

# -*- coding: utf-8 -*-
 
import urllib2 
import random
import time
import requests
 
proxy_list=[]
 
def get_proxy_list():
    global proxy_list
    print "導入proxy_list...".decode('utf-8')
    #ip文件能夠瀏覽我上文連接文章「多線程爬蟲——抓取代理ip」
    f=open("ip.txt")
    #從文件中讀取的line會有回車,要把\n去掉
    line=f.readline().strip('\n')
    while line:
        proxy_list.append(line)
        line=f.readline().strip('\n')
    f.close()
 
def start():
    #總次數和有效次數
    times=0
    finished_times=0
    #無限刷
    while 1:
        user_agent_list=[
            { 
 
   'Mozilla/5.0(compatible;MSIE9.0;WindowsNT6.1;Trident/5.0)'},
            { 
 
   'Mozilla/4.0(compatible;MSIE8.0;WindowsNT6.0;Trident/4.0)'},
            { 
 
   'Mozilla/4.0(compatible;MSIE7.0;WindowsNT6.0)'},
            { 
 
   'Opera/9.80(WindowsNT6.1;U;en)Presto/2.8.131Version/11.11'},
            { 
 
   'Mozilla/5.0(WindowsNT6.1;rv:2.0.1)Gecko/20100101Firefox/4.0.1'},
            { 
 
   'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.71 Safari/537.1 LBBROWSER'},
            { 
 
   'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; QQDownload 732; .NET4.0C; .NET4.0E)'},
            { 
 
   'Mozilla/5.0 (Windows NT 5.1) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.84 Safari/535.11 SE 2.X MetaSr 1.0'},
            { 
 
   'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Maxthon/4.4.3.4000 Chrome/30.0.1599.101 Safari/537.36'},  
            { 
 
   'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.122 UBrowser/4.0.3214.0 Safari/537.36'} 
        ]
 
        referer_list=[
            { 
 
   'http://blog.csdn.net/dala_da/article/details/79401163'},
            { 
 
   'http://blog.csdn.net/'},
            { 
 
   'https://www.sogou.com/tx?query=%E4%BD%BF%E7%94%A8%E7%88%AC%E8%99%AB%E5%88%B7csdn%E8%AE%BF%E9%97%AE%E9%87%8F&hdq=sogou-site-706608cfdbcc1886-0001&ekv=2&ie=utf8&cid=qb7.zhuye&'},
            { 
 
   'https://www.baidu.com/s?tn=98074231_1_hao_pg&word=%E4%BD%BF%E7%94%A8%E7%88%AC%E8%99%AB%E5%88%B7csdn%E8%AE%BF%E9%97%AE%E9%87%8F'}
        ]
        #想要刷的blog的url
        url='http://blog.csdn.net/dala_da/article/details/79401163'
        #隨機user_agent和Referer
        header={ 
 
   'User-Agent':random.choice(user_agent_list), 
                'Referer':random.choice(referer_list)
        }
        #依次從proxy_list中取
        ip=proxy_list[times%len(proxy_list)]
        #設置代理,格式以下
        proxy_ip = 'http://' + ip
        proxy_ips = 'https://' + ip
        proxy = { 
 
   'https': proxy_ips, 'http': proxy_ip}
    
        try:
            response=requests.get(url, headers=header, proxies=proxy)
        except:
            #無響應則print出該代理ip
            print '代理出問題啦:'.decode('utf-8')+proxy["https"]
            time.sleep(0.1)
        else:
            print ('已刷%d次,%s')%(finished_times+1,proxy["https"])
            time.sleep(random.random())
            finished_times+=1
 
        times+=1
        #每當全部的代理ip刷過一輪,延時15秒
        if not times%len(proxy_list):
            time.sleep(15)
 
if __name__=="__main__":
    get_proxy_list()
    start()

        上述的兩個腳本是小菌在網上搜索到的,並親自測試過,短時間內是沒問題。但貌似目前已經被CSDN的服務端修復了,畢竟如今爬蟲這麼猖狂,反爬蟲的技術也一直在升級!感興趣的小夥伴們能夠自行去測試,研究一下反爬機制哦~

反面教材

        說了那麼多正面例子,讓咱們來看看反面教材(小菌表示懶得打碼了(▼ヘ▼#))。
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
        雖然不是什麼"正義人士",但本菌堅定抵制"標題黨"們的這種行爲,好好的CSDN口碑就是被這些人士給弄得烏煙瘴氣的!

總結

        關於如何快速提升CSDN的訪問量,本次的分享就到這裏了,小夥伴們不妨去試試看啦(反面例子就不要去試了)~有什麼疑惑或者好的建議歡迎評論區積極留言,小菌都會積極回覆噠(๑╹◡╹)ノ"""喜歡的小夥伴們記得點贊關注小菌吖。點贊加關注,小白不迷路…
在這裏插入圖片描述

在這裏插入圖片描述

本文同步分享在 博客「Alice菌」(CSDN)。
若有侵權,請聯繫 support@oschina.cn 刪除。
本文參與「OSC源創計劃」,歡迎正在閱讀的你也加入,一塊兒分享。

相關文章
相關標籤/搜索