1.用Hive對爬蟲大做業產生的文本文件(或者英文詞頻統計下載的英文長篇小說)進行詞頻統計。php
(1)開啓全部的服務,並建立文件夾wwchtml
(2)查看目錄下全部文件java
(3)把hdfs文件系統中文件夾裏的文本文件load進去。linux
(4)進入hive,並查看全部的表正則表達式
(5)建立表word,,寫hiveQL命令統計api
(6)運行結果bash
1.取出一個新聞列表頁的所有新聞 包裝成函數。網絡
2.獲取總的新聞篇數,算出新聞總頁數。app
3.獲取所有新聞列表頁的所有新聞詳情。jvm
import requests from bs4 import BeautifulSoup from datetime import datetime import re # 獲取新聞點擊次數 def getNewsId(url): newsId = re.search(r'\_\d{4}\/((.*)).html', url).group(1) clickUrl = 'http://oa.gzcc.cn/api.php?op=count&id={}&modelid=80'.format(newsId) clickRes = requests.get(clickUrl) # 利用正則表達式獲取新聞點擊次數 clickCount = int(re.search("hits'\).html\('(.*)'\);", clickRes.text).group(1)) return clickCount # 獲取新聞細節 def getNewsDetail(newsUrl): resd = requests.get(newsUrl) resd.encoding = 'utf-8' soupd = BeautifulSoup(resd.text, 'html.parser') content = soupd.select('#content')[0].text info = soupd.select('.show-info')[0].text # 調用getNewsId()獲取點擊次數 count = getNewsId(newsUrl) # 識別時間格式 date = re.search('(\d{4}.\d{2}.\d{2}\s\d{2}.\d{2}.\d{2})', info).group(1) # 識別一個至三個數據 if(info.find('做者:')>0): author = re.search('做者:((.{2,4}\s|.{2,4}、|\w*\s){1,3})', info).group(1) else: author = '無' if(info.find('審覈:')>0): check = re.search('審覈:((.{2,4}\s){1,3})', info).group(1) else: check = '無' if(info.find('來源:')>0): sources = re.search('來源:(.*)\s*攝|點', info).group(1) else: sources = '無' if (info.find('攝影:') > 0): photo = re.search('攝影:(.*)\s*點', info).group(1) else: photo = '無' # 用datetime將時間字符串轉換爲datetime類型 dateTime = datetime.strptime(date, '%Y-%m-%d %H:%M:%S') # 利用format對字符串進行操做 print('發佈時間:{0}\n做者:{1}\n審覈:{2}\n來源:{3}\n攝影:{4}\n點擊次數:{5}'.format(dateTime, author, check, sources, photo, count)) print(content) def getListPage(listUrl): res = requests.get(listUrl) res.encoding = 'utf-8' soup = BeautifulSoup(res.text, 'html.parser') for new in soup.select('li'): if len(new.select('.news-list-title')) > 0: title = new.select('.news-list-title')[0].text description = new.select('.news-list-description')[0].text newsUrl = new.select('a')[0]['href'] print('標題:{0}\n內容:{1}\n連接:{2}'.format(title, description, newsUrl)) # 調用getNewsDetail()獲取新聞詳情 getNewsDetail(newsUrl) break listUrl = 'http://news.gzcc.cn/html/xiaoyuanxinwen/' getListPage(listUrl) res = requests.get(listUrl) res.encoding = 'utf-8' soup = BeautifulSoup(res.text, 'html.parser') listCount = int(soup.select('.a1')[0].text.rstrip('條'))//10+1 for i in range(2,listCount): listUrl= 'http://news.gzcc.cn/html/xiaoyuanxinwen/{}.html'.format(i) getListPage(listUrl)
4.找一個本身感興趣的主題,進行數據爬取,並進行分詞分析。不能與其它同窗雷同。
import requests, re, jieba from bs4 import BeautifulSoup from datetime import datetime def getNewsDetail(newsUrl): resd = requests.get(newsUrl) resd.encoding = 'gb2312' soupd = BeautifulSoup(resd.text, 'html.parser') content = soupd.select('#endText')[0].text info = soupd.select('.post_time_source')[0].text date = re.search('(\d{4}.\d{2}.\d{2}\s\d{2}.\d{2}.\d{2})', info).group(1) dateTime = datetime.strptime(date, '%Y-%m-%d %H:%M:%S') sources = re.search('來源:\s*(.*)', info).group(1) keyWords = getKeyWords(content) print('發佈時間:{0}\n來源:{1}'.format(dateTime, sources)) print('關鍵詞:{}、{}、{}'.format(keyWords[0], keyWords[1], keyWords[2])) print(content) def getKeyWords(content): content = ''.join(re.findall('[\u4e00-\u9fa5]', content)) wordSet = set(jieba._lcut(content)) wordDict = {} for i in wordSet: wordDict[i] = content.count(i) deleteList, keyWords = [], [] for i in wordDict.keys(): if len(i) < 2: deleteList.append(i) for i in deleteList: del wordDict[i] dictList = list(wordDict.items()) dictList.sort(key=lambda item: item[1], reverse=True) for i in range(3): keyWords.append(dictList[i][0]) return keyWords def getListPage(listUrl): res = requests.get(listUrl) res.encoding = 'gbk' soup = BeautifulSoup(res.text, 'html.parser') for new in soup.select('.news_item'): newsUrl = new.select('a')[0]['href'] title = new.select('a')[0].text print('標題:{0}\n連接:{1}'.format(title, newsUrl)) getNewsDetail(newsUrl) break listUrl = 'http://sports.163.com/zc/' getListPage(listUrl) for i in range(2, 20): listUrl = 'http://tech.163.com/special/it_2016_%02d/' % i getListPage(listUrl)
import requests from bs4 import BeautifulSoup res = requests.get('http://news.qq.com/') res.encoding = 'UTF-8' soup = BeautifulSoup(res.text, 'html.parser') # 取出h1標籤的文本 for h1 in soup.find_all('h1'): print(h1.text) # 取出a標籤的連接 for a in soup.find_all('a'): print(a.attrs.get('href')) # 取出全部li標籤的全部內容 for li in soup.find_all('li'): print(li.contents) # 取出第2個li標籤的a標籤的第3個div標籤的屬性 print(soup.find_all('li')[1].a.find_all('div')[2].attrs) # 取出一條新聞的標題、連接、發佈時間、來源 print(soup.select('div .news-list-title')[0].text) print(soup.select('div .news-list-thumb')[0].parent.attrs.get('href')) print(soup.select('div .news-list-info > span')[0].text) print(soup.select('div .news-list-info > span')[1].text)
從文件讀取待分析文本。
news = open('gzccnews.txt','r',encoding = 'utf-8')
安裝與使用jieba進行中文分詞。
pip install jieba
import jieba
list(jieba.lcut(news))
生成詞頻統計
排序
排除語法型詞彙,代詞、冠詞、連詞
輸出詞頻最大TOP20
import jieba fo=open('test.txt','r',encoding='utf-8') text=fo.read() textlist=list(jieba.lcut(text)) Dworlds=[',','也','。','若','亦','宜','、','之','於','「','」',':','曰',';','\u3000' ,'\n','了','與','中','有','而','人','不','我','在','來','!','遂','?','爲','又','被','皆','問','至','言','衆','吾','等','見','將'] textdic={} for t in textlist: textdic[t]=textdic.get(t,0)+1 for i in Dworlds: if i in textdic: del textdic[i] newtext=sorted(textdic.items(),key=lambda x:x[1],reverse=True) for i in range(20): print(newtext[i])
運行截圖:
請按要求上機實踐以下linux基本命令。
cd命令:切換目錄
(1)切換到目錄 /usr/local
cd /usr/local
(2)去到目前的上層目錄
cd ..
(3)回到本身的主文件夾
cd ~
ls命令:查看文件與目錄
(4)查看目錄/usr下全部的文件
ls /usr
mkdir命令:新建新目錄
(5)進入/tmp目錄,建立一個名爲a的目錄,並查看有多少目錄存在
cd /tmp
mkdir a
ls -l
(6)建立目錄a1/a2/a3/a4
mkdir -p a1/a2/a3/a4
rmdir命令:刪除空的目錄
(7)將上例建立的目錄a(/tmp下面)刪除
rmdir a
(8)刪除目錄a1/a2/a3/a4,查看有多少目錄存在
rmdir -p a1/a2/a3/a4
ls -l
cp命令:複製文件或目錄
(9)將主文件夾下的.bashrc複製到/usr下,命名爲bashrc1
sudo cp ~./bashrc /tmp/banshrc1
(10)在/tmp下新建目錄test,再複製這個目錄內容到/usr
sudo cp -r /tmp/test /usr/test
mv命令:移動文件與目錄,或改名
(11)將上例文件bashrc1移動到目錄/usr/test
sudo mv bashrc1 /usr/test
(12)將上例test目錄重命名爲test2
sudo mv test test2
rm命令:移除文件或目錄
(13)將上例複製的bashrc1文件刪除
sudo rm -f bashrc1
(14)將上例的test2目錄刪除
u
cat命令:查看文件內容
(15)查看主文件夾下的.bashrc文件內容
cat .bashrc
tac命令:反向列示
(16)反向查看主文件夾下.bashrc文件內容
tac .bashrc
more命令:一頁一頁翻動查看
(17)翻頁查看主文件夾下.bashrc文件內容
more .bashrc
head命令:取出前面幾行
(18)查看主文件夾下.bashrc文件內容前20行
head -n 20 .bashrc
(19)查看主文件夾下.bashrc文件內容,後面50行不顯示,只顯示前面幾行
head -n 46 .bashrc
tail命令:取出後面幾行
(20)查看主文件夾下.bashrc文件內容最後20行
tail -n 20 .bashrc
(21) 查看主文件夾下.bashrc文件內容,只列出50行之後的數據
tail -n 51 .bashrc
touch命令:修改文件時間或建立新文件
(22)在/tmp下建立一個空文件hello並查看時間
cd /tmp
touch hello
(23)修改hello文件,將日期調整爲5天前
touch -d "5 days ago" hello
或者 touch -t "03091204" hello //3月9號12:04
([[CC]YY]MMDDhhmm[.ss])格式
CC 指定年份的前兩位數字。
YY 指定年份的後兩位數字。
MM 指定一年的哪一月, 1-12。
DD 指定一年的哪一天, 1-31。
hh 指定一天中的哪個小時, 0-23。
mm 指定一小時的哪一分鐘, 0-59。
chown命令:修改文件全部者權限
(24)將hello文件全部者改成root賬號,並查看屬性
sudo chown root hello
ls -l
find命令:文件查找
(25)找出主文件夾下文件名爲.bashrc的文件
fing ~ -name .bashrc
tar命令:壓縮命令
(26)在/目錄下新建文件夾test,而後在/目錄下打包成test.tar.gz
sudo tar -cvf test.ter.gz test
(27)解壓縮到/tmp目錄
sudo tar -xzvf test,tar.gz
grep命令:查找字符串
(28)從~/.bashrc文件中查找字符串'examples'
grep examples ~/.bashrc
(29)配置Java環境變量,在~/.bashrc中設置
(30)查看JAVA_HOME變量的值
gedit ~/.bashrc 在文件中加入Java路徑(export JAVA_HOME=/usr/lib/jvm/default-java)
source ~/.bashrc
echo $JAVA_HOME