模塊進階

Python有一套頗有用的標準庫(standard library)。標準庫會隨着Python解釋器,一塊兒安裝在你的電腦中的。 它是Python的一個組成部分。這些標準庫是Python爲你準備好的利器,能夠讓編程事半功倍。html

1、經常使用標準庫

標準庫 說明
builtins 內建函數默認加載
os 操做系統接口
sys Python自身的運行環境
functools 經常使用的工具
json 編碼和解碼 JSON 對象
logging 記錄日誌,調試
multiprocessing 多進程
threading 多線程
copy 拷貝
time 時間
datetime 日期和時間
calendar 日曆
hashlib 加密算法
random 生成隨機數
re 字符串正則匹配
socket 標準的 BSD Sockets API
shutil 文件和目錄管理
glob 基於文件通配符搜索

2、hashlib

import hashlib m = hashlib.md5() #建立hash對象,md5:(message-Digest Algorithm 5)消息摘要算法,得出一個128位的密文 print m #<md5 HASH object> m.update('itcast') #更新哈希對象以字符串參數 print m.hexdigest() #返回十六進制數字字符串 

3、應用實例

用於註冊、登陸....python

import hashlib import datetime KEY_VALUE = 'Itcast' now = datetime.datetime.now() m = hashlib.md5() str = '%s%s' % (KEY_VALUE,now.strftime("%Y%m%d")) m.update(str.encode('utf-8')) value = m.hexdigest() print(value) 

運行結果:mysql

8ad2d682e3529dac50e586fee8dc05c0

更多標準庫web

http://python.usyiyi.cn/translate/python_352/library/index.html

4、經常使用擴展庫

擴展庫 說明
requests 使用的是 urllib3,繼承了urllib2的全部特性
urllib 基於http的高層庫
scrapy 爬蟲
beautifulsoup4 HTML/XML的解析器
celery 分佈式任務調度模塊
redis 緩存
Pillow(PIL) 圖像處理
xlsxwriter 僅寫excle功能,支持xlsx
xlwt 僅寫excle功能,支持xls ,2013或更早版office
xlrd 僅讀excle功能
elasticsearch 全文搜索引擎
pymysql 數據庫鏈接庫
mongoengine/pymongo mongodbpython接口
matplotlib 畫圖
numpy/scipy 科學計算
django/tornado/flask web框架
xmltodict xml 轉 dict
SimpleHTTPServer 簡單地HTTP Server,不使用Web框架
gevent 基於協程的Python網絡庫
fabric 系統管理
pandas 數據處理庫
scikit-learn 機器學習庫

就能夠運行起來靜態服務。平時用它預覽和下載文件太方便了。redis

在終端中輸入命令:算法

python2中sql

python -m SimpleHTTPServer PORT

python3中mongodb

python -m http.server PORT

5、讀寫excel文件

5.1 安裝個easy_install工具

sudo apt-get install python-setuptools數據庫

5.2 安裝模塊

sudo easy_install xlrddjango

sudo easy_install xlwt

matplotlib

相關文章
相關標籤/搜索