在某些應用場合咱們可能須要經過一個設備經過WIFI將圖像傳到其它的機器進行顯示或者圖形分析,那怎麼能夠低成本地實現呢?其實很簡單,咱們只須要一塊 Raspberry Zero W 和一個RPI 攝像頭就好了,兩個加起來成本也只不過150左右。python
這個組合不僅僅只是實現一個圖傳,最重要的是Raspberry Zero上運行的是Linux,它幾乎能夠運行咱們各類各樣的代碼。將它做爲一個小型的編程平臺也何嘗不可。編程
因爲硬件部分太簡單了沒有必要浪費篇幅過多地講述,那就直接進入軟件部分。實現圖傳必然有兩端:發送端與接收端。網絡
發送端 - 運行於Raspberry Zero經過OpenCV直接讀取視頻流,而後將數據寫入到Socket中發送出去。若是實時傳遞的話可能會因爲網絡通訊等的各類緣由致使丟包,或者說因爲失去有效的網絡鏈接而引起程序的異常,爲了防止這種狀況出現我使用了pyzmq這個包,發送端也是消息的發佈方,將Socket的處理放到消息隊列中,當訂閱方從消息隊列中讀取信息時就從Socket中拿出排隊的數據,這樣處理起來就平滑多了。socket
接收端 - 可運行於全部能運行python環境的平臺,它只負責從Socket中讀取流數據而後經過OpenCV顯示到窗口中,也是消息的訂閱方。tcp
Python 中的Socket使用能夠說是在衆多語言中最簡單的,關於Socket的知識在此很少講,不懂的朋友能夠先去找些資料先學習一下。ide
發佈方與訂閱方都須要安裝pyzmq:性能
$ pip install pyzmq
若是在樹莓上安裝pyzmq會很是慢可能要等個10來20分鐘的,不要覺得你的樹莓掛了只是Raspberry Zero性能實在過低要進行本機編譯實在是一件很是痛苦之事。學習
Raspberry Zero 端的發佈方的代碼以下:ui
import base64 import cv2 import zmq context = zmq.Context() footage_socket = context.socket(zmq.PUB) footage_socket.connect('tcp://*:5555') camera = cv2.VideoCapture(0) while True: try: success, frame = camera.read() if not success: break; frame = cv2.resize(frame, (640, 480)) # 將每一幀的畫面大小設置爲640x480 encoded, buffer = cv2.imencode('.jpg', frame) jpg_as_text = base64.b64encode(buffer) footage_socket.send(jpg_as_text) except KeyboardInterrupt: camera.release() cv2.destroyAllWindows() break
原理很是簡單就是將每一幀的畫面先轉成base64的編碼格式以字符流的方式寫入到socket中傳出去。編碼
運行代碼:
pi $ python streamer.py
import cv2 import zmq import base64 import numpy as np context = zmq.Context() footage_socket = context.socket(zmq.SUB) footage_socket.bind('tcp://10.0.0.25:5555') # 這裏須要指定Steamer的發地址 footage_socket.setsockopt_string(zmq.SUBSCRIBE, np.unicode('')) while True: try: source = footage_socket.recv_string() img = base64.b64decode(source) npimg = np.fromstring(img, dtype=np.uint8) frame = cv2.imdecode(npimg, 1) frame = cv2.flip(frame, flipCode=-1) cv2.imshow("Stream", frame) cv2.waitKey(1) except KeyboardInterrupt: cv2.destroyAllWindows() break