如今來寫一個遠程執行命令的程序,一個socket client端在windows端發送指令,一個socket server端在Linux端執行命令並返回結果給客戶端。python
執行命令的話,確定是用subprocess模塊,但要注意:算法
res = subprocess.Popen(cmd.decode('utf-8'),shell=True,stderr=subprocess.PIPE,stdout=subprocess.PIPE)
命令結果的編碼是以當前所在的系統爲準的,若是是windows,那麼res.stdout.read()讀出的就是GBK編碼的,在接收端須要用GBK解碼,且只能從管道里讀一次結果。shell
ssh server編程
import socket import subprocess ip_port = ('127.0.0.1', 8080) tcp_socket_server = socket.socket(socket.AF_INET, socket.SOCK_STREAM) tcp_socket_server.bind(ip_port) tcp_socket_server.listen(5) while True: conn, addr = tcp_socket_server.accept() print('客戶端', addr) while True: cmd = conn.recv(1024) if len(cmd) == 0: break print("recv cmd",cmd) res = subprocess.Popen(cmd.decode('utf-8'), shell=True, stdout=subprocess.PIPE, stdin=subprocess.PIPE, stderr=subprocess.PIPE) stderr = res.stderr.read() stdout = res.stdout.read() print("res length",len(stdout)) conn.send(stderr) conn.send(stdout)
ssh clientjson
import socket ip_port = ('127.0.0.1', 8080) s = socket.socket(socket.AF_INET, socket.SOCK_STREAM) res = s.connect_ex(ip_port) while True: msg = input('>>: ').strip() if len(msg) == 0: continue if msg == 'quit': break s.send(msg.encode('utf-8')) act_res = s.recv(1024) print(act_res.decode('utf-8'), end='')
嘗試執行ls、pwd命令,你驚喜的發現,拿到了正確的結果!windows
but 莫開心太早,此時執行一個結果比較長的命令,好比top -bn 1, 你發現依然能夠拿到結果,但若是再執行一條df -h的話,就發現,你拿到並非df命令的結果,而是上一條top命令的部分結果。爲啥捏?服務器
這是由於,top命令的結果比較長,但客戶端只recv(1024), 可結果比1024長呀,那怎麼辦,只好在服務器端的IO緩衝區裏把客戶端還沒收走的暫時存下來,等客戶端下次再來收,因此當客戶端第2次調用recv(1024)就會首先把上次沒收完的數據先收下來,再收df命令的結果。網絡
那怎麼解決呢? 有些人可能會想到說,直接把recv(1024)改大不就行了,改爲5000\10000或whatever。but這麼幹的話,並不能解決實際問題,由於你不可能提早知道對方返回的結果數據大下,不管你改爲多大,對方的結果都有可能比你設置的大,另外這個recv並非真的能夠隨便改特別大的,有關部門建議的不要超過8192,再大反而會出現影響收發速度和不穩定的狀況。ssh
同志們,這個現象叫作粘包,就是指兩次結果粘到一塊兒了。它的發生主要是由於socket緩衝區致使的,來看一下。socket
你的程序實際上無權直接操做網卡,操做網卡都是經過操做系統給用戶程序暴露出來的接口,那每次你的程序要給遠程發數據時,實際上是先把數據從用戶態copy到內核態,這樣的操做是耗資源和時間的,頻繁地在內核態和用戶態之間交換數據勢必會致使發送效率下降,所以socket爲提升傳輸效率,發送方每每要收集到足夠多的數據後纔會發送一次數據給對方。若連續幾回須要send的數據都不多,一般TCP socket會根據優化算法把這些數據合成一個TCP段後一次發生出去,這樣接收方就收到了粘包數據。
粘包現象只存在於TCP中,Not UDP
仍是看上圖,發送端能夠是一K一K地發送數據,而接收端的應用程序能夠兩K兩K地提走數據,固然也有可能一次提走3K或6K數據,或者一次只提走幾個字節的數據,也就是說,應用程序所看到的數據是一個總體,或說是一個流(stream),一條消息有多少字節對應用程序是不可見的,所以TCP協議是面向流的協議,這也是容易出現粘包問題的緣由。而UDP是面向消息的協議,每一個UDP段都是一條消息,應用程序必須以消息爲單位提取數據,不能一次提取任意字節的數據,這一點和TCP是很不一樣的。怎樣定義消息呢?能夠認爲對方一次性write/send的數據爲一個消息,須要明白的是當對方send一條信息的時候,不管底層怎樣分段分片,TCP協議層會把構成整條消息的數據段排序完成後才呈如今內核緩衝區。
例如基於tcp的套接字客戶端往服務端上傳文件,發送時文件內容是按照一段一段的字節流發送的,在接收方看了,根本不知道該文件的字節流從何處開始,在何處結束。
所謂粘包問題主要仍是由於接收方不知道消息之間的界限,不知道一次性提取多少字節的數據所形成的。
總結
一、TCP(transport control protocol,傳輸控制協議)是面向鏈接的,面向流的,提供高可靠性服務。收發兩端(客戶端和服務器端)都要有一一成對的socket,所以,發送端爲了將多個發往接收端的包,更有效的發到對方,使用了優化方法(Nagle算法),將屢次間隔較小且數據量小的數據,合併成一個大的數據塊,而後進行封包。這樣,接收端,就難於分辨出來了,必須提供科學的拆包機制。 即面向流的通訊是無消息保護邊界的。
二、UDP(user datagram protocol,用戶數據報協議)是無鏈接的,面向消息的,提供高效率服務。不會使用塊的合併優化算法,, 因爲UDP支持的是一對多的模式,因此接收端的skbuff(套接字緩衝區)採用了鏈式結構來記錄每個到達的UDP包,在每一個UDP包中就有了消息頭(消息來源地址,端口等信息),這樣,對於接收端來講,就容易進行區分處理了。 即面向消息的通訊是有消息保護邊界的。
三、tcp是基於數據流的,因而收發的消息不能爲空,這就須要在客戶端和服務端都添加空消息的處理機制,防止程序卡住,而udp是基於數據報的,即使是你輸入的是空內容(直接回車),那也不是空消息,udp協議會幫你封裝上消息頭。
上面說了,udp不存在粘包問題,咱們看一下實例
udp server
import socket import subprocess ip_port = ('127.0.0.1', 9003) bufsize = 1024 udp_server = socket.socket(socket.AF_INET, socket.SOCK_DGRAM) udp_server.bind(ip_port) while True: # 收消息 cmd, addr = udp_server.recvfrom(bufsize) print('用戶命令----->', cmd,addr) # 邏輯處理 res = subprocess.Popen(cmd.decode('utf-8'), shell=True, stderr=subprocess.PIPE, stdin=subprocess.PIPE, stdout=subprocess.PIPE) stderr = res.stderr.read() stdout = res.stdout.read() # 發消息 udp_server.sendto(stdout + stderr, addr) udp_server.close()
udp client
from socket import * import time ip_port = ('127.0.0.1', 9003) bufsize = 1024 udp_client = socket(AF_INET, SOCK_DGRAM) while True: msg = input('>>: ').strip() if len(msg) == 0: continue udp_client.sendto(msg.encode('utf-8'), ip_port) data, addr = udp_client.recvfrom(bufsize) print(data.decode('utf-8'), end='')
問題的根源在於,接收端不知道發送端將要傳送的字節流的長度,因此解決粘包的方法就是圍繞,如何讓發送端在發送數據前,把本身將要發送的字節流總大小讓接收端知曉,而後接收端來一個死循環接收完全部數據。
一、普通青年版
server端
import socket,subprocess ip_port=('127.0.0.1',8080) s=socket.socket(socket.AF_INET,socket.SOCK_STREAM) s.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1) s.bind(ip_port) s.listen(5) while True: conn,addr=s.accept() print('客戶端',addr) while True: msg=conn.recv(1024) if not msg:break res=subprocess.Popen(msg.decode('utf-8'),shell=True, stdin=subprocess.PIPE, stderr=subprocess.PIPE, stdout=subprocess.PIPE) err=res.stderr.read() if err: ret=err else: ret=res.stdout.read() data_length=len(ret) conn.send(str(data_length).encode('utf-8')) data=conn.recv(1024).decode('utf-8') if data == 'recv_ready': conn.sendall(ret) conn.close()
client端
import socket,time s=socket.socket(socket.AF_INET,socket.SOCK_STREAM) res=s.connect_ex(('127.0.0.1',8080)) while True: msg=input('>>: ').strip() if len(msg) == 0:continue if msg == 'quit':break s.send(msg.encode('utf-8')) length=int(s.recv(1024).decode('utf-8')) s.send('recv_ready'.encode('utf-8')) send_size=0 recv_size=0 data=b'' while recv_size < length: data+=s.recv(1024) recv_size+=len(data) #爲何不直接寫1024? print(data.decode('utf-8'))
爲什麼上面的代碼很low?程序的運行速度遠快於網絡傳輸速度,因此在發送一段字節前,先用send去發送該字節流長度,這種方式會放大網絡延遲帶來的性能損耗
剛纔上面 在發送消息以前需先發送消息長度給對端,還必需要等對端返回一個ready收消息的確認,不等到對端確認就直接發消息的話,仍是會產生粘包問題(承載消息長度的那條消息和消息自己粘在一塊兒)。 有沒有優化的好辦法麼?
二、文藝青年版(一)
思考一個問題,爲何不能在發送了消息長度(稱爲消息頭head吧)給對端後,馬上發消息內容(稱爲body吧),是由於怕head 和body 粘在一塊兒,因此經過等對端返回確認來把兩條消息中斷開。
可不能夠直接發head + body,但又能讓對端區分出哪一個是head,哪一個是body呢?
把head設置成定長的,這樣對端只要收消息時,先固定收定長的數據,head裏寫好,後面還有多少是屬於這條消息的數據,而後直接寫個循環收下來不就完了嘛!
但是、但是如何製做定長的消息頭呢?假設你有2條消息要發送,第一條消息長度是 3000個字節,第2條消息是200字節。若是消息頭只包含消息長度的話,那兩個消息的消息頭分別是
len(msg1) = 4000 = 4字節 len(msg2) = 200 = 3字節
你的服務端如何完整的收到這個消息頭呢?是recv(3)仍是recv(4)服務器端怎麼知道?用盡我全部知識,我只能想到拼接字符串的辦法了,打比方就是設置消息頭固定100字節長,不夠的拿空字符串去拼接。
server端
import socket,json import subprocess ip_port = ('127.0.0.1', 8080) tcp_socket_server = socket.socket(socket.AF_INET, socket.SOCK_STREAM) tcp_socket_server.setsockopt(socket.SOL_SOCKET,socket.SO_REUSEADDR,1) #一行代碼搞定,寫在bind以前 tcp_socket_server.bind(ip_port) tcp_socket_server.listen(5) def pack_msg_header(header,size): bytes_header = bytes(json.dumps(header),encoding="utf-8") fill_up_size = size - len(bytes_header) print("need to fill up ",fill_up_size) header['fill'] = header['fill'].zfill(fill_up_size) print("new header",header) bytes_new_header = bytes(bytes(json.dumps(header),encoding="utf-8")) return bytes_new_header while True: conn, addr = tcp_socket_server.accept() print('客戶端', addr) while True: cmd = conn.recv(1024) if len(cmd) == 0: break print("recv cmd",cmd) res = subprocess.Popen(cmd.decode('utf-8'), shell=True, stdout=subprocess.PIPE, stdin=subprocess.PIPE, stderr=subprocess.PIPE) stderr = res.stderr.read() stdout = res.stdout.read() print("res length",len(stdout)) msg_header = { 'length':len(stdout + stderr), 'fill':'' } packed_header = pack_msg_header(msg_header,100) print("packed header size",packed_header,len(packed_header)) conn.send(packed_header) conn.send(stdout + stderr)
client端
import socket import json ip_port = ('127.0.0.1', 8080) s = socket.socket(socket.AF_INET, socket.SOCK_STREAM) res = s.connect_ex(ip_port) while True: msg = input('>>: ').strip() if len(msg) == 0: continue if msg == 'quit': break s.send(msg.encode('utf-8')) response_msg_header = s.recv(100).decode("utf-8") response_msg_header_data = json.loads(response_msg_header) msg_size = response_msg_header_data['length'] res = s.recv(msg_size) print("received res size ",len(res)) print(res.decode('utf-8'), end='')
三、文藝青年版(二)
爲字節流加上自定義固定長度報頭也能夠藉助於第三方模塊struct,用法爲
import json,struct #假設經過客戶端上傳1T:1073741824000的文件a.txt #爲避免粘包,必須自定製報頭 header={'file_size':1073741824000,'file_name':'/a/b/c/d/e/a.txt','md5':'8f6fbf8347faa4924a76856701edb0f3'} #1T數據,文件路徑和md5值 #爲了該報頭能傳送,須要序列化而且轉爲bytes head_bytes=bytes(json.dumps(header),encoding='utf-8') #序列化並轉成bytes,用於傳輸 #爲了讓客戶端知道報頭的長度,用struck將報頭長度這個數字轉成固定長度:4個字節 head_len_bytes=struct.pack('i',len(head_bytes)) #這4個字節裏只包含了一個數字,該數字是報頭的長度 #客戶端開始發送 conn.send(head_len_bytes) #先發報頭的長度,4個bytes conn.send(head_bytes) #再發報頭的字節格式 conn.sendall(文件內容) #而後發真實內容的字節格式 #服務端開始接收 head_len_bytes=s.recv(4) #先收報頭4個bytes,獲得報頭長度的字節格式 x=struct.unpack('i',head_len_bytes)[0] #提取報頭的長度 head_bytes=s.recv(x) #按照報頭長度x,收取報頭的bytes格式 header=json.loads(json.dumps(header)) #提取報頭 #最後根據報頭的內容提取真實的數據,好比 real_data_len=s.recv(header['file_size']) s.recv(real_data_len)
使用struct模塊實現方法以下:
server端
import socket,struct,json import subprocess phone=socket.socket(socket.AF_INET,socket.SOCK_STREAM) phone.setsockopt(socket.SOL_SOCKET,socket.SO_REUSEADDR,1) #就是它,在bind前加 phone.bind(('127.0.0.1',8080)) phone.listen(5) while True: conn,addr=phone.accept() while True: cmd=conn.recv(1024) if not cmd:break print('cmd: %s' %cmd) res=subprocess.Popen(cmd.decode('utf-8'), shell=True, stdout=subprocess.PIPE, stderr=subprocess.PIPE) err=res.stderr.read() print(err) if err: back_msg=err else: back_msg=res.stdout.read() headers={'data_size':len(back_msg)} head_json=json.dumps(headers) head_json_bytes=bytes(head_json,encoding='utf-8') conn.send(struct.pack('i',len(head_json_bytes))) #先發報頭的長度 conn.send(head_json_bytes) #再發報頭 conn.sendall(back_msg) #在發真實的內容 conn.close()
client端
from socket import * import struct,json ip_port=('127.0.0.1',8080) client=socket(AF_INET,SOCK_STREAM) client.connect(ip_port) while True: cmd=input('>>: ') if not cmd:continue client.send(bytes(cmd,encoding='utf-8')) head=client.recv(4) #先收4個bytes,這裏4個bytes裏包含了報頭的長度 head_json_len=struct.unpack('i',head)[0] #解出報頭的長度 head_json=json.loads(client.recv(head_json_len).decode('utf-8')) #拿到報頭 data_len=head_json['data_size'] #取出報頭內包含的信息 #開始收數據 recv_size=0 recv_data=b'' while recv_size < data_len: recv_data+=client.recv(1024) recv_size=len(recv_data) print(recv_data.decode('utf-8')) #print(recv_data.decode('gbk')) #windows默認gbk編碼