Python使用Zero-Copy和Buffer Protocol實現高性能編程

不管你程序是作什麼的,它常常都須要處理大量的數據。這些數據大部分表現形式爲strings(字符串)。然而,當你對字符串大批量的拷貝,切片和修改操做時是至關低效的。爲何?python

讓咱們假設一個讀取二進制數據的大文件示例,而後將部分數據拷貝到另一個文件。要展現該程序所使用的內存,咱們使用memory_profiler,一個強大的Python包,讓咱們能夠一行一行觀察程序所使用的內存。程序員

@profile
def read_random():
    with open("/dev/urandom", "rb") as source:
        content = source.read(1024 * 10000)
        content_to_write = content[1024:]
    print(f"content length: {len(content)}, content to write length {len(content_to_write)}")
    with open("/dev/null", "wb") as target:
        target.write(content_to_write)


if __name__ == "__main__":
    read_random()

使用memory_profiler模塊來執行以上程序,輸出以下:數組

$ python -m memory_profiler example.py 
content length: 10240000, content to write length 10238976
Filename: example.py

Line #    Mem usage    Increment   Line Contents
================================================
     1   14.320 MiB   14.320 MiB   @profile
     2                             def read_random():
     3   14.320 MiB    0.000 MiB       with open("/dev/urandom", "rb") as source:
     4   24.117 MiB    9.797 MiB           content = source.read(1024 * 10000)
     5   33.914 MiB    9.797 MiB           content_to_write = content[1024:]
     6   33.914 MiB    0.000 MiB       print(f"content length: {len(content)}, content to write length {len(content_to_write)}")
     7   33.914 MiB    0.000 MiB       with open("/dev/null", "wb") as target:
     8   33.914 MiB    0.000 MiB           target.write(content_to_write)

咱們經過source.read/dev/unrandom加載了10 MB數據。Python須要大概須要分配10 MB內存來以字符串存儲這個數據。以後的content[1024:]指令越過開頭的一個單位的KB數據進行數據拷貝,也分配了大概10 MB。dom

這裏有趣的是在哪裏呢,也就是構建content_to_write時10 MB的程序內存增加。切片操做拷貝了除了開頭的一個單位的KB其餘全部的數據到一個新的字符串對象。socket

若是處理相似大量的字節數組對象操做那是簡直就是災難。若是你以前寫過C語言,在使用memcpy()須要注意點是:在內存使用以及整體性能來講,複製內存很慢。函數

然而,做爲C程序員的你,知道字符串其實就是由字符數組構成,你不非得經過拷貝也能只處理部分字符,經過使用基本的指針運算——只須要確保整個字符串是連續的內存區域。性能

在Python一樣提供了buffer protocol實現。buffer protocol定義在PEP 3118,描述了使用C語言API實現各類類型的支持,例如字符串。ui

當一個對象實現了該協議,你就可使用memoryview類構造一個memoryview對象引用原始內存對象。指針

>>> s = b"abcdefgh"
>>> view = memoryview(s)
>>> view[1]
98
>>> limited = view[1:3]
>>> limited
<memory at 0x7f6ff2df1108>
>>> bytes(view[1:3])
b'bc'

注意:98是字符b的ACSII碼code

在上面的例子中,在使用memoryview對象的切片操做,一樣返回一個memoryview對象。意味着它並無拷貝任何數據,而是經過引用部分數據實現的。

下面圖示解釋發生了什麼:

alt

所以,咱們能夠將以前的程序改造得更加高效。咱們須要使用memoryview對象來引用數據,而不是開闢一個新的字符串。

@profile
def read_random():
    with open("/dev/urandom", "rb") as source:
        content = source.read(1024 * 10000)
        content_to_write = memoryview(content)[1024:]
    print(f"content length: {len(content)}, content to write length {len(content_to_write)}")
    with open("/dev/null", "wb") as target:
        target.write(content_to_write)


if __name__ == "__main__":
    read_random()

咱們再一次使用memory profiler執行上面程序:

$ python -m memory_profiler example.py 
content length: 10240000, content to write length 10238976
Filename: example.py

Line #    Mem usage    Increment   Line Contents
================================================
     1   14.219 MiB   14.219 MiB   @profile
     2                             def read_random():
     3   14.219 MiB    0.000 MiB       with open("/dev/urandom", "rb") as source:
     4   24.016 MiB    9.797 MiB           content = source.read(1024 * 10000)
     5   24.016 MiB    0.000 MiB           content_to_write = memoryview(content)[1024:]
     6   24.016 MiB    0.000 MiB       print(f"content length: {len(content)}, content to write length {len(content_to_write)}")
     7   24.016 MiB    0.000 MiB       with open("/dev/null", "wb") as target:
     8   24.016 MiB    0.000 MiB           target.write(content_to_write)

在該程序中,source.read仍然分配了10 MB內存來讀取文件內容。然而,使用memoryview來引用部份內容時,並無額外在分配內存。

相比以前的版本,這裏節省了大概50%的內存開銷。

該技巧,在處理sockets通訊的時候極其有用。當經過socket發送數據時,全部的數據可能並無在一次調用就發送。

import socket
s = socket.socket(…)
s.connect(…)
# Build a bytes object with more than 100 millions times the letter `a`
data = b"a" * (1024 * 100000)
while data:
    sent = s.send(data)
    # Remove the first `sent` bytes sent
    data = data[sent:] <2>

使用以下實現,程序一次次拷貝直到全部的數據發出。經過使用memoryview,能夠實現zero-copy(零拷貝)方式來完成該工做,具備更高的性能:

import socket
s = socket.socket(…)
s.connect(…)
# Build a bytes object with more than 100 millions times the letter `a`
data = b"a" * (1024 * 100000)
mv = memoryview(data)
while mv:
    sent = s.send(mv)
    # Build a new memoryview object pointing to the data which remains to be sent
    mv = mv[sent:]

在這裏就不會發生任何拷貝,也不會在給data分配了100 MB內存以後再分配多餘的內存來進行屢次發送了。

目前,咱們經過使用memoryview對象實現高效數據寫入,但在某些狀況下讀取也一樣適用。在Python中大部分 I/O 操做已經實現了buffer protocol機制。在本例中,咱們並不須要memoryview對象,我能夠請求 I/O 函數寫入咱們預約義好的對象:

>>> ba = bytearray(8)
>>> ba
bytearray(b'\x00\x00\x00\x00\x00\x00\x00\x00')
>>> with open("/dev/urandom", "rb") as source:
...     source.readinto(ba)
... 
8
>>> ba
bytearray(b'`m.z\x8d\x0fp\xa1')

經過該機制,咱們能夠很簡單寫入到預約義的buffer中(在C語言中,你可能須要屢次調用malloc())。

適用memoryview,你甚至能夠將數據放入到內存區域任意點:

>>> ba = bytearray(8)
>>> # Reference the _bytearray_ from offset 4 to its end
>>> ba_at_4 = memoryview(ba)[4:]
>>> with open("/dev/urandom", "rb") as source:
... # Write the content of /dev/urandom from offset 4 to the end of the
... # bytearray, effectively reading 4 bytes only
...     source.readinto(ba_at_4)
... 
4
>>> ba
bytearray(b'\x00\x00\x00\x00\x0b\x19\xae\xb2')

buffer protocol是實現低內存開銷的基礎,具有很強的性能。雖然Python隱藏了全部的內存分配,開發者不須要關係內部是怎麼樣實現的。

能夠再去了解一下array模塊和struct模塊是如何處理buffer protocol的,zero copy操做是至關高效的。

相關文章
相關標籤/搜索