python--multiprocessing多進程總結

  因爲GIL的存在,python中的多線程其實並非真正的多線程,若是想要充分地使用多核CPU的資源,在python中大部分狀況須要使用多進程。Python提供了很是好用的多進程包multiprocessing,只須要定義一個函數,Python會完成其餘全部事情。藉助這個包,能夠輕鬆完成從單進程到併發執行的轉換。multiprocessing支持子進程、通訊和共享數據、執行不一樣形式的同步,提供了Process、Queue、Pipe、Lock等組件。python

  multiprocessing包是Python中的多進程管理包。與threading.Thread相似,它能夠利用multiprocessing.Process對象來建立一個進程。該進程能夠運行在Python程序內部編寫的函數。該Process對象與Thread對象的用法相同,也有start(), run(), join()的方法。此外multiprocessing包中也有Lock/Event/Semaphore/Condition類 (這些對象能夠像多線程那樣,經過參數傳遞給各個進程),用以同步進程,其用法與threading包中的同名類一致。因此,multiprocessing的很大一部份與threading使用同一套API,只不過換到了多進程的情境。多線程

但在使用這些共享API的時候,咱們要注意如下幾點:併發

  • 在UNIX平臺上,當某個進程終結以後,該進程須要被其父進程調用wait,不然進程成爲殭屍進程(Zombie)。因此,有必要對每一個Process對象調用join()方法 (實際上等同於wait)。對於多線程來講,因爲只有一個進程,因此不存在此必要性。
  • multiprocessing提供了threading包中沒有的IPC(好比Pipe和Queue),效率上更高。應優先考慮Pipe和Queue,避免使用Lock/Event/Semaphore/Condition等同步方式 (由於它們佔據的不是用戶進程的資源)。
  • 多進程應該避免共享資源。在多線程中,咱們能夠比較容易地共享資源,好比使用全局變量或者傳遞參數。在多進程狀況下,因爲每一個進程有本身獨立的內存空間,以上方法並不合適。此時咱們能夠經過共享內存和Manager的方法來共享資源。但這樣作提升了程序的複雜度,並由於同步的須要而下降了程序的效率。

Process.PID中保存有PID,若是進程尚未start(),則PID爲None。app

window系統下,須要注意的是要想啓動一個子進程,必須加上那句if __name__ == "main",進程相關的要寫在這句下面。異步

 

簡單建立多進程:

有兩種使用方法,直接傳入要運行的方法或從Process繼承並覆蓋run():async

from multiprocessing import Process
import threading
import time


def foo(i):
    print 'say hi', i

if __name__ == '__main__':
    for i in range(10):
        p = Process(target=foo, args=(i,))
        p.start()
方法一
say hi 4
say hi 3
say hi 5
say hi 2
say hi 1
say hi 6
say hi 0
say hi 7
say hi 8
say hi 9

Process finished with exit code 0
能夠看出多個進程隨機順序執行
運行結果

 

from multiprocessing import Process
import time
class MyProcess(Process):
    def __init__(self, arg):
        super(MyProcess, self).__init__()
        self.arg = arg

    def run(self):
        print 'say hi', self.arg
        time.sleep(1)
    
if __name__ == '__main__':

    for i in range(10):
        p = MyProcess(i)
        p.start()
方法二

 

Process類


 

構造方法:ide

Process([group [, target [, name [, args [, kwargs]]]]])函數

  group: 線程組,目前尚未實現,庫引用中提示必須是None; 
  target: 要執行的方法; 
  name: 進程名; 
  args/kwargs: 要傳入方法的參數。ui

實例方法:spa

  is_alive():返回進程是否在運行。

  join([timeout]):阻塞當前上下文環境的進程程,直到調用此方法的進程終止或到達指定的timeout(可選參數)。

  start():進程準備就緒,等待CPU調度

  run():strat()調用run方法,若是實例進程時未制定傳入target,這star執行t默認run()方法。

  terminate():無論任務是否完成,當即中止工做進程

屬性:

  authkey

  daemon:和線程的setDeamon功能同樣

  exitcode(進程在運行時爲None、若是爲–N,表示被信號N結束)

  name:進程名字。

  pid:進程號。

 

例子一:

from multiprocessing import Process
import threading
import time
  
def foo(i):
    print 'say hi',i
  
for i in range(10):
    p = Process(target=foo,args=(i,))
    p.start()
建立進程
say hi 0
say hi 3
say hi 6
say hi 1
say hi 8
say hi 2
say hi 5
say hi 4
say hi 7
say hi 9

Process finished with exit code 0
運行結果

例子二:

def foo(i):
    time.sleep(1)
    print 'say hi', i
    time.sleep(1)



if __name__ == '__main__':
    p_list=[]
    for i in range(10):
        p = Process(target=foo, args=(i,))
        p.daemon=True
        p_list.append(p)

    for p in p_list:
        p.start()
    for p in p_list:
        p.join()

    print 'main process end'
View Code
say hi 1
say hi 2
say hi 5
say hi 6
say hi 7
say hi 0
say hi 4
say hi 3
say hi 8
say hi 9
main process end

Process finished with exit code 0
運行結果

能夠看出join()方法和deamon屬性的用法和多線程的基本一致。

 

Pool類


  

  進程池內部維護一個進程序列,當使用時,則去進程池中獲取一個進程,若是進程池序列中沒有可供使用的進進程,那麼程序就會等待,直到進程池中有可用進程爲止。進程池設置最好等於CPU核心數量

構造方法:

Pool([processes[, initializer[, initargs[, maxtasksperchild[, context]]]]])

processes :使用的工做進程的數量,若是processes是None那麼使用 os.cpu_count()返回的數量。
initializer: 若是initializer是None,那麼每個工做進程在開始的時候會調用initializer(*initargs)。
maxtasksperchild:工做進程退出以前能夠完成的任務數,完成後用一個新的工做進程來替代原進程,來讓閒置的資源被釋放。maxtasksperchild默認是None,意味着只要Pool存在工做進程就會一直存活。
context: 用在制定工做進程啓動時的上下文,通常使用 multiprocessing.Pool() 或者一個context對象的Pool()方法來建立一個池,兩種方法都適當的設置了context

 

實例方法:

  apply(func[, args[, kwds]]):同步進程池

  apply_async(func[, args[, kwds[, callback[, error_callback]]]]) :異步進程池

  close() : 關閉進程池,阻止更多的任務提交到pool,待任務完成後,工做進程會退出。

  terminate() : 結束工做進程,不在處理未完成的任務

  join() : wait工做線程的退出,在調用join()前,必須調用close() or terminate()。這樣是由於被終止的進程須要被父進程調用wait(join等價與wait),不然進程會成爲殭屍進程。pool.join()必須使用在

 

例子一(異步進程池):

pool.close()或者pool.terminate()以後。其中close()跟terminate()的區別在於close()會等待池中的worker進程執行結束再關閉pool,而terminate()則是直接關閉。

# coding:utf-8
from  multiprocessing import Pool
import time


def Foo(i):
    time.sleep(2)
    return i + 100

def Bar(arg):
    print arg

if __name__ == '__main__':
    t_start=time.time()
    pool = Pool(5)

    for i in range(10):
        pool.apply_async(func=Foo, args=(i,), callback=Bar)#維持執行的進程總數爲processes,當一個進程執行完畢後會添加新的進程進去

    pool.close()
    pool.join()  # 進程池中進程執行完畢後再關閉,若是註釋,那麼程序直接關閉。
    pool.terminate()
    t_end=time.time()
    t=t_end-t_start
    print 'the program time is :%s' %t
異步進程池
101
100
102
103
104
106
105
107
108
109
the program time is :4.22099995613

Process finished with exit code 0
運行結果

例子二(同步進程池):

#!/usr/bin/env python
# -*- coding:utf-8 -*-
from  multiprocessing import Process, Pool
import time


def Foo(i):
    time.sleep(1)
    print i + 100


if __name__ == '__main__':
    t_start=time.time()
    pool = Pool(5)

    for i in range(10):
        pool.apply(Foo, (i,))

    pool.close()
    pool.join()  # 進程池中進程執行完畢後再關閉,若是註釋,那麼程序直接關閉。
    t_end=time.time()
    t=t_end-t_start
    print 'the program time is :%s' %t
同步進程池
100
101
102
103
104
105
106
107
108
109
the program time is :10.2409999371

Process finished with exit code 0
能夠看出進程同步順序執行了,效率下降
運行結果

例子三:異步進程池使用get()方法得到進程執行結果值(錯誤使用get()方法獲取結果)

def Bar(arg):
    return arg

if __name__ == '__main__':
    t_start=time.time()
    pool = Pool(5)

    for i in range(10):
        res = pool.apply_async(func=Foo, args=(i,), callback=Bar)#維持執行的進程總數爲processes,當一個進程執行完畢後會添加新的進程進去
        print res.get()

    pool.close()
    pool.join()  # 進程池中進程執行完畢後再關閉,若是註釋,那麼程序直接關閉。
    pool.terminate()
    t_end=time.time()
    t=t_end-t_start
    print 'the program time is :%s' %t
錯誤使用get()使得異步變同步
100
101
102
103
104
105
106
107
108
109
the program time is :20.2850000858

Process finished with exit code 0
能夠看出因爲每一個進程的get()方法,程序變成同步執行了
運行結果

例子四(正確使用get()方法獲取結果)

# coding:utf-8
from  multiprocessing import Pool
import time


def Foo(i):
    time.sleep(2)
    return i + 100

def Bar(arg):
    return arg

if __name__ == '__main__':
    res_list=[]
    t_start=time.time()
    pool = Pool(5)

    for i in range(10):
        res = pool.apply_async(func=Foo, args=(i,), callback=Bar)
        res_list.append(res)

    pool.close()
    pool.join()
    for res in res_list:
        print res.get()
    t_end=time.time()
    t=t_end-t_start
    print 'the program time is :%s' %t
正確使用get()方法
100
101
102
103
104
105
106
107
108
109
the program time is :4.22399997711

Process finished with exit code 0
View Code

 

進程數據共享


 

進程各自持有一份數據,默認沒法共享數據

#!/usr/bin/env python
# coding:utf-8

from multiprocessing import Process
li = []

def foo(i):
    li.append(i)
    print 'say hi', li
if __name__ == '__main__':

    for i in range(10):
        p = Process(target=foo, args=(i,))
        p.start()

    print 'ending', li

#指望輸出[0到10的隨機排列的列表]
進程間沒法共享內存數據
say hi [1]
say hi [0]
say hi [2]
say hi [3]
say hi [4]
say hi [5]
ending []
say hi [6]
say hi [7]
say hi [8]
say hi [9]

Process finished with exit code 0
運行結果

方法一(使用Array):

Array(‘i’, range(10))中的‘i’參數C語言中的類型:

‘c’: ctypes.c_char     ‘u’: ctypes.c_wchar    ‘b’: ctypes.c_byte     ‘B’: ctypes.c_ubyte
‘h’: ctypes.c_short     ‘H’: ctypes.c_ushort    ‘i’: ctypes.c_int      ‘I’: ctypes.c_uint
‘l’: ctypes.c_long,    ‘L’: ctypes.c_ulong    ‘f’: ctypes.c_float    ‘d’: ctypes.c_double

 

from multiprocessing import Process, Array

def f(a):
    for i in range(len(a)):
        a[i] = -a[i]

if __name__ == '__main__':
    arr = Array('i', range(10))
    p = Process(target=f, args=(arr,))
    p.start()
    p.join()

    print(arr[:])
Array共享數據
[0, -1, -2, -3, -4, -5, -6, -7, -8, -9]
運行結果

方法二(使用Manager):

Manager()返回的manager提供list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore, Condition, Event, Barrier, Queue, Value and Array類型的支持。

from multiprocessing import Process, Manager


def f(d, l):
    d[1] = '1'
    d['2'] = 2
    d[0.25] = None
    l.reverse()


if __name__ == '__main__':
    with Manager() as manager:
        d = manager.dict()
        l = manager.list(range(10))

        p = Process(target=f, args=(d, l))
        p.start()
        p.join()

        print(d)
        print(l)
使用manager的dict和list
{0.25: None, 1: '1', '2': 2}
[9, 8, 7, 6, 5, 4, 3, 2, 1, 0]

Process finished with exit code 0
運行結果
相關文章
相關標籤/搜索