溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

如何分析Python多進程

發(fā)布時間:2022-01-06 12:49:15 來源:億速云 閱讀:160 作者:柒染 欄目:開發(fā)技術(shù)

這篇文章將為大家詳細講解有關(guān)如何分析Python多進程,文章內(nèi)容質(zhì)量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關(guān)知識有一定的了解。

1.Python多進程模塊

Python中的多進程是通過multiprocessing包來實現(xiàn)的,和多線程的threading.Thread差不多,它可以利用multiprocessing.Process對象來創(chuàng)建一個進程對象。這個進程對象的方法和線程對象的方法差不多也有start(), run(), join()等方法,其中有一個方法不同Thread線程對象中的守護線程方法是setDeamon,而Process進程對象的守護進程是通過設(shè)置daemon屬性來完成的。

下面說說Python多進程的實現(xiàn)方法,和多線程類似

2.Python多進程實現(xiàn)方法一

from multiprocessing import  Process

def fun1(name):
    print('測試%s多進程' %name)

if __name__ == '__main__':
    process_list = []
    for i in range(5):  #開啟5個子進程執(zhí)行fun1函數(shù)
        p = Process(target=fun1,args=('Python',)) #實例化進程對象
        p.start()
        process_list.append(p)

    for i in process_list:
        p.join()

    print('結(jié)束測試')

結(jié)果

測試Python多進程
測試Python多進程
測試Python多進程
測試Python多進程
測試Python多進程
結(jié)束測試
Process finished with exit code 0

上面的代碼開啟了5個子進程去執(zhí)行函數(shù),我們可以觀察結(jié)果,是同時打印的,這里實現(xiàn)了真正的并行操作,就是多個CPU同時執(zhí)行任務(wù)。我們知道進程是python中最小的資源分配單元,也就是進程中間的數(shù)據(jù),內(nèi)存是不共享的,每啟動一個進程,都要獨立分配資源和拷貝訪問的數(shù)據(jù),所以進程的啟動和銷毀的代價是比較大了,所以在實際中使用多進程,要根據(jù)服務(wù)器的配置來設(shè)定。

3.Python多進程實現(xiàn)方法二

還記得python多線程的第二種實現(xiàn)方法嗎?是通過類繼承的方法來實現(xiàn)的,python多進程的第二種實現(xiàn)方式也是一樣的

from multiprocessing import  Process

class MyProcess(Process): #繼承Process類
    def __init__(self,name):
        super(MyProcess,self).__init__()
        self.name = name

    def run(self):
        print('測試%s多進程' % self.name)


if __name__ == '__main__':
    process_list = []
    for i in range(5):  #開啟5個子進程執(zhí)行fun1函數(shù)
        p = MyProcess('Python') #實例化進程對象
        p.start()
        process_list.append(p)

    for i in process_list:
        p.join()

    print('結(jié)束測試')

結(jié)果

測試Python多進程
測試Python多進程
測試Python多進程
測試Python多進程
測試Python多進程
結(jié)束測試
Process finished with exit code 0

效果和第一種方式一樣。

我們可以看到Python多進程的實現(xiàn)方式和多線程的實現(xiàn)方式幾乎一樣。

Process類的其他方法

構(gòu)造方法:

Process([group [, target [, name [, args [, kwargs]]]]])

group: 線程組 

target: 要執(zhí)行的方法

name: 進程名

args/kwargs: 要傳入方法的參數(shù)

實例方法:

is_alive():返回進程是否在運行,bool類型。

join([timeout]):阻塞當(dāng)前上下文環(huán)境的進程程,直到調(diào)用此方法的進程終止或到達指定的timeout(可選參數(shù))。

start():進程準(zhǔn)備就緒,等待CPU調(diào)度

run():strat()調(diào)用run方法,如果實例進程時未制定傳入target,這star執(zhí)行t默認(rèn)run()方法。

terminate():不管任務(wù)是否完成,立即停止工作進程

屬性:

daemon:和線程的setDeamon功能一樣

name:進程名字

pid:進程號

關(guān)于join,daemon的使用和python多線程一樣,這里就不在復(fù)述了。

4.Python多線程的通信

進程是系統(tǒng)獨立調(diào)度核分配系統(tǒng)資源(CPU、內(nèi)存)的基本單位,進程之間是相互獨立的,每啟動一個新的進程相當(dāng)于把數(shù)據(jù)進行了一次克隆,子進程里的數(shù)據(jù)修改無法影響到主進程中的數(shù)據(jù),不同子進程之間的數(shù)據(jù)也不能共享,這是多進程在使用中與多線程最明顯的區(qū)別。但是難道Python多進程中間難道就是孤立的嗎?當(dāng)然不是,python也提供了多種方法實現(xiàn)了多進程中間的通信和數(shù)據(jù)共享(可以修改一份數(shù)據(jù))

進程對列Queue

Queue在多線程中也說到過,在生成者消費者模式中使用,是線程安全的,是生產(chǎn)者和消費者中間的數(shù)據(jù)管道,那在python多進程中,它其實就是進程之間的數(shù)據(jù)管道,實現(xiàn)進程通信。

from multiprocessing import Process,Queue


def fun1(q,i):
    print('子進程%s 開始put數(shù)據(jù)' %i)
    q.put('我是%s 通過Queue通信' %i)

if __name__ == '__main__':
    q = Queue()

    process_list = []
    for i in range(3):
        p = Process(target=fun1,args=(q,i,))  #注意args里面要把q對象傳給我們要執(zhí)行的方法,這樣子進程才能和主進程用Queue來通信
        p.start()
        process_list.append(p)

    for i in process_list:
        p.join()

    print('主進程獲取Queue數(shù)據(jù)')
    print(q.get())
    print(q.get())
    print(q.get())
    print('結(jié)束測試')

結(jié)果

子進程0 開始put數(shù)據(jù)
子進程1 開始put數(shù)據(jù)
子進程2 開始put數(shù)據(jù)
主進程獲取Queue數(shù)據(jù)
我是0 通過Queue通信
我是1 通過Queue通信
我是2 通過Queue通信
結(jié)束測試
Process finished with exit code 0

上面的代碼結(jié)果可以看到我們主進程中可以通過Queue獲取子進程中put的數(shù)據(jù),實現(xiàn)進程間的通信。

管道Pipe

管道Pipe和Queue的作用大致差不多,也是實現(xiàn)進程間的通信,下面之間看怎么使用吧

from multiprocessing import Process, Pipe
def fun1(conn):
    print('子進程發(fā)送消息:')
    conn.send('你好主進程')
    print('子進程接受消息:')
    print(conn.recv())
    conn.close()

if __name__ == '__main__':
    conn1, conn2 = Pipe() #關(guān)鍵點,pipe實例化生成一個雙向管
    p = Process(target=fun1, args=(conn2,)) #conn2傳給子進程
    p.start()
    print('主進程接受消息:')
    print(conn1.recv())
    print('主進程發(fā)送消息:')
    conn1.send("你好子進程")
    p.join()
    print('結(jié)束測試')

結(jié)果

主進程接受消息:
子進程發(fā)送消息:
子進程接受消息:
你好主進程
主進程發(fā)送消息:
你好子進程
結(jié)束測試
Process finished with exit code 0

上面可以看到主進程和子進程可以相互發(fā)送消息

Managers

Queue和Pipe只是實現(xiàn)了數(shù)據(jù)交互,并沒實現(xiàn)數(shù)據(jù)共享,即一個進程去更改另一個進程的數(shù)據(jù)。那么久要用到Managers

from multiprocessing import Process, Manager

def fun1(dic,lis,index):

    dic[index] = 'a'
    dic['2'] = 'b'    
    lis.append(index)    #[0,1,2,3,4,0,1,2,3,4,5,6,7,8,9]
    #print(l)

if __name__ == '__main__':
    with Manager() as manager:
        dic = manager.dict()#注意字典的聲明方式,不能直接通過{}來定義
        l = manager.list(range(5))#[0,1,2,3,4]

        process_list = []
        for i in range(10):
            p = Process(target=fun1, args=(dic,l,i))
            p.start()
            process_list.append(p)

        for res in process_list:
            res.join()
        print(dic)
        print(l)

結(jié)果:

{0: 'a', '2': 'b', 3: 'a', 1: 'a', 2: 'a', 4: 'a', 5: 'a', 7: 'a', 6: 'a', 8: 'a', 9: 'a'}
[0, 1, 2, 3, 4, 0, 3, 1, 2, 4, 5, 7, 6, 8, 9]

可以看到主進程定義了一個字典和一個列表,在子進程中,可以添加和修改字典的內(nèi)容,在列表中插入新的數(shù)據(jù),實現(xiàn)進程間的數(shù)據(jù)共享,即可以共同修改同一份數(shù)據(jù)

5.進程池

進程池內(nèi)部維護一個進程序列,當(dāng)使用時,則去進程池中獲取一個進程,如果進程池序列中沒有可供使用的進進程,那么程序就會等待,直到進程池中有可用進程為止。就是固定有幾個進程可以使用。

進程池中有兩個方法:

  • apply:同步,一般不使用

  • apply_async:異步

from  multiprocessing import Process,Pool
import os, time, random

def fun1(name):
    print('Run task %s (%s)...' % (name, os.getpid()))
    start = time.time()
    time.sleep(random.random() * 3)
    end = time.time()
    print('Task %s runs %0.2f seconds.' % (name, (end - start)))

if __name__=='__main__':
    pool = Pool(5) #創(chuàng)建一個5個進程的進程池

    for i in range(10):
        pool.apply_async(func=fun1, args=(i,))

    pool.close()
    pool.join()
    print('結(jié)束測試')

結(jié)果

Run task 0 (37476)...
Run task 1 (4044)...
Task 0 runs 0.03 seconds.
Run task 2 (37476)...
Run task 3 (17252)...
Run task 4 (16448)...
Run task 5 (24804)...
Task 2 runs 0.27 seconds.
Run task 6 (37476)...
Task 1 runs 0.58 seconds.
Run task 7 (4044)...
Task 3 runs 0.98 seconds.
Run task 8 (17252)...
Task 5 runs 1.13 seconds.
Run task 9 (24804)...
Task 6 runs 1.46 seconds.
Task 4 runs 2.73 seconds.
Task 8 runs 2.18 seconds.
Task 7 runs 2.93 seconds.
Task 9 runs 2.93 seconds.
結(jié)束測試

對Pool對象調(diào)用join()方法會等待所有子進程執(zhí)行完畢,調(diào)用join()之前必須先調(diào)用close(),調(diào)用close()之后就不能繼續(xù)添加新的Process了。

進程池map方法

案例來源于網(wǎng)絡(luò),侵權(quán)請告知,謝謝

因為網(wǎng)上看到這個例子覺得不錯,所以這里就不自己寫案例,這個案例比較有說服力

import os 
import PIL 

from multiprocessing import Pool 
from PIL import Image

SIZE = (75,75)
SAVE_DIRECTORY = \'thumbs\'

def get_image_paths(folder):
    return (os.path.join(folder, f) 
            for f in os.listdir(folder) 
            if \'jpeg\' in f)

def create_thumbnail(filename): 
    im = Image.open(filename)
    im.thumbnail(SIZE, Image.ANTIALIAS)
    base, fname = os.path.split(filename) 
    save_path = os.path.join(base, SAVE_DIRECTORY, fname)
    im.save(save_path)

if __name__ == \'__main__\':
    folder = os.path.abspath(
        \'11_18_2013_R000_IQM_Big_Sur_Mon__e10d1958e7b766c3e840\')
    os.mkdir(os.path.join(folder, SAVE_DIRECTORY))

    images = get_image_paths(folder)

    pool = Pool()
    pool.map(creat_thumbnail, images) #關(guān)鍵點,images是一個可迭代對象
    pool.close()
    pool.join()

上邊這段代碼的主要工作就是將遍歷傳入的文件夾中的圖片文件,一一生成縮略圖,并將這些縮略圖保存到特定文件夾中。這我的機器上,用這一程序處理 6000 張圖片需要花費 27.9 秒。 map 函數(shù)并不支持手動線程管理,反而使得相關(guān)的 debug 工作也變得異常簡單。

map在爬蟲的領(lǐng)域里也可以使用,比如多個URL的內(nèi)容爬取,可以把URL放入元祖里,然后傳給執(zhí)行函數(shù)。

關(guān)于如何分析Python多進程就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學(xué)到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI