溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

python頻繁寫(xiě)入文件如何提速

發(fā)布時(shí)間:2020-09-22 14:18:04 來(lái)源:億速云 閱讀:208 作者:小新 欄目:編程語(yǔ)言

python頻繁寫(xiě)入文件如何提速?這個(gè)問(wèn)題可能是我們?nèi)粘W(xué)習(xí)或工作經(jīng)常見(jiàn)到的。希望通過(guò)這個(gè)問(wèn)題能讓你收獲頗深。下面是小編給大家?guī)?lái)的參考內(nèi)容,讓我們一起來(lái)看看吧!

問(wèn)題背景:有一批需要處理的文件,對(duì)于每一個(gè)文件,都需要調(diào)用同一個(gè)函數(shù)進(jìn)行處理,相當(dāng)耗時(shí)。

有沒(méi)有加速的辦法呢?當(dāng)然有啦,比如說(shuō)你將這些文件分成若干批,每一個(gè)批次都調(diào)用自己寫(xiě)的python腳本進(jìn)行處理,這樣同時(shí)運(yùn)行若干個(gè)python程序也可以進(jìn)行加速。

有沒(méi)有更簡(jiǎn)單的方法呢?比如說(shuō),我一個(gè)運(yùn)行的一個(gè)程序里面,同時(shí)分為多個(gè)線程,然后進(jìn)行處理?

大概思路:將這些個(gè)文件路徑的list,分成若干個(gè),至于分成多少,要看自己cpu核心有多少,比如你的cpu有32核的,理論上就可以加速32倍。

代碼如下:

# -*-coding:utf-8-*-
import numpy as np
from glob import glob
import math
import os
import torch
from tqdm import tqdm
import multiprocessing
label_path = '/home/ying/data/shiyongjie/distortion_datasets/new_distortion_dataset/train/label.txt'
file_path = '/home/ying/data/shiyongjie/distortion_datasets/new_distortion_dataset/train/distortion_image'
save_path = '/home/ying/data/shiyongjie/distortion_datasets/new_distortion_dataset/train/flow_field'
r_d_max = 128
image_index = 0
txt_file = open(label_path)
file_list = txt_file.readlines()
txt_file.close()
file_label = {}
for i in file_list:
    i = i.split()
    file_label[i[0]] = i[1]
r_d_max = 128
eps = 1e-32
H = 256
W = 256
def generate_flow_field(image_list):
    for image_file_path in ((image_list)):
        pixel_flow = np.zeros(shape=tuple([256, 256, 2]))  # 按照pytorch中的grid來(lái)寫(xiě)
        image_file_name = os.path.basename(image_file_path)
        # print(image_file_name)
        k = float(file_label[image_file_name])*(-1)*1e-7
        # print(k)
        r_u_max = r_d_max/(1+k*r_d_max**2)  # 計(jì)算出畸變校正之后的對(duì)角線的理論長(zhǎng)度
        scale = r_u_max/128  # 將這個(gè)長(zhǎng)度壓縮到256的尺寸,會(huì)有一個(gè)scale,實(shí)際上這里寫(xiě)128*sqrt(2)可能會(huì)更加直觀
        for i_u in range(256):
            for j_u in range(256):
                x_u = float(i_u - 128)
                y_u = float(128 - j_u)
                theta = math.atan2(y_u, x_u)
                r = math.sqrt(x_u ** 2 + y_u ** 2)
                r = r * scale  # 實(shí)際上得到的r,即沒(méi)有resize到256×256的圖像尺寸size,并且?guī)牍街?
                r_d = (1.0 - math.sqrt(1 - 4.0 * k * r ** 2)) / (2 * k * r + eps)  # 對(duì)應(yīng)在原圖(畸變圖)中的r
                x_d = int(round(r_d * math.cos(theta)))
                y_d = int(round(r_d * math.sin(theta)))
                i_d = int(x_d + W / 2.0)
                j_d = int(H / 2.0 - y_d)
                if i_d < W and i_d >= 0 and j_d < H and j_d >= 0:  # 只有求的的畸變點(diǎn)在原圖中的時(shí)候才進(jìn)行賦值
                    value1 = (i_d - 128.0)/128.0
                    value2 = (j_d - 128.0)/128.0
                    pixel_flow[j_u, i_u, 0] = value1  # mesh中存儲(chǔ)的是對(duì)應(yīng)的r的比值,在進(jìn)行畸變校正的時(shí)候,給定一張這樣的圖,進(jìn)行找像素即可
                    pixel_flow[j_u, i_u, 1] = value2
# 保存成array格式
        saved_image_file_path = os.path.join(save_path, image_file_name.split('.')[0] + '.npy')
        pixel_flow = pixel_flow.astype('f2')  # 將數(shù)據(jù)的格式轉(zhuǎn)換成float16類型, 節(jié)省空間
        # print(saved_image_file_path)
        # print(pixel_flow)
        np.save(saved_image_file_path, pixel_flow)
    return
if __name__ == '__main__':
    file_list = glob(file_path + '/*.JPEG')
    m = 32
    n = int(math.ceil(len(file_list) / float(m)))  # 向上取整
    result = []
    pool = multiprocessing.Pool(processes=m)  # 32進(jìn)程
    for i in range(0, len(file_list), n):
        result.append(pool.apply_async(generate_flow_field, (file_list[i: i+n],)))
    pool.close()
    pool.join()

在上面的代碼中,函數(shù)

generate_flow_field(image_list)

需要傳入一個(gè)list,然后對(duì)于這個(gè)list進(jìn)行操作,之后對(duì)操作的結(jié)果進(jìn)行保存

所以,只需要將你需要處理的多個(gè)文件,切分成盡量等大小的list,然后再對(duì)每一個(gè)list,開(kāi)一個(gè)線程進(jìn)行處理即可

上面的主函數(shù):

if __name__ == '__main__':
    file_list = glob(file_path + '/*.JPEG')  # 將文件夾下所有的JPEG文件列成一個(gè)list
    m = 32  # 假設(shè)CPU有32個(gè)核心
    n = int(math.ceil(len(file_list) / float(m)))  # 每一個(gè)核心需要處理的list的數(shù)目
    result = []
    pool = multiprocessing.Pool(processes=m)  # 開(kāi)32線程的線程池
    for i in range(0, len(file_list), n):
        result.append(pool.apply_async(generate_flow_field, (file_list[i: i+n],)))  # 對(duì)每一個(gè)list都用上面我們定義的函數(shù)進(jìn)行處理
    pool.close()  # 處理結(jié)束之后,關(guān)閉線程池
    pool.join()

主要是這樣的兩行代碼,一行是

pool = multiprocessing.Pool(processes=m)  # 開(kāi)32線程的線程池

用來(lái)開(kāi)辟線程池

另外一行是

result.append(pool.apply_async(generate_flow_field, (file_list[i: i+n],)))  # 對(duì)每一個(gè)list都用上面我們定義的函數(shù)進(jìn)行處理

對(duì)于線程池,用apply_async()同時(shí)跑generate_flow_field這個(gè)函數(shù),傳入的參數(shù)是:file_list[i: i+n]

實(shí)際上apply_async()這個(gè)函數(shù)的作用是所有的線程同時(shí)跑,速度是比較快的。

感謝各位的閱讀!看完上述內(nèi)容,你們對(duì)python頻繁寫(xiě)入文件如何提速大概了解了嗎?希望文章內(nèi)容對(duì)大家有所幫助。如果想了解更多相關(guān)文章內(nèi)容,歡迎關(guān)注億速云行業(yè)資訊頻道。

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI