您好,登錄后才能下訂單哦!
這篇文章主要介紹“Pandas如何批量拆分Excel與合并Excel”的相關(guān)知識(shí),小編通過(guò)實(shí)際案例向大家展示操作過(guò)程,操作方法簡(jiǎn)單快捷,實(shí)用性強(qiáng),希望這篇“Pandas如何批量拆分Excel與合并Excel”文章能幫助大家解決問(wèn)題。
1.將一個(gè)大Excel等份拆成多個(gè)Excel
2.將多個(gè)小Excel合并成一個(gè)大Excel并標(biāo)記來(lái)源
work_dir="./course_datas/c15_excel_split_merge"
splits_dir=f"{work_dir}/splits"
import os
if not os.path.exists(splits_dir):
os.mkdir(splits_dir)
import pandas as pd
df_source = pd.read_excel(f"{work_dir}/crazyant_blog_articles_source.xlsx")
df_source.head()
id title tags
0 2585 Tensorflow怎樣接收變長(zhǎng)列表特征 python,tensorflow,特征工程
1 2583 Pandas實(shí)現(xiàn)數(shù)據(jù)的合并concat pandas,python,數(shù)據(jù)分析
2 2574 Pandas的Index索引有什么用途? pandas,python,數(shù)據(jù)分析
3 2564 機(jī)器學(xué)習(xí)常用數(shù)據(jù)集大全 python,機(jī)器學(xué)習(xí)
4 2561 一個(gè)數(shù)據(jù)科學(xué)家的修煉路徑 數(shù)據(jù)分析
df_source.index
RangeIndex(start=0, stop=258, step=1)
df_source.shape
(258, 3)
total_row_count = df_source.shape[0]
total_row_count
258
1.使用df.iloc方法,將一個(gè)大的dataframe,拆分成多個(gè)小dataframe
2.將使用dataframe.to_excel保存每個(gè)小Excel
1、計(jì)算拆分后的每個(gè)excel的行數(shù)
# 這個(gè)大excel,會(huì)拆分給這幾個(gè)人
user_names = ["xiao_shuai", "xiao_wang", "xiao_ming", "xiao_lei", "xiao_bo", "xiao_hong"]
# 每個(gè)人的任務(wù)數(shù)目
split_size = total_row_count // len(user_names)
if total_row_count % len(user_names) != 0:
split_size += 1
split_size
43
2、拆分成多個(gè)dataframe
df_subs = []
for idx, user_name in enumerate(user_names):
# iloc的開(kāi)始索引
begin = idx*split_size
# iloc的結(jié)束索引
end = begin+split_size
# 實(shí)現(xiàn)df按照iloc拆分
df_sub = df_source.iloc[begin:end]
# 將每個(gè)子df存入列表
df_subs.append((idx, user_name, df_sub))
3、將每個(gè)datafame存入excel
for idx, user_name, df_sub in df_subs:
file_name = f"{splits_dir}/crazyant_blog_articles_{idx}_{user_name}.xlsx"
df_sub.to_excel(file_name, index=False)
1.遍歷文件夾,得到要合并的Excel文件列表
2.分別讀取到dataframe,給每個(gè)df添加一列用于標(biāo)記來(lái)源
3.使用pd.concat進(jìn)行df批量合并
4.將合并后的dataframe輸出到excel
1. 遍歷文件夾,得到要合并的Excel名稱列表
import os
excel_names = []
for excel_name in os.listdir(splits_dir):
excel_names.append(excel_name)
excel_names
['crazyant_blog_articles_0_xiao_shuai.xlsx',
'crazyant_blog_articles_1_xiao_wang.xlsx',
'crazyant_blog_articles_2_xiao_ming.xlsx',
'crazyant_blog_articles_3_xiao_lei.xlsx',
'crazyant_blog_articles_4_xiao_bo.xlsx',
'crazyant_blog_articles_5_xiao_hong.xlsx']
2. 分別讀取到dataframe
df_list = []
for excel_name in excel_names:
# 讀取每個(gè)excel到df
excel_path = f"{splits_dir}/{excel_name}"
df_split = pd.read_excel(excel_path)
# 得到username
username = excel_name.replace("crazyant_blog_articles_", "").replace(".xlsx", "")[2:]
print(excel_name, username)
# 給每個(gè)df添加1列,即用戶名字
df_split["username"] = username
df_list.append(df_split)
crazyant_blog_articles_0_xiao_shuai.xlsx xiao_shuai
crazyant_blog_articles_1_xiao_wang.xlsx xiao_wang
crazyant_blog_articles_2_xiao_ming.xlsx xiao_ming
crazyant_blog_articles_3_xiao_lei.xlsx xiao_lei
crazyant_blog_articles_4_xiao_bo.xlsx xiao_bo
crazyant_blog_articles_5_xiao_hong.xlsx xiao_hong
3. 使用pd.concat進(jìn)行合并
df_merged = pd.concat(df_list)
df_merged.shape
(258, 4)
df_merged.head()
id title tags username
0 2585 Tensorflow怎樣接收變長(zhǎng)列表特征 python,tensorflow,特征工程 xiao_shuai
1 2583 Pandas實(shí)現(xiàn)數(shù)據(jù)的合并concat pandas,python,數(shù)據(jù)分析 xiao_shuai
2 2574 Pandas的Index索引有什么用途? pandas,python,數(shù)據(jù)分析 xiao_shuai
3 2564 機(jī)器學(xué)習(xí)常用數(shù)據(jù)集大全 python,機(jī)器學(xué)習(xí) xiao_shuai
4 2561 一個(gè)數(shù)據(jù)科學(xué)家的修煉路徑 數(shù)據(jù)分析 xiao_shuai
df_merged["username"].value_counts()
xiao_hong 43
xiao_bo 43
xiao_shuai 43
xiao_lei 43
xiao_wang 43
xiao_ming 43
Name: username, dtype: int64
4. 將合并后的dataframe輸出到excel
df_merged.to_excel(f"{work_dir}/crazyant_blog_articles_merged.xlsx", index=False)
關(guān)于“Pandas如何批量拆分Excel與合并Excel”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識(shí),可以關(guān)注億速云行業(yè)資訊頻道,小編每天都會(huì)為大家更新不同的知識(shí)點(diǎn)。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。