Python对大量表格文件加以数据截取、逐行求差、跨文件合并等处理的方法

news/2025/2/21 8:54:05/

  本文介绍基于Python语言,针对一个文件夹下大量的Excel表格文件,基于其中每一个文件,首先依据某一列数据的特征截取我们需要的数据,随后对截取出来的数据逐行求差,并基于其他多个文件夹中同样大量的Excel表格文件,进行数据跨文件合并的具体方法。

  首先,我们来明确一下本文的具体需求。现有一个文件夹,其中有大量的Excel表格文件(在本文中我们就以.csv格式的文件为例),且每一个文件名称都表示该文件对应的数据源点的ID;如下图所示。

  其中,每一个Excel表格文件都有着如下图所示的数据格式;其中的第1列,是表示天数的时间数据,每一行数据之间的时间跨度是8天。

  我们希望实现的是,首先对于这个文件夹中的每一个文件,都截取出其中天数在2022001(也就是2022年第1天)及之后的部分;随后,对截取出来的数据的各列(除了第1列,因为第1列是表示时间的数据)加以逐行求差——例如,用2022009的数据减去2022001的数据,随后用2022017的数据减去2022009的数据,并将差值作为新的几列放在原有的几列后面;还有,我们还希望从当前文件的文件名、以及第1列的天数中,提取出一些关键信息,作为新的列放在后面(我这里是希望生产一个深度神经网络回归的训练数据,所以就需要组合各类的数据)。此外,我们还有2个文件夹,其中有着同样大量、同样文件命名规则、同样数据格式的数据,我们希望将这2个文件夹中与当前文件夹中每一个同名的文件中的同一天的数据合并。

  了解了需求,我们就可以开始代码的书写。本文用到的代码如下所示。

# -*- coding: utf-8 -*-
"""
Created on Thu May 18 11:36:41 2023@author: fkxxgis
"""import os
import numpy as np
import pandas as pdoriginal_path = "E:/01_Reflectivity/99_Model_Training/00_Data/02_Extract_Data/17_HANTS"
era5_path = "E:/01_Reflectivity/99_Model_Training/00_Data/03_Meteorological_Data/02_AllERA5"
history_path = "E:/01_Reflectivity/99_Model_Training/00_Data/02_Extract_Data/18_AllYearAverage_2"
output_path = "E:/01_Reflectivity/99_Model_Training/00_Data/02_Extract_Data/19_2022Data"era5_files = os.listdir(era5_path)
history_files = os.listdir(history_path)for file in os.listdir(original_path):file_path = os.path.join(original_path, file)if file.endswith(".csv") and os.path.isfile(file_path):point_id = file[4 : -4]df = pd.read_csv(file_path)filter_df = df[df["DOY"] >= 2022001]filter_df = filter_df.reset_index(drop = True)filter_df["blue_dif"] = filter_df["blue"].diff()filter_df["green_dif"] = filter_df["green"].diff()filter_df["red_dif"] = filter_df["red"].diff()filter_df["inf_dif"] = filter_df["inf"].diff()filter_df["si1_dif"] = filter_df["si1"].diff()filter_df["si2_dif"] = filter_df["si2"].diff()filter_df["NDVI_dif"] = filter_df["NDVI"].diff()filter_df["PointType"] = file[4 : 7]filter_df["days"] = filter_df["DOY"] % 1000for era5_file in era5_files:if point_id in era5_file:era5_df = pd.read_csv(os.path.join(era5_path, era5_file))rows_num = filter_df.shape[0]for i in range(rows_num):day = filter_df.iloc[i, 0]row_need_index = era5_df.index[era5_df.iloc[ : , 1] == day]row_need = row_need_index[0]sola_data_all = era5_df.iloc[row_need - 2 : row_need, 2]temp_data_all = era5_df.iloc[row_need - 6 : row_need - 2, 3]prec_data_all = era5_df.iloc[row_need - 5 : row_need - 1, 4]soil_data_all = era5_df.iloc[row_need - 6 : row_need - 2, 5 : 7 + 1]sola_data = np.sum(sola_data_all.values)temp_data = np.sum(temp_data_all.values)prec_data = np.sum(prec_data_all.values)soil_data = np.sum(soil_data_all.values)filter_df.loc[i, "sola"] = sola_datafilter_df.loc[i, "temp"] = temp_datafilter_df.loc[i, "prec"] = prec_datafilter_df.loc[i, "soil"] = soil_databreakfor history_file in history_files:if point_id in history_file:history_df = pd.read_csv(os.path.join(history_path, history_file)).iloc[ : , 1 : ]history_df.columns = ["blue_h", "green_h", "red_h", "inf_h", "si1_h", "si2_h", "ndvi_h"]breakfilter_df_new = pd.concat([filter_df, history_df], axis = 1)output_file = os.path.join(output_path, file)filter_df_new.to_csv(output_file, index = False)

  代码中首先定义了几个文件夹路径,分别是原始数据文件夹(也就是本文开头第1张图所示的文件夹)、ERA5气象数据文件夹、历史数据文件夹和输出文件夹。然后,通过 os.listdir() 函数获取了ERA5气象数据文件夹和历史数据文件夹中的所有文件名,并在后续的循环中使用。

  接下来是一个 for 循环,遍历了原始数据文件夹中的所有.csv文件,如果文件名以 .csv 结尾并且是一个合法的文件,则读取该文件。然后,根据文件名提取了点ID,并使用Pandas中的 read_csv() 函数读取了该文件的数据。接着,使用Pandas中的 loc[] 函数对数据进行了处理,包括筛选出DOY大于等于 2022001 的行,将其重置索引,并计算了反射率数据的差值。然后,将一些元数据添加到筛选后的数据中,包括点类型和天数。

  接下来是两个 for 循环,分别用于处理ERA5气象数据和历史数据。在处理ERA5气象数据时,首先找到与当前点ID匹配的ERA5气象数据文件,并使用Pandas中的 read_csv() 函数读取了该文件的数据。然后,使用 iloc[] 函数根据当前日期找到了ERA5气象数据中对应的行,并从该行及其前两行中提取了太阳辐射、温度、降水和土壤湿度数据。最后,将这些数据添加到筛选后的数据中。

  在处理历史数据时,首先找到与当前点ID匹配的历史数据文件,并使用Pandas中的 read_csv() 函数读取了该文件的数据。然后,使用 iloc[] 函数删除了第一列,并将剩余列重命名为blue_hgreen_hred_hinf_hsi1_hsi2_hndvi_h。最后,使用Pandas中的 concat() 函数将筛选后的数据和历史数据合并成一个新的DataFrame

  最后,使用Pandas中的 to_csv() 函数将新的DataFrame保存到输出文件夹中。

  运行上述代码,我们即可得到无数个组合后的Excel表格文件,其中每一个文件的列都如下图所示,已经是我们合并了各类信息之后的了。

  这样,就完成了我们神经网络训练数据集的生产过程。

  至此,大功告成。

欢迎关注:疯狂学习GIS


http://www.ppmy.cn/news/87224.html

相关文章

ChatGPT无限可能性:自然语言生成的奥秘

💗wei_shuo的个人主页 💫wei_shuo的学习社区 🌐Hello World ! ChatGPT无限可能性:自然语言生成的奥秘 数字化时代:跨越语言和文化障碍 冰岛是北大西洋中部的一个岛国,拥有充满活力的科技产业和…

浅浅谈谈ssm的那些事儿外加AOP和DI+DAO思想的理解和处理json数据的第三方工具

MyBatis 一级缓存 默认是打开的 SqlSession级别的缓存,同一个SqlSession的发起多次同构查询,会将数据保存在一级缓存中。 在sqlsession 中有一个数据结构 是map 结构, 这个区域就是一级缓存区域,一级缓存区域中的 key 是由 sql 语…

【遥感图像】目标检测系列.1

目录 Unsupervised Domain Adaptation for Cloud Detection Based on Grouped Features Alignment and Entropy Minimization, TGRS2022 Semi-Supervised Cloud Detection in Satellite Images by Considering the Domain Shift Problem, RS2022 CoF-Net: A Progressive Coa…

非线性系统的线性化与泰勒级数

线性系统与非线性系统的区别 我们在读论文的时候经常会遇到这两个系统,线性系统与非线性系统,这两者之间有什么区别呢? 线性指量与量之间按比例、成直线的关系,在空间和时间上代表规则和光滑的运动;非线性则指不按比…

每日三问-前端(第九期)

2023年5月25日 先来回顾一下昨天的面试题及答案: 问题1:你有没有遇到过令人困惑的 CSS 布局问题?如果有,请分享一个例子,并解释你是如何解决的 对于令人困惑的 CSS 布局问题,例如水平居中元素或自适应布局&…

华为OD机试真题 Java 实现【打印文件】【2023Q1 100分】

一、题目描述 有 5 台打印机打印文件,每台打印机有自己的待打印队列。 因为打印的文件内容有轻重缓急之分,所以队列中的文件有1~10不同的优先级,其中数字越大优先级越高。 打印机会从自己的待打印队列中选择优先级最高的文件来打印。 如果…

面试题百日百刷-java基础篇(九)

锁屏面试题百日百刷,每个工作日坚持更新面试题。请看到最后就能获取你想要的,接下来的是今日的面试题: 1.Java 中IO 流分为几种? 按照流的流向分,可以分为输入流和输出流; 按照操作单元划分,可以划分为字节流和字符…

安装QT6.5说明

说明:在2023年4月初亲测有效windows11下的安装步骤 第一步:进入https://mirrors.tuna.tsinghua.edu.cn/qt/archive/online_installers/ 到4.5下面下载qt-unified-windows-x64-4.5.2-online.exe 第二步:在终端下运行 ./qt-unified-window…