快速提升Python Pandas处理速度的秘诀

news/2024/12/21 20:28:05/

大家好,Python的Pandas库为数据处理和分析提供了丰富的功能,但当处理大规模数据时,性能问题往往成为瓶颈。本文将介绍一些在Pandas中进行性能优化的方法与技巧,帮助有效提升数据处理速度,优化代码运行效率。

1.数据类型优化

在Pandas中,不同的数据类型占用的内存和处理速度各不相同。合理选择数据类型不仅能减少内存占用,还能提升处理速度,特别是在大规模数据集上,优化数据类型可以显著提升性能。

1.1 使用category类型替代object类型

Pandas中的category类型适合处理具有有限取值的分类数据,它比object类型占用更少的内存,处理速度也更快。

下面通过将object类型的列转换为category来优化内存使用。

python">import pandas as pd# 创建一个数据框
df = pd.DataFrame({'城市': ['北京', '上海', '广州', '北京', '上海', '广州'] * 100000,'人口': [2154, 2424, 1500, 2154, 2424, 1500] * 100000
})# 检查转换前的内存占用
print(df.memory_usage(deep=True))# 将城市列转换为category类型
df['城市'] = df['城市'].astype('category')# 检查转换后的内存占用
print(df.memory_usage(deep=True))

在这个例子中,将字符串列转换为category类型可以大幅降低内存使用,尤其在处理有大量重复值的列时。

1.2 减少浮点数精度

如果浮点数的精度对分析结果并不重要,可以通过降低浮点数的精度来减少内存消耗。

python"># 创建一个包含浮点数的数据框
df = pd.DataFrame({'收入': [50000.56, 60000.78, 70000.89] * 100000
})# 检查转换前的内存使用
print(df.memory_usage(deep=True))# 将float64转换为float32
df['收入'] = df['收入'].astype('float32')# 检查转换后的内存使用
print(df.memory_usage(deep=True))

通过将float64类型转换为float32,可以减少内存的占用,处理速度也会相应提升。

2.向量化操作

Pandas中很多操作都可以通过向量化的方式进行,向量化操作指的是在数据集上一次性应用运算,而不是逐行处理。向量化操作比使用for循环处理数据的效率更高。

可以使用向量化代替for循环:

python">import numpy as np# 创建一个数据框
df = pd.DataFrame({'A': np.random.rand(1000000),'B': np.random.rand(1000000)
})# 使用for循环逐行相加
df['C_for'] = [a + b for a, b in zip(df['A'], df['B'])]# 使用向量化操作直接相加
df['C_vec'] = df['A'] + df['B']

向量化操作 df['A'] + df['B'] 的效率远高于使用for循环逐行相加,特别是在处理大规模数据时,性能差异会非常明显。

3.避免复制数据

在Pandas中,有些操作会隐式地复制数据,导致内存使用增加,从而影响性能。例如DataFrame的切片操作默认会创建数据的副本,而不是引用。通过使用inplace=True参数或避免不必要的复制操作,可以提升性能。

python"># 创建一个数据框
df = pd.DataFrame({'A': np.random.rand(1000000),'B': np.random.rand(1000000)
})# 默认情况下drop操作会创建一个新数据框
df_new = df.drop(columns=['B'])# 使用inplace避免复制
df.drop(columns=['B'], inplace=True)

在这个示例中,inplace=True让数据框在原地修改,避免了额外的数据副本创建,节省了内存。

4.使用多线程或并行化处理

在处理大数据集时,利用多线程或并行化处理可以显著提升数据处理的速度。Pandas本身并不支持多线程操作,但可以结合 daskmodin 库实现并行计算。

4.1 使用dask进行并行处理

dask 是一个用于并行计算的库,能够有效扩展Pandas的操作能力。它可以处理内存不足以加载的数据,并自动调度计算任务。

python">import dask.dataframe as dd# 使用dask读取CSV文件
df = dd.read_csv('large_data.csv')# 进行一些基本的操作
df_grouped = df.groupby('列名').agg({'另一列': 'mean'})# 将结果计算并转换为Pandas DataFrame
df_result = df_grouped.compute()

通过 dask,可以在内存中并行处理大规模数据,避免单线程计算带来的性能瓶颈。

4.2 使用modin进行加速

modin 是一个旨在加速Pandas的开源库,它通过并行化技术提高Pandas的性能。

python">import modin.pandas as pd# 使用modin读取数据
df = pd.read_csv('large_data.csv')# 进行一些基本的分析操作
df_grouped = df.groupby('列名').agg({'另一列': 'mean'})

modin 会自动并行化Pandas的操作,在大数据处理上具有显著的性能提升。

5.批量读取与写入

在处理大型数据集时,一次性读取或写入过多的数据可能会导致内存溢出。通过批量读取和写入数据,可以分散内存压力,避免性能瓶颈。

read_csv() 函数的 chunksize 参数允许我们一次读取一部分数据,而不是一次性将所有数据加载到内存中。

python"># 使用chunksize分块读取CSV文件
chunks = pd.read_csv('large_data.csv', chunksize=100000)# 合并所有块的数据进行处理
df = pd.concat(chunks)

通过分块读取大文件,内存占用显著降低,同时处理大数据时也更为稳定。

6.合理使用apply()与内置函数

apply()函数是Pandas中常用的函数,用于逐行或逐列应用自定义函数。然而,apply()的性能相对较低,特别是在大规模数据集上,因此优先使用Pandas的内置函数往往能带来显著的性能提升。

python"># 创建一个数据框
df = pd.DataFrame({'A': np.random.rand(1000000),'B': np.random.rand(1000000)
})# 使用apply逐行求和
df['C_apply'] = df.apply(lambda row: row['A'] + row['B'], axis=1)# 使用向量化的内置操作
df['C_vec'] = df['A'] + df['B']

在这个例子中,使用apply()逐行求和的速度远不如直接使用Pandas的内置向量化运算。因此,尽量避免在大数据集上使用apply(),而应优先选择Pandas的内置函数。

综上所述,本文介绍了在Python Pandas中提升数据处理速度的各种方法,包括数据类型优化、向量化操作、避免数据复制、并行化处理、批量读取与写入、以及使用高效的内置函数。通过合理运用这些技巧,可以在处理大规模数据时显著提升Pandas的性能,从而提高数据处理和分析的效率。无论是数据分析、机器学习前的数据预处理,还是实际业务中的数据处理,这些优化方法都可以带来更高效的工作体验。


http://www.ppmy.cn/news/1527042.html

相关文章

【 html+css 绚丽Loading 】 000052 璇玑转轮

前言:哈喽,大家好,今天给大家分享今天给大家分享一篇文章!并提供具体代码帮助大家深入理解,彻底掌握!创作不易,如果能帮助到大家或者给大家一些灵感和启发,欢迎收藏关注哦 &#x1f…

浅谈Docker:容器化技术的革命与实践

Docker:容器化技术的革命与实践 在当今软件开发领域,技术的迭代速度令人眼花缭乱。而在这场科技变革中,有一种技术几乎成为了开发者的标配工具,那就是Docker。无论是创业公司还是科技巨头,Docker正在深刻影响他们的开…

CTFHub技能树-SQL注入-整数型注入

一、手动注入 思路:注入点->库->表->列->数据 首先使用order by探测有几列 http://challenge-215beae2f0b99b12.sandbox.ctfhub.com:10800/?id1 order by 2 我们发现order by 2 的时候有回显,到了order by 3 的时候就没有回显了&#xf…

Spring Boot-日志相关问题

Spring Boot 日志相关问题探讨 在现代微服务和大型应用中,日志是非常重要的调试、监控和故障排查工具。Spring Boot 作为一种简化的框架,默认集成了强大的日志系统,并且提供了灵活的配置选项。然而,开发者在实际使用 Spring Boot…

海量数据查找最大K个值:数据结构与算法的选择

在处理大数据集时,经常需要找到数据集中最大的K个元素,这样的需求在很多领域都有广泛应用,例如推荐系统中寻找评分最高的K个商品、数据分析中找出最重要的K个特征、搜索引擎中找到排名前K的结果等等。面对海量数据,传统的排序方法…

Unity实战案例全解析 :PVZ 植物脚本分析

植物都继承了Pants脚本,但是我因为没注意听讲,把Pants也挂在植物上了,所以子类的PlantEnableUpdate和PlantDisableUpdate抢不过父类,无法正确触发动画,我还找不到哪里出了问题,所以就使用了携程加while强行…

Java后端程序员简单操作Linux系统命令

Linux系统概述 Linux 内核最初是由芬兰人林纳斯托瓦兹(Linus Torvalds)在赫尔辛基大学上 学时而编写的一个开源的操作系统。 Linux(管理计算机硬件资源,任务调度)支持多用户,支持网络,支持多线…

funny lidar slam

【开源】也许会是目前功能最多的激光SLAM(Lidar SLAM)_哔哩哔哩_bilibili GitHub - zm0612/funny_lidar_slam: A real-time multifunctional Lidar SLAM package.