当前位置: 首页 > news >正文

Python Pandas数据处理效率提升指南

大家好,在数据分析中Pandas是Python中最常用的库之一,然而当处理大规模数据集时,Pandas的性能可能会受到限制,导致数据处理变得缓慢。为了提升Pandas的处理速度,可以采用多种优化策略,如数据类型优化、向量化操作、并行处理、分块读取等。本文将介绍几种常见的Pandas性能优化方法,帮助高效处理大量数据,减少计算时间。

1.数据类型优化

Pandas在读取数据时,会自动为每列选择默认的数据类型,但这些默认类型可能不是最优的。通过手动优化数据类型,可以显著减少内存占用,从而提高性能。常见的优化方法包括将int64转为int32、将float64转为float32,以及将字符串列转换为category类型。

import pandas as pd
import numpy as np# 生成示例数据
data = {'id': np.random.randint(1, 100000, 1000000),'value': np.random.rand(1000000),'category': np.random.choice(['A', 'B', 'C'], 1000000)
}df = pd.DataFrame(data)
print("优化前内存使用:")
print(df.info())# 优化数据类型
df['id'] = df['id'].astype('int32')  # 将int64转为int32
df['value'] = df['value'].astype('float32')  # 将float64转为float32
df['category'] = df['category'].astype('category')  # 将字符串列转为categoryprint("\n优化后内存使用:")
print(df.info())

通过这段代码可以看到,优化后的数据类型显著减少了内存占用。对于大数据集,内存的减少意味着可以在同一时间处理更多数据,进而提升性能。

2.使用read_csv的优化选项

在读取大型CSV文件时,Pandas的read_csv()函数可以通过合理设置参数来提高读取速度。例如,指定数据类型、仅选择需要的列、分块读取数据等,可以有效优化内存使用,并提升数据读取的效率。

# 优化读取CSV文件
df = pd.read_csv('large_data.csv', dtype={'id': 'int32', 'value': 'float32'}, usecols=['id', 'value'], chunksize=100000)for chunk in df:print(chunk.head())  # 每次读取10万行数据并处理
  • dtype参数:指定数据类型以减少内存使用。

  • usecols参数:只选择需要的列,避免不必要的数据加载。

  • chunksize参数:分块读取大文件,避免一次性加载过多数据,防止内存溢出。

通过这些优化选项,可以显著提高大数据集的读取速度。

3.向量化操作代替循环

Pandas允许使用向量化操作处理数据,而非逐行遍历。在向量化操作中,Pandas会利用底层的C语言进行优化运算,比使用Python的for循环或apply()函数快得多。

# 逐行处理:较慢
df['new_value'] = df['value'].apply(lambda x: x * 2)# 向量化操作:更快
df['new_value'] = df['value'] * 2

在上述代码中,使用向量化操作进行批量处理,比逐行调用apply()更快。在处理大数据集时,向量化操作能大幅提高运算速度。

4.并行处理加速计算

在面对极大规模数据集时,单线程处理可能不足以应对复杂的运算需求。Pandas本身不支持并行处理,但可以借助第三方库如DaskSwifter来实现并行计算,加速数据处理。

Dask是一种可以与Pandas兼容的并行计算库,它能够处理超出内存限制的大数据集,并利用多核处理器进行并行计算。

import dask.dataframe as dd# 使用Dask读取大数据集
df = dd.read_csv('large_data.csv')# 执行并行计算
result = df['value'].mean().compute()  # 计算均值
print("并行计算结果:", result)

Dask通过并行处理提升了Pandas处理大数据的能力,非常适合超大规模数据集的处理。

Swifter是另一个加速Pandas apply()函数的库,它可以自动判断数据量,选择最优的处理方式(单线程或并行处理)。

import swifter# 使用Swifter加速apply操作
df['new_value'] = df['value'].swifter.apply(lambda x: x * 2)

Swifter能够自动优化数据处理过程,帮助在处理大量数据时提升效率。

5.分块处理大数据

在处理非常大的数据集时,一次性将数据全部加载到内存中可能会导致内存溢出问题,此时分块处理大数据是一种有效的解决方案。Pandas的chunksize参数可以分块读取数据,并逐块处理。

chunk_size = 100000  # 每次处理10万行数据
chunks = pd.read_csv('large_data.csv', chunksize=chunk_size)for chunk in chunks:# 对每个块进行处理chunk['new_value'] = chunk['value'] * 2print(chunk.head())

通过分块处理数据,可以在有限的内存中处理大规模数据集,而不必一次性加载整个数据集。

6.数据库读取优化

当从数据库中读取数据时,Pandas提供了与SQL数据库对接的功能。为了优化读取速度,可以通过SQL查询进行过滤,避免加载不必要的数据。

import sqlite3# 连接到SQLite数据库
conn = sqlite3.connect('database.db')# 使用SQL查询过滤数据
query = "SELECT id, value FROM data_table WHERE value > 100"
df = pd.read_sql_query(query, conn)print(df.head())

通过在SQL查询中进行数据过滤,可以显著减少传输的数据量,提升从数据库读取数据的效率。

7.缓存与数据持久化

当需要反复读取相同的数据时,将数据持久化或使用缓存机制能够显著提高效率。Pandas支持将数据保存为featherparquet格式,这些格式读写速度比CSV快得多,适合大规模数据集的持久化存储。

# 保存数据到feather文件
df.to_feather('data.feather')# 从feather文件中快速读取数据
df = pd.read_feather('data.feather')
print(df.head())

通过将数据保存为高效的二进制格式,可以显著加快读取速度,特别是在需要频繁读取相同数据的情况下。

这些优化方法适用于处理大规模数据集,优化数据类型可以减少内存占用,加速数据加载和处理。利用read_csv函数的优化参数,能够加快从文件读取数据的速度。借助DaskSwifter等库实现并行处理,能够充分利用多核CPU,对于超大数据集,分块读取数据则是解决内存问题的有效方案。使用高效的featherparquet格式持久化数据,可以显著提升数据读取速度,有效提升Pandas在数据分析中的性能。

相关文章:

  • 【笔记】自动驾驶预测与决策规划_Part4_时空联合规划
  • 【GUI设计】基于Matlab的图像去噪GUI系统(8),matlab实现
  • 构建企业数字化转型的战略基石——TOGAF框架的深度解析
  • 物理学基础精解【26】
  • 录屏+GIF一键生成,2024年费软件大揭秘
  • Kubernetes 中 Pod 和 Node 的关系详解
  • 代码整洁之道 — 1 命名规范
  • C++——有3个学生,每个学生的数据包括:学号、姓名、3门课的成绩,从键盘输入三个学生的数据。要求打印学生三门课的平均分。
  • SpringBoot使用EasyPoi根据模板导出word or pdf
  • 什么是网络准入控制系统?2024年有哪些好用的网络准入控制系统?
  • 2024/10/1 操作系统大题专训之文件
  • SpringBoot实现社区医院数据集成解决方案
  • AWS Network Firewall -NAT网关配置只应许白名单域名出入站
  • 【代码实现】torch实现F.pixel_shuffle和F.pixel_unshuffle
  • Go基础学习07-map注意事项;多协程对map的资源竞争;sync.Mutex避免竟态条件
  • JS 中的深拷贝与浅拷贝
  • 〔开发系列〕一次关于小程序开发的深度总结
  • Android系统模拟器绘制实现概述
  • Docker: 容器互访的三种方式
  • JavaScript工作原理(五):深入了解WebSockets,HTTP/2和SSE,以及如何选择
  • JSDuck 与 AngularJS 融合技巧
  • js继承的实现方法
  • Mybatis初体验
  • ng6--错误信息小结(持续更新)
  • PHP 7 修改了什么呢 -- 2
  • React-redux的原理以及使用
  • REST架构的思考
  • springboot_database项目介绍
  • Storybook 5.0正式发布:有史以来变化最大的版本\n
  • WePY 在小程序性能调优上做出的探究
  • 爱情 北京女病人
  • 从输入URL到页面加载发生了什么
  • 机器学习学习笔记一
  • 我看到的前端
  • 物联网链路协议
  • No resource identifier found for attribute,RxJava之zip操作符
  • #includecmath
  • #Spring-boot高级
  • (01)ORB-SLAM2源码无死角解析-(66) BA优化(g2o)→闭环线程:Optimizer::GlobalBundleAdjustemnt→全局优化
  • (C#)Windows Shell 外壳编程系列4 - 上下文菜单(iContextMenu)(二)嵌入菜单和执行命令...
  • (delphi11最新学习资料) Object Pascal 学习笔记---第8章第5节(封闭类和Final方法)
  • (pt可视化)利用torch的make_grid进行张量可视化
  • (八)Spring源码解析:Spring MVC
  • (第61天)多租户架构(CDB/PDB)
  • (二)windows配置JDK环境
  • (附源码)springboot工单管理系统 毕业设计 964158
  • (附源码)小程序 交通违法举报系统 毕业设计 242045
  • (数据结构)顺序表的定义
  • (图文详解)小程序AppID申请以及在Hbuilderx中运行
  • (一)Dubbo快速入门、介绍、使用
  • (转)GCC在C语言中内嵌汇编 asm __volatile__
  • (转)scrum常见工具列表
  • .axf 转化 .bin文件 的方法
  • .NET Core Web APi类库如何内嵌运行?
  • .NET Core 和 .NET Framework 中的 MEF2