来源 | 早起Python(ID:zaoqi-python)

编译 | 刘早起(有删改)

头图 |  CSDN 下载自东方IC

在使用 Python 进行数据分析时,Jupyter Notebook 是一个非常强力的工具,在数据集不是很大的情况下,我们可以使用 pandas 轻松对 txt 或 csv 等纯文本格式数据进行读写。

然而当数据集的维度或者体积很大时,将数据保存并加载回内存的过程就会变慢,并且每次启动 Jupyter Notebook 时都需要等待一段时间直到数据重新加载, 这样 csv 格式或任何其他纯文本格式数据都失去了吸引力。

本文将对 pandas 支持的多种格式数据在处理数据的不同方面进行比较,包含 I/O速度、内存消耗、磁盘占用空间等指标,试图找出如何为我们的数据找到一个合适的格式的办法!

 格式说明

现在对本文进行对比的几种数据格式进行说明。

  • CSV:最常用的数据格式

  • Pickle:用于序列化和反序列化Python对象结构

  • MessagePack:类似于json,但是更小更块

  • HDF5:一种常见的跨平台数据储存文件

  • Feather:一个快速、轻量级的存储框架

  • Parquet:Apache Hadoop的列式存储格式

  指标说明

为了找到格式来存储数据,本文选择以下指标进行对比。

  • size_mb:带有序列化数据帧的文件的大小

  • save_time:将数据帧保存到磁盘所需的时间

  • load_time:将先前转储的数据帧加载到内存所需的时间

  • save_ram_delta_mb:在数据帧保存过程中最大的内存消耗增长

  • load_ram_delta_mb:数据帧加载过程中最大的内存消耗增长

注意,当我们使用有效压缩的二进制数据格式(例如Parquet)时,最后两个指标变得非常重要。它们可以帮助我们估算加载串行化数据所需的RAM数量,以及数据大小本身。我们将在下一部分中更详细地讨论这个问题。

  对比

现在开始对前文介绍的5种数据格式进行比较,为了更好地控制序列化的数据结构和属性我们将使用自己生成的数据集。

下面是生成测试数据的代码,我们随机生成具有数字和分类特征的数据集。数值特征取自标准正态分布。分类特征以基数为C的uuid4随机字符串生成,其中2 <= C <= max_cat_size。

def generate_dataset(n_rows, num_count, cat_count, max_nan=0.1, max_cat_size=100):dataset, types = {}, {}def generate_categories():from uuid import uuid4category_size = np.random.randint(2, max_cat_size)return [str(uuid4()) for _ in range(category_size)]for col in range(num_count):name = f'n{col}'values = np.random.normal(0, 1, n_rows)nan_cnt = np.random.randint(1, int(max_nan*n_rows))index = np.random.choice(n_rows, nan_cnt, replace=False)values[index] = np.nandataset[name] = valuestypes[name] = 'float32'for col in range(cat_count):name = f'c{col}'cats = generate_categories()values = np.array(np.random.choice(cats, n_rows, replace=True), dtype=object)nan_cnt = np.random.randint(1, int(max_nan*n_rows))index = np.random.choice(n_rows, nan_cnt, replace=False)values[index] = np.nandataset[name] = valuestypes[name] = 'object'return pd.DataFrame(dataset), types

现在我们以 CSV 文件保存和加载的性能作为基准。将五个随机生成的具有百万个观测值的数据集转储到 CSV 中,然后读回内存以获取平均指标。并且针对具有相同行数的20个随机生成的数据集测试了每种二进制格式。

同时使用两种方法进行对比:

  • 1.将生成的分类变量保留为字符串

  • 2.在执行任何 I/O 之前将其转换为 pandas.Categorical 数据类型

1、以字符串作为分类特征

下图显示了每种数据格式的平均 I/O 时间。这里有趣的发现是 hdf 的加载速度比 csv 更低,而其他二进制格式的性能明显更好,而 feather 和 parquet 则表现的非常好。

保存数据并从磁盘读取数据时的内存消耗如何?下一张图片向我们展示了 hdf 的性能再次不那么好。但可以肯定的是,csv 不需要太多额外的内存来保存/加载纯文本字符串,而 feather 和 parquet 则非常接近。

最后,让我们看一下文件大小的对比。这次 parquet 显示出非常好的结果,考虑到这种格式是为有效存储大量数据而开发的,也是理所当然。

2、对特征进行转换

在上一节中,我们没有尝试有效地存储分类特征,而是使用纯字符串,接下来我们使用专用的 pandas.Categorical 类型再次进行比较。

从上图可以看到,与纯文本 csv 相比,所有二进制格式都可以显示其真强大功能,效率远超过 csv,因此我们将其删除以更清楚地看到各种二进制格式之间的差异。

可以看到 feather 和 pickle 拥有最快的 I/O 速度,接下来该比较数据加载过程中的内存消耗了。下面的条形图显示了我们之前提到的有关 parquet 格式的情况。

为什么parquet内存消耗这么高?因为只要在磁盘上占用一点空间,就需要额外的资源才能将数据解压缩回数据帧。即使文件在持久性存储磁盘上需要适度的容量,也可能无法将其加载到内存中。

最后我们看下不同格式的文件大小比较。所有格式都显示出良好的效果,除了hdf仍然需要比其他格式更多的空间。

  结论

正如我们的上面的测试结果所示,feather 格式似乎是在多个 Jupyter 之间存储数据的理想选择。它显示出很高的 I/O 速度,不占用磁盘上过多的内存,并且在装回 RAM 时不需要任何拆包。

当然这种比较并不意味着我们应该在每种情况下都使用这种格式。例如,不希望将 feather 格式用作长期文件存储。此外,当其他格式发挥最佳效果时,它并未考虑所有可能的情况。所以我们也需要根据具体情况进行选择!

来源 | towardsdatascience、GitHub等

更多精彩推荐
☞机器人也开始"怕疼"了?科学家开发无需人工干预即可"自愈"的机器人☞对话指令集创始人兼CEO潘爱民:面向未来的新型物联网操作系统 | 人物志
☞@程序员,什么才是“2020-1024”的正确打开姿势?☞最新!百度首发 OCR 自训练平台 EasyDL OCR☞SQL分页查询方案的性能对比
☞2021年,很可能是以太坊的“高光之年”
点分享点点赞点在看

更高效地利用 Jupyter+pandas 进行数据分析,6 种常用数据格式效率对比!相关推荐

  1. 更高效的利用Jupyter+pandas进行数据分析,6种常用数据格式效率对比!

    在使用Python进行数据分析时,Jupyter Notebook是一个非常强力的工具,在数据集不是很大的情况下,我们可以使用pandas轻松对txt或csv等纯文本格式数据进行读写. 然而当数据集的 ...

  2. python特征数据类型及常用操作对比_更高效的利用Jupyter+pandas进行数据分析,6种常用数据格式效率对比!...

    在使用Python进行数据分析时,Jupyter Notebook是一个非常强力的工具,在数据集不是很大的情况下,我们可以使用pandas轻松对txt或csv等纯文本格式数据进行读写. 然而当数据集的 ...

  3. php高效遍历,PHP 遍历数组的三种方法及效率对比分析

    PHP 遍历数组的三种方法及效率对比分析 本文实例分析了 PHP 遍历数组的三种方法及效率对比分享给大家供大家参考具体分析如下: 今天有个朋友问我一个问题 php 遍历数组的方法, 告诉她了几个顺便写 ...

  4. OOM?教你如何在PyTorch更高效地利用显存

    点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 作者丨派派星 来源丨CVHub 编辑丨极市平台 导读 本文介绍了如何在不减少输入数据尺寸以及Batch ...

  5. SQL2005利用ROW_NUMER实现分页的两种常用方式

    代码如下: declare @PageNumber int declare @PageSize int set @PageNumber=2 set @PageSize=20 --利用between s ...

  6. Pandas DataFrame四种写入方法效率对比

    该测试程序是将protocol变量转换为DataFrame类型为了便于使用numpy等数学工具 ImuEncode_pb2 是使用protocol生成的model, 具体使用方法可参考Protocol ...

  7. [转载] Python数据分析:python与numpy效率对比

    参考链接: Python中的numpy.roll #!/usr/bin/env python # -*- coding:utf-8 -*- # @ProjectName  :数据分析学习 # @Pro ...

  8. Python数据分析:python与numpy效率对比

    #!/usr/bin/env python # -*- coding:utf-8 -*- # @ProjectName :数据分析学习 # @ProductName :PyCharm # @FileN ...

  9. 不容错过的Pandas小技巧:万能转格式、轻松合并、压缩数据,让数据分析更高效...

    点击上方"Datawhale",选择"星标"公众号 第一时间获取价值内容 作者 | Roman Orac 转自 | 量子位    编译 | 鱼羊 数据分析,如何 ...

最新文章

  1. 云服务干掉的是运维。
  2. 无法连接到已配置的开发web服务器_你知道多少种服务器?这三种服务器你都认识吗?...
  3. MongoDB学习札记第六篇之主从复制
  4. 做diff_Virtual Dom amp;amp; Diff原理,极简版
  5. Qt捕捉窗口关闭事件
  6. java json 嵌套解析_我们如何解析Java中的嵌套JSON对象?
  7. 现实迷途 第二十五章 重见故人
  8. Matlab2012b安装步骤(附带Matlab2012b破解码及序列号)
  9. php js代码,在php中运行js代码的方法
  10. 基于Levy飞行策略的改进樽海鞘群算法-附代码
  11. 谷歌浏览器http请求出现:Provisional headers are shown 提示
  12. python使用pika库调用rabbitmq的交换机模式
  13. Hélène Rollès (伊梦莲) 六张专辑收藏 by Emerald 绿色学院 - Green Institute
  14. java解决包依赖冲突
  15. app毕业设计 基于uni-app框架商城app、图书商城app毕设题目课题选题作品(2)后台管理功能
  16. QGIS上常用底图插件上可用底图及其评价
  17. 摄像头8mm可以看多远_解析智能监控摄像头的监控可视范围及距离
  18. cassandra 学习笔记
  19. 自制操作系统Antz day10——实现shell(上)
  20. 成都java开发好找工作吗?

热门文章

  1. 生活大爆炸系列之制作望远镜架
  2. quagga源码分析--大内总管zebra
  3. pat04-树7. Search in a Binary Search Tree (25)
  4. 利用WebBrowser获得页面部分数据
  5. C# 3.0新语言特性和改进
  6. Fuel 9.0安装Openstack网络验证失败解决
  7. 深度学习入门(一):LeNet-5教程与详解
  8. 面向对象实现ATM功能
  9. 《统计学习方法》—— 感知机原理、推导以及python3代码实现(一)
  10. python pickle库_Python使用Pickle库实现读写序列操作示例