编译:刘早起(有删改)

来源:towardsdatascience、GitHub等

在使用python进行数据分析时,Jupyter Notebook是一个非常强力的工具,在数据集不是很大的情况下,我们可以使用pandas轻松对txt或csv等纯文本格式数据进行读写。

然而当数据集的维度或者体积很大时,将数据保存并加载回内存的过程就会变慢,并且每次启动Jupyter Notebook时都需要等待一段时间直到数据重新加载, 这样csv格式或任何其他纯文本格式数据都失去了吸引力。

本文将对pandas支持的多种格式数据在处理数据的不同方面进行比较,包含I/O速度、内存消耗、磁盘占用空间等指标,试图找出如何为我们的数据找到一个合适的格式的办法!

——格式说明

现在对本文进行对比的几种数据格式进行说明。

  • CSV:最常用的数据格式
  • Pickle:用于序列化和反序列化Python对象结构
  • MessagePack:类似于json,但是更小更块
  • HDF5:一种常见的跨平台数据储存文件
  • Feather:一个快速、轻量级的存储框架
  • Parquet:Apache Hadoop的列式存储格式

——指标说明

为了找到格式来存储数据,本文选择以下指标进行对比。

  • size_mb:带有序列化数据帧的文件的大小
  • save_time:将数据帧保存到磁盘所需的时间
  • load_time:将先前转储的数据帧加载到内存所需的时间
  • save_ram_delta_mb:在数据帧保存过程中最大的内存消耗增长
  • load_ram_delta_mb:数据帧加载过程中最大的内存消耗增长

注意,当我们使用有效压缩的二进制数据格式(例如Parquet)时,最后两个指标变得非常重要。它们可以帮助我们估算加载串行化数据所需的RAM数量,以及数据大小本身。我们将在下一部分中更详细地讨论这个问题。

——对比

现在开始对前文介绍的5种数据格式进行比较,为了更好地控制序列化的数据结构和属性我们将使用自己生成的数据集。

下面是生成测试数据的代码,我们随机生成具有数字和分类特征的数据集。数值特征取自标准正态分布。分类特征以基数为C的uuid4随机字符串生成,其中2 <= C <= max_cat_size。

def generate_dataset(n_rows, num_count, cat_count, max_nan=0.1, max_cat_size=100):    dataset, types = {}, {}        def generate_categories():        from uuid import uuid4        category_size = np.random.randint(2, max_cat_size)        return [str(uuid4()) for _ in range(category_size)]        for col in range(num_count):        name = f'n{col}'        values = np.random.normal(0, 1, n_rows)        nan_cnt = np.random.randint(1, int(max_nan*n_rows))        index = np.random.choice(n_rows, nan_cnt, replace=False)        values[index] = np.nan        dataset[name] = values        types[name] = 'float32'            for col in range(cat_count):        name = f'c{col}'        cats = generate_categories()        values = np.array(np.random.choice(cats, n_rows, replace=True), dtype=object)        nan_cnt = np.random.randint(1, int(max_nan*n_rows))        index = np.random.choice(n_rows, nan_cnt, replace=False)        values[index] = np.nan        dataset[name] = values        types[name] = 'object'        return pd.DataFrame(dataset), types

现在我们以CSV文件保存和加载的性能作为基准。将五个随机生成的具有百万个观测值的数据集转储到CSV中,然后读回内存以获取平均指标。并且针对具有相同行数的20个随机生成的数据集测试了每种二进制格式。

同时使用两种方法进行对比:

  • 1.将生成的分类变量保留为字符串
  • 2.在执行任何I/O之前将其转换为pandas.Categorical数据类型

1.以字符串作为分类特征

下图显示了每种数据格式的平均I/O时间。这里有趣的发现是hdf的加载速度比csv更低,而其他二进制格式的性能明显更好,而feather和parquet则表现的非常好

保存数据并从磁盘读取数据时的内存消耗如何?下一张图片向我们展示了hdf的性能再次不那么好。但可以肯定的是,csv不需要太多额外的内存来保存/加载纯文本字符串,而feather和parquet则非常接近

最后,让我们看一下文件大小的对比。这次parquet显示出非常好的结果,考虑到这种格式是为有效存储大量数据而开发的,也是理所当然

2.对特征进行转换

在上一节中,我们没有尝试有效地存储分类特征,而是使用纯字符串,接下来我们使用专用的pandas.Categorical类型再次进行比较。

从上图可以看到,与纯文本csv相比,所有二进制格式都可以显示其真强大功能,效率远超过csv,因此我们将其删除以更清楚地看到各种二进制格式之间的差异。

可以看到feather和pickle拥有最快的I/O速度,接下来该比较数据加载过程中的内存消耗了。下面的条形图显示了我们之前提到的有关parquet格式的情况

为什么parquet内存消耗这么高?因为只要在磁盘上占用一点空间,就需要额外的资源才能将数据解压缩回数据帧。即使文件在持久性存储磁盘上需要适度的容量,也可能无法将其加载到内存中。

最后我们看下不同格式的文件大小比较。所有格式都显示出良好的效果,除了hdf仍然需要比其他格式更多的空间。

结论

正如我们的上面的测试结果所示,feather格式似乎是在多个Jupyter之间存储数据的理想选择。它显示出很高的I/O速度,不占用磁盘上过多的内存,并且在装回RAM时不需要任何拆包。

当然这种比较并不意味着我们应该在每种情况下都使用这种格式。例如,不希望将feather格式用作长期文件存储。此外,当其他格式发挥最佳效果时,它并未考虑所有可能的情况。所以我们也需要根据具体情况进行选择!

parquet格式_6种数据格式对比,用Jupyter+pandas高效数据分析相关推荐

  1. 仪表盘加载数据nan_6种数据格式对比,用Jupyter+pandas高效数据分析

    编译:刘早起(有删改) 来源:towardsdatascience.GitHub等 在使用python进行数据分析时,Jupyter Notebook是一个非常强力的工具,在数据集不是很大的情况下,我 ...

  2. 更高效的利用Jupyter+pandas进行数据分析,6种常用数据格式效率对比!

    在使用Python进行数据分析时,Jupyter Notebook是一个非常强力的工具,在数据集不是很大的情况下,我们可以使用pandas轻松对txt或csv等纯文本格式数据进行读写. 然而当数据集的 ...

  3. python特征数据类型及常用操作对比_更高效的利用Jupyter+pandas进行数据分析,6种常用数据格式效率对比!...

    在使用Python进行数据分析时,Jupyter Notebook是一个非常强力的工具,在数据集不是很大的情况下,我们可以使用pandas轻松对txt或csv等纯文本格式数据进行读写. 然而当数据集的 ...

  4. 更高效地利用 Jupyter+pandas 进行数据分析,6 种常用数据格式效率对比!

    来源 | 早起Python(ID:zaoqi-python) 编译 | 刘早起(有删改) 头图 |  CSDN 下载自东方IC 在使用 Python 进行数据分析时,Jupyter Notebook ...

  5. 【hive】hive常见的几种文件存储格式与压缩方式的结合-------Parquet格式+snappy压缩 以及ORC格式+snappy压缩文件的方式

    一.使用Parquet存储数据 数据使用列存储之前是普通的行存储,下面是行存储的的文件大小,这个HDFS上的数据 使用parquet列存储,可以将文件的大小减小化.下面具体讲parquet存储数据的代 ...

  6. C语言清空输入缓冲区的N种方法对比

    C语言中有几个基本输入函数: //获取字符系列 int fgetc(FILE *stream); int getc(FILE *stream); int getchar(void); //获取行系列 ...

  7. ArcGIS几种数据格式2

    各种数据的组织形式不一样,其中shp.Coverage.Raster.CAD为文件类型,Geodatabase为空间数据库.Workstaion常用Coverage数据格式.现在ESRI公司推荐使用G ...

  8. python图片保存_python读取和保存图片5种方法对比

    python读取和保存图片5种方法对比 python中对象之间的赋值是按引用传递的,如果需要拷贝对象,需要用到标准库中的copy模块 方法一:利用 PIL 中的 Image 函数 这个函数读取出来不是 ...

  9. Parquet格式描述

    背景 2010年 google 发表了一篇论文<Dremel: Interactive Analysis of Web-Scale Datasets>,介绍了其 Dermel 系统是如何利 ...

最新文章

  1. Python核心编程学习日记之错误处理
  2. go基础语法:切片的定义
  3. 自然语言处理系列篇——关键词智能提取
  4. 面向对象要点(构造函数)
  5. 第四章 单位根检验与章节综训
  6. Recoverit for Mac专业的数据恢复工具
  7. 推荐一个很好用的 Android Studio 插件
  8. qq家园纵横四海的源码
  9. 中国无线耳机行业市场供需与战略研究报告
  10. 服务器虚拟化技术有kvm,只用VMware开虚拟机?来了解一下更强大KVM虚拟化技术
  11. 三相逆变器双pi控制器参数如何调节_SPMSM控制:传统PI电流环参数的整定
  12. 波士顿仿生机械狗 原理分析
  13. U盘写保护不能格式化文件不能删除解决办法
  14. ios 图片加载内存尺寸_iOS图片内存优化
  15. VS Qt 项目 “fatal error C1083: ”无法打开包括文件
  16. ZT一篇从普华永道离开的人的文章:闲话我在普华永道的岁月
  17. MySQL 基础学习笔记
  18. 基于51单片机的智能声控
  19. PaddlePaddle 波斯顿房价预测训练结果
  20. ubuntu 16.04怎么更改文件夹里面所有子文件权限

热门文章

  1. centos php mcrypt,CentOS yum php mcrypt 扩展安装方法
  2. Python实现-中介者模式
  3. php 通知客户端,PHP+SSE服务器向客户端推送消息
  4. 时钟信号线 电源线 地线_信号线和电源线的区别
  5. html隐藏元素的方式,Web前端:CSS3——3种隐藏元素方法的区别
  6. visual studio如何给源码文件添加header信息?(创建者,创建日期等)(License Header Manager插件)
  7. CMD是什么?(命令行提示符)如何使用python在windows上操作CMD?(python执行命令行)os.syste[m](执行的命令)、os.popen(执行的命令)
  8. Python第三、四种数据类型——List(列表) and Tuple(元组)
  9. Ink on paper 最小生成树-Prim-二分答案并查集
  10. java实现系统多级文件夹复制