背景:今天被人问到一个10G的超大CSV如何最快速度读取,并插入到数据库中。一般读取文件都是单线程一直往下读,但是如果文件特别大的情况下就会很慢。如何快速读取?脑海里面"多线程"一下子就浮出水面了,想要快速读取文件,肯定得多线程一起读取。那问题来了,一个文件怎么样进行多线程读取,首先得知道每个线程要负责读取的位置,才可以多线程完整的读取一行的数据。

linux文件底层存储结构

在回答这个问题之前,我们先要了解一下linux操作系统底层是如何存储文件的,知道这个底层原理之后,我们才能更好的问答这个问题。

从上图我们可以看出,操作系统里面包含文件系统,可以快速根据文件路径定位到文件具体位置,文件本身并非直接存储在磁盘上面的,一个文件由很多块组成,根据不同的文件系统,每一个块的默认大小也都不一样,比如在 Windows 系统下,默认的 NTFS 文件系统的文件块大小为 4KB。

读取方案设计

想要最快速度读取文件里面的内容,无疑要用到多线程,那如何用多线程去读取文件呢?这也是有所讲究的,如果用错方法可能多线程的速度还不如单线程去获取。

按行多线程读取

直接读取文件的总行数,然后按照10个线程来计算,每一个线程要处理多少范围行数的数据,最后线程各自对同一份文件进行数据处理。

这种方案最大的问题就是忽略了各个线程在读取指定行数的复杂度,并非O(1)而是O(n),所以线程在读取文件的时候,检索数据这个过程会耗费一定时间,总体查询速度并不高,甚至可能比单线程更慢。

大转小后多线程读取

将大文件拆分为一个个小文件,然后多线程去读取各个小文件,这样速度会比读取一个大文件快很多,而且读取的程序也比较简单。

例如linux提供了split命令,可以按照行和字节进行拆分。但是不管是按照行或者字节,底层都是通过直接多线程读取文件块,来快速处理的。

split在按行拆分的情况下,如果要处理大量的文件,可以将每个文件拆分成若干个块,然后使用多线程来同时处理这些块,以提高拆分效率。每个线程读取一个块,处理完后,将结果保存到对应的输出文件中。

在按字节拆分的情况下,同样可以使用多线程来加快拆分速度。可以将文件划分为若干个块,每个线程读取一个块,然后根据指定的字节数进行拆分,并将结果保存到对应的输出文件中。

这种大文件转小文件,然后多线程读取的方式,如果是离线分析,那肯定是首选,但是如果是在线程序分析,将文件拆分再读取,过程会很繁琐,实现上面也比较复杂,也不是非常推荐这种方案。

多线程按块读取

获取文件的size,假如文件是10G,按照10线程,每一个线程负责1G范围的数据检索,例如线程1负责0指针位置的块,线程2负责1G指针位置块,到线程10负责9G指针位置块。

除了1线程,其它线程都从原本位置向前查找换行符,找到之后从当下位置开始,一直读取到2G位置的下一个换行符。这样就可以多线程快速的读取一个文件的数据,但是会有极少数数据的重复获取。

因为按照字节位置索引文件的复杂度是O(1),也就是知道文件的指针之后,可以马上读取该指针下的数据,这样可以避免第一种方案中需要遍历一遍文件内容,才能找到对应行的指针位置的问题。多线程按块读取方案相对上面两种,无疑是最快的一种方式。

复盘总结

其实多线程按块读取之后还可以继续优化,为什么呢?因为线程再多,最大的读取速度也受限于:文件所在机器的IO、应用机器和文件所在机器的网络、应用机器的IO这几方面,可以继续在这几方面优化。看似简单大文件读取操作,却涉及底层文件系统。所以处理问题或者设计方案,一定要多考虑几层,可以基于底层原理来设计方案,才是最可靠的。

超大CSV文件如何最快速度解析相关推荐

  1. Snapde和Excel、PowerPivot、WPS打开超大CSV文件性能比较

    Snapde,一个专门为编辑超大型数据量CSV文件而设计的单机版电子表格软件:它运行的速度非常快,反应非常灵敏. 我们拿四份文件进行测试,对比一下他们打开大文件的性能:loan_theme_ids.c ...

  2. python读取超大csv文件_python – 读取一个巨大的.csv文件

    我目前正试图从Python 2.7中的.csv文件读取数据,最多1百万行和200列(文件范围从100mb到1.6gb).我可以这样做(非常慢)对于300,000行以下的文件,但一旦我走上,我得到内存错 ...

  3. 读csv文件java_用Java读取CSV文件的最快方法

    我注意到在读取大文件(在我的例子中是csv文件)时使用java.util.Scanner非常慢. 我想改变当前读取文件的方式,以提高性能.下面是我目前所拥有的.请注意,我正在为Android开发:In ...

  4. java处理超大csv文件_比较 csv 文件中数据差异

    csv文件存储数据时在结构上基本和一个数据库表相当,不过因为读写方便,所以使用频率很高,例如输出一些临时结果,或者持续记录类似日志形式的数据.不过,当需要对这些数据进一步处理时,如果还要先导入数据库, ...

  5. 【Python】大数据存储技巧,快出csv文件10000倍!

    作者:杰少 大数据存储格式对比 简 介 在之前文章中,我们对比了在遇到大数据时,不同数据处理工具包的优劣, 是否拥有丰富的数据处理函数: 是否读取数据够快: 是否需要额外设备(例如GPU)的支持等等. ...

  6. linux用分割的csv文件读取,在Linux中将制表符分隔的文件转换为CSV的最快方法

    在Linux中将制表符分隔的文件转换为CSV的最快方法 我有一个制表符分隔的文件,其中包含超过2亿行. 在Linux中将其转换为CSV文件的最快方法是什么? 该文件的确包含多行标题信息,我需要将其删除 ...

  7. c++ 解析.csv文件(全)

    c++ 解析csv文件 一.项目要求: (1) 这个程序需要做到将csv文件的内容读取进来解析,并将每一个联系人的数据进行打印: (2) 用户输入排序的属性key,将排序完成的结果打印出来: (3) ...

  8. python读取超大csv

    <python读取超大csv>   现在工作中遇到的数据动辄千万或上亿的数据,其中图像数据是以 oss 链接的形式放入到 csv 中,csv文件所占磁盘空间一般就会20G起,所以直接读入内 ...

  9. excel如何打开100万行以上的csv文件

    excel如何打开100万行以上的csv文件_自由de单车的博客-CSDN博客_csv超过100万条用什么打开前言正常情况下,2007版本以上的excel打开的csv文件,最多只能显示1048576行 ...

最新文章

  1. select、poll、poll的比较(转)
  2. 文件系统磁盘管理(一)--文件系统
  3. ERROR 1093 解决方法
  4. LeetCode动态规划 使用最小花费爬楼梯
  5. jQuery 的各种练习
  6. phpcms父级调用二级子栏目名称和二级栏目文章 - 代码篇
  7. java创建一个单链表,接受输入的数据,并输出
  8. 世界多国语言代码及区域代码
  9. SSD网络结构优劣分析
  10. python3实战练习:快递价格计算器
  11. choco无法将choco识别_终于有个可以量产的法甜配方了,来自巴黎CHOCO(已打包可下载)...
  12. windows10、windows11、windows-server官方下载安装
  13. ip地址与long数值互相转换
  14. java流星雨代码_流星雨代码
  15. 车载诊断数据库ODX——ODX参数解析类型(上)
  16. 目前国内几大著名报表软件
  17. Python 选择与循环
  18. 行车路线(CCF201712-4)
  19. 如何用计算机模拟光的传播,一种模拟激光辐射颗粒的数值建模方法与流程
  20. 一个北大学子毕业后的感悟[转]

热门文章

  1. 《游戏改变世界》读后感
  2. 【C#】C#使用Microsoft.Office.Interop.Word操作Word文档,向表格插入图片
  3. 一篇文章理解 同步异步、阻塞非阻塞
  4. linux df-h命令详细,df命令 – 显示磁盘空间使用情况
  5. 【诗人艺术家ll著名诗人】胭脂茉莉的诗
  6. 爬虫获取代理IP并检验可用性与识别指纹
  7. 数据库| 删除数据库表
  8. 设计模式二:建造者模式
  9. 研究如何用.net控制门禁
  10. HIVE中,cluster by有什么意义