目录

  1. 场景介绍
  2. 项目配置
  3. Mybatis为什么慢?
  4. JdbcTemplate让我眼前一亮
  5. 原生JDBC就是快啊!
  6. 存储过程怎么样?
  7. 越简单越快

前言

一直有一种说法:批量插入大量数据到MySQL数据库,不要使用Mybatis、Hibernate之类的ORM框架,原因一般都是说性能不好,至于为什么不好好像没几个人能讲清楚的。

批量插入大量数据最优的方式是什么?网上也是众说纷纭。不如自己动手测试一下吧!

场景介绍

前几天公司项目进行压力测试,测试某个功能在大数据量(千万级)的情况下是否能够正常运行,可是项目还没有正式上线运营,数据库里只有少量开发时用的假数据。

没有数据怎么测试啊?这可愁坏测试的小姐姐们了,向我求助让我尽快往数据库中导入1000万数据给她们测试用。

于是接到任务:快速往MySQL数据库中导入1000万数据

项目配置

啥也不说了,抓紧时间开搞!

首先交代一下电脑环境:

  • 操作系统:WIN10(专业版)
  • 开发工具:IntelliJ IDEA Ultimate(2019.2.1)
  • 项目框架:Spring Boot(2.2.5.RELEASE)
  • 数据库:MySQL(5.7.27)

项目配置步骤:

  1. 使用IDEA的Spring Initializr插件新建Spring Boot的项目,打开pom.xml,添加一些必要的Maven依赖,主要是mybatis-spring-boot-starter和mysql-connector-java;
  1. MySQL中新建一张user表,为了方便演示只保留id、昵称、年龄3个字段,建表语句;
  1. 再次打开pom.xml文件,添加mybatis generator插件用于自动生成mapper映射文件;
  1. 上一步添加了mybatis generator插件之后还不能直接使用,还需要在项目resources目录下新建一个配置文件generatorConfig.xml,里面主要需要配置数据库连接信息、Model文件生成目录、Mapper文件生成目录、以及xml文件生成目录;
  1. 打开resources目录下的application.properties(或是application.yml)文件,添加一下mybatis相关配置和项目数据库连接配置;
  1. 展示一下项目的完整结构

Mybatis为什么慢?

首先我们用Mybatis来测试一下,看看插入1000万条数据需要多长时间。

实现步骤:

  1. 在UserMapper.java和UserMapper.xml文件中实现批量插入方法;
  1. 新建一个Test测试类实现随机生成1000万用户记录,并调用上步已经实现的批量插入方法将数据插入到MySQL数据库;

接下来就是正式测试了,没想到中间出了不少问题,在这里说明一下并附上解决方案。

问题一:Java堆内存爆了!

原因分析:由于要生成1000万条用户记录,需要申请大量Java的堆内存,已经超出JVM设置的最大堆内存大小,导致OutOfMemoryError报错:

解决办法:增加堆内存。

JVM设置堆内存有两个参数:

  1. -Xms 用于设置堆内存初始值,一般建议设置为和最大值一样;
  2. -Xmx 用于设置堆内存最大值,默认值为物理内存的1/4;

因为我的电脑是32G内存,也就是说默认最大堆内存有8G,8G都不够的话,那我直接来个20G试试,IDEA菜单栏依次打开Run -> Edit Configurations:

修改步骤:

  1. 选中我们的测试类
  2. 在右边找到VM options选项,输入-Xms20480m -Xmx20480m

问题二:MySQL报错:Packet for query is too large

原因分析:因为发送到MySQL的数据量过大,超出了设置的最大值,导致报错:

解决方案:修改MySQL服务器max_allowed_packet属性。

修改步骤:

  1. 直接在MySQL安装目录下找到my.ini文件,在[mysqld]下面添加一行max_allowed_packet = 4G
  1. 通过MySQL客户端工具修改,这里以我常用的MySQL Workbench客户端来修改,菜单栏找到Server -> Options File,点击切换Networking标签:

Tip:不论哪种方式,修改完都要记得重启MySQL,否则修改不生效哦。

我们来看下执行结果:

结果:

使用Mybatis插入1000万条数据到MySQL数据库共花费了199.8秒

这结果是快还是慢?我们来具体分析一下耗时分布情况。

分析:

方法:

JDBC驱动中有一个profileSQL属性,可以跟踪记录SQL执行时间,附上官方文档介绍:

所以我们需要将数据库连接加上profileSQL=true属性。

再次看下执行结果:

其中,duration指的是SQL执行的时间,也就是说MySQL服务器执行具体SQL语句的时间其实只有82.3秒,我们上面统计到Mybatis插入1000万条数据花了近200秒的时间,那么这中间的100多秒都干嘛去了?

分析控制台输出的日志之后我发现了蹊跷所在:从程序调用Mybatis的批量插入方法开始,到MySQL服务器执行SQL,这中间正好差了100多秒,会是巧合吗?

打断点Debug追踪到Mybatis解析SQL语句的方法:

这parse方法首先会读取我们xml文件里的SQL模版拿到参数及参数类型信息,拼接生成SQL语句。

每条数据循环一次,那1000W条数据就要循环解析1000万次,不慢才怪!

JdbcTemplate让我眼前一亮

接下来使用Spring框架的JdbcTemplate来测试一下。

实现步骤:

  1. 同样的我们新建一个测试类,并用JdbcTemplate实现一个批量插入方法;

接下来就可以开始测试了,果然中间又出现了了问题。

问题一:调用JdbcTemplate的batchUpdate批量操作方法,结果却一条条的插数据?

首先看下控制台输出日志:

可以看到JdbcTemplate是将我们的数据一条条的发送到MySQL服务器的,每个插入耗时1毫秒,那么1秒钟可以插入1000条记录,那么1000万条数据就需要10000秒,大约需要2.78个小时。

原因分析:JDBC驱动默认不支持批量操作,会将SQL语句分拆再一条条发往MySQL服务器执行,打断点跟踪一下代码,看看是不是这样:

分析一下代码:

  • 首先执行步骤1判断rewriteBatchedStatements属性,为false的话直接执行步骤5的逻辑:串行执行SQL语句,也就是一条条顺序执行;
  • 如果rewriteBatchedStatements为true,那么首先会执行步骤2:判断是否为insert语句,结果为true则会改写SQL执行批量插入操作;
  • 如果不是insert语句,再继续根据JDBC驱动版本以及数据量大小判断是否需要执行批量操作;

Tip:对于非insert的批量操作语句,如果数据量小于3条,那也只会一条条顺序执行,不会进行合并批量执行。

附上rewriteBatchedStatements官方文档:

大概看了一下,跟我们上面分析的一样,标示是否让JDBC驱动使用批量模式去改写SQL语句。

解决方案:数据库连接上加上rewriteBatchedStatements=true属性,开启批量操作支持。

再次看下执行结果:

结果:

使用JdbcTemplate插入1000万条数据到MySQL数据库共花费了80.1秒

分析:

一开始由于没有开启批量操作支持,所以导致MySQL只能一条条插入数据,原因在于我对JDBC驱动不够了解,看来以后还得加强学习。

开启批量操作支持后,通过日志可以观察到真正的SQL执行时间只有67.9秒,但整个插入操作用了80.1秒,中间差的10多秒中应该就是消耗在了改写SQL语句上了。

总得来说,JdbcTemplate批量插入大量数据的效率还不错,让我有眼前一亮的感觉。

原生JDBC就是快啊!

早有耳闻批量插入大量数据必须使用原生JDBC,百闻不如一见,接下来我就使用原生JDBC的方式来测试一下。

实现步骤:

  1. 同样的,我们新建一个测试类,并使用原生JDBC的方式实现一个批量插入方法;

接下来就可以测试了,别担心,这次肯定不会再出问题了。

来看下执行结果:

结果:使用原生JDBC的方式插入1000万条数据到MySQL数据库共花费了58.9秒

分析:

原生JDBC写起来还是既简单又舒适啊,都多少年没写过了,但是越是简单的东西它越好用。

通过输出日志,我们可以看到整个方法执行时间为58.9秒,而SQL真正的执行时间为46.8秒,中间同样相差了10多秒,同样也是花在了改写SQL语句上,这一结果正好与上面JdbcTemplate的执行结果互相佐证,证明了我们的分析是正确的。

存储过程行不行?

最后使用存储过程的方式来试一下,说实话工作以来很少写存储过程,只好临时恶补了一波知识。

实现步骤:

  1. 首先编写批量插入的存储过程,功能其实很简单,接收一个外部传入的表示循环次数的参数,进行循环插入数据;

接下来我们调用存储过程,执行命令:

CALL batchInsert(10000000);

等待执行完成,看下耗时情况:

结果:

调用存储过程向MySQL数据库中批量插入1000万数据需要141.1秒

分析:

存储过程需要141.1秒的时间我还是比较惊讶的,本来我对存储过程还是比较期待的。

仔细想想,其实存储过程用在这个场景并没有发挥出它的优势,时间长点也不奇怪。

为什么这么说?

首先我们来看看存储过程的一些特点:

  1. 可以封装一些复杂的业务逻辑,外部直接调用存储过程即可;
  2. 存储过程只在创建时编译一次,以后每次执行存储过程都不需再重新编译,使用存储过程可提高执行速度;
  3. 将操作直接放到数据库端执行,可以减少客户端与服务端进行网络通讯开销,提高通信效率;

其次我们再来看看存储过程用在我们场景是否合适:

  1. 我们使一次性提交所有数据,所以不存在多次通信增加耗时的操作,在这里存储过程的优势没有发挥出来;
  2. 在存储过程的insert语句中,我们使用了concat函数来拼接字符串,函数运算会降低SQL执行效率;

所以说存储过程在我们这个业务场景并没有发挥出它的优势。

越简单越快

面对快速往MySQL数据库中导入1000万数据这个问题,我们通过MybatisJdbcTemplate原生JDBC以及存储过程4种方式分别进行测试,得出了最终结果:

插入速度:原生JDBC > JdbcTemplate > 存储过程 > Mybatis

结果分析:

Mybatis由于封装程度较高,底层有一个SQL模版解析和SQL拼接的过程,所以导致速度较慢;

存储过程一来由于本应用场景不太适合没有发挥出优势,二来由于SQL语句中加入了函数运算拖累了执行效率;

JdbcTemplate是Spring框架为了方便开发者调用对原生JDBC的一个轻度封装,虽然有点小插曲,但整体来看插入效率还可以;

原生JDBC是最最最基础的插入方式了,每个人刚学Java的时候应该都学过,没有过多花里胡哨的封装,简单实用。

总结:

越简单越实用,原生JDBC第一名实至名归!

“分享干货,收获快乐”

我是萌新程序员小哥,喜欢我的文章欢迎 转发 及 关注,我会经常与大家分享工作当中的实用技巧与经验。

java sql 写入万条数据_如何快速向数据库插1000万数据?4种方法对比,它简单却速度最快相关推荐

  1. 如何快速向数据库插1000万数据?4种方法对比,它简单却速度最快

    前言 一直有一种说法:批量插入大量数据到MySQL数据库,不要使用Mybatis.Hibernate之类的ORM框架,原因一般都是说性能不好,至于为什么不好好像没几个人能讲清楚的. 批量插入大量数据最 ...

  2. java mysql 快速插入1000w条数据_教你88秒插入1000万条数据到mysql数据库表

    我用到的数据库为,mysql数据库5.7版本的 1.首先自己准备好数据库表 其实我在插入1000万条数据的时候遇到了一些问题,现在先来解决他们,一开始我插入100万条数据时候报错,控制台的信息如下: ...

  3. mysql更新10000条记录_如何快速更新数据库中的百万条数据

    环境:ubuntu 14.04,MySQL 5.6,Python 2.7. 本文使用python的MySQLdb这个库,MySQL Python tutorial这个教程很赞. MySQLDBdb处理 ...

  4. 我的世界java版怎么破地狱基岩_我的世界:可以破坏基岩的四种方法,新手只知道两种,大神全知道...

    你热爱生命吗?那么别浪费时间,因为时间是组成生命的材料.----富兰克林.Hi大家好!我是小编索菲亚的复苏,很高兴和大家又见面啦,祝大家心情愉快.大家都知道,基岩是在<我的世界>最底层的极 ...

  5. mysql如何快速插入一千万条数据_如何快速安全的插入千万条数据?

    最近有个需求解析一个订单文件,并且说明文件可达到千万条数据,每条数据大概在20个字段左右,每个字段使用逗号分隔,需要尽量在半小时内入库. 思路 1.估算文件大小 因为告诉文件有千万条,同时每条记录大概 ...

  6. mysql怎样循环插入数据_你向 Mysql 数据库插入 100w 条数据用了多久?

    多线程插入(单表) 多线程插入(多表) 预处理SQL 多值插入SQL 事务(N条提交一次) 多线程插入(单表) 问:为何对同一个表的插入多线程会比单线程快?同一时间对一个表的写操作不应该是独占的吗? ...

  7. 大量表格数据(>10万条)使用PLSQL快速导入Oracle

    大量表格数据(>10万条)使用PLSQL快速导入Oracle 数据预处理 创建对应的表结构 打开PLSQL的文本导入器工具 1.打开plsql-->工具-->文本导入器,点击文本导入 ...

  8. matlab输入excel高版本,『matlab读取excel指定列』excel中大量数据如何导入matlab当中?超过1000个数据无法一个一个输入...

    如何将excel表格中大量数据导入matlab中并作图 哈哈,选我吧!使用xlsread函数体的语法你在帮助里面搜索xlsread就可以了.我要是现在回答也接翻译帮助文件.xlsread的参数有文件表 ...

  9. 力控数据写入mysQL_绝对干货,教你4分钟插入1000万条数据到mysql数据库表,快快进来...

    我用到的数据库为,mysql数据库5.7版本的 1.首先自己准备好数据库表 其实我在插入1000万条数据的时候遇到了一些问题,现在先来解决他们,一开始我插入100万条数据时候报错,控制台的信息如下: ...

最新文章

  1. TCP/IP详解--学习笔记(8)-DNS域名系统
  2. Spring Redis中使用Lua脚本实现高并发原子操作
  3. mysql load data infile 重写_mysql load data infile 命令的数据导入
  4. Qt使用udp的Broadcast实现广播图片
  5. [HAOI2012]高速公路
  6. U盘的用法用途与维护
  7. 多视角子空间学习系列之 MCCA (Multi-view CCA) 多视角CCA Horst算法
  8. jquery ajax 详细教程视频,Ajax+jquery基础与提升2017视频教程
  9. 桌面上计算机图标老是自动删除,win10系统总是自动删除桌面快捷方式的处理方案...
  10. keyshot渲染图文教程_keyshot基础图文教程,手把手教你用keyshot制作动画效果
  11. 基站定位查询api使用接口
  12. 傅里叶变换、拉普拉斯变换、z变换之间的联系
  13. 计算机网络icmp实验,北航研究生计算机网络实验_实验三 网络层实验
  14. 【总结】背包问题的至多/恰好/至少
  15. 最新2022财报,亚信科技稳步转型
  16. Matlab中的while循环
  17. Coding git@e.coding.net: Permission denied (publickey)
  18. 串口通信数据格式与解析
  19. linux 版本的选择,以及如何查看linux版本
  20. Pyinstaller - 你的“神”队友

热门文章

  1. nginx documentation | Development guide
  2. Linux设备驱动与整个软硬件系统的关系
  3. 51单片机8X8点阵滚动显示温度--C51源代码
  4. Django:ORM模型类,字段选项,Meta内部类,常见问题处理
  5. python mock接口怎么用_python接口自动化测试 - mock模块基本使用介绍
  6. 成功运行官方Tensorflow Android的demo的过程
  7. NestedScrollView、RecycleView、ViewPager 嵌套常见问题
  8. python 状态机第三方库_Python 状态机 - osc_8g11urw7的个人空间 - OSCHINA - 中文开源技术交流社区...
  9. java行转列_最近面试 Java 后端开发的感受!
  10. 函数 单片机glint_PIC单片机CCS之C语言(#BIT的用法)