这几天研究mysql优化中查询效率时,发现测试的数据太少(10万级别),利用 EXPLAIN 比较不同的 SQL 语句,不能够得到比较有效的测评数据,大多模棱两可,不敢通过这些数据下定论。

所以通过随机生成人的姓名、年龄、性别、电话、email、地址 ,向mysql数据库大量插入数据,便于用大量的数据测试 SQL 语句优化效率。、在生成过程中发现使用不同的方法,效率天差万别。

1、先上Mysql数据库,随机生成的人员数据图。分别是ID、姓名、性别、年龄、Email、电话、住址。

下图一共三千三百万数据:

在数据量在亿级别时,别点下面按钮,会导致Navicat持续加载这亿级别的数据,导致电脑死机。~觉着自己电脑配置不错的可以去试试,可能会有惊喜

2、本次测评一共通过三种策略,五种情况,进行大批量数据插入测试

策略分别是:

  • Mybatis 轻量级框架插入(无事务)

  • 采用JDBC直接处理(开启事务、无事务)

  • 采用JDBC批处理(开启事务、无事务)

测试结果:

Mybatis轻量级插入 -> JDBC直接处理 -> JDBC 批处理。

JDBC 批处理,效率最高

第一种策略测试:

2.1 Mybatis 轻量级框架插入(无事务)

Mybatis是一个轻量级框架,它比hibernate轻便、效率高。

但是处理大批量的数据插入操作时,需要过程中实现一个ORM的转换,本次测试存在实例,以及未开启事务,导致mybatis效率很一般。

这里实验内容是:

  • 利用Spring框架生成mapper实例、创建人物实例对象

  • 循环更改该实例对象属性、并插入。

//代码内无事务private long begin = 33112001;//起始idprivate long end = begin+100000;//每次循环插入的数据量private String url = "jdbc:mysql://localhost:3306/bigdata?useServerPrepStmts=false&rewriteBatchedStatements=true&useUnicode=true&amp;characterEncoding=UTF-8";private String user = "root";private String password = "0203";@org.junit.Testpublic void insertBigData2(){//加载Spring,以及得到PersonMapper实例对象。这里创建的时间并不对最后结果产生很大的影响ApplicationContext context = new ClassPathXmlApplicationContext("applicationContext.xml");PersonMapper pMapper = (PersonMapper) context.getBean("personMapper");//创建一个人实例Person person = new Person();//计开始时间long bTime = System.currentTimeMillis();//开始循环,循环次数500W次。for(int i=0;i<5000000;i++){//为person赋值person.setId(i);person.setName(RandomValue.getChineseName());person.setSex(RandomValue.name_sex);person.setAge(RandomValue.getNum(1, 100));person.setEmail(RandomValue.getEmail(4,15));person.setTel(RandomValue.getTel());person.setAddress(RandomValue.getRoad());//执行插入语句pMapper.insert(person);begin++;}//计结束时间long eTime = System.currentTimeMillis();System.out.println("插入500W条数据耗时:"+(eTime-bTime));}

本想测试插入五百万条数据,但是实际运行过程中太慢,中途不得不终止程序。最后得到52W数据,大约耗时两首歌的时间(7~9分钟)。随后,利用mybatis向mysql插入10000数据。

结果如下:

利用mybatis插入 一万 条数据耗时:28613,即28.6秒

第二种策略测试:

2.2 采用JDBC直接处理(开启事务、关闭事务)

采用JDBC直接处理的策略,这里的实验内容分为开启事务、未开启事务是两种,过程均如下:

  • 利用PreparedStatment预编译

  • 循环,插入对应数据,并存入

事务对于插入数据有多大的影响呢? 看下面的实验结果:

//该代码为开启事务private long begin = 33112001;//起始idprivate long end = begin+100000;//每次循环插入的数据量private String url = "jdbc:mysql://localhost:3306/bigdata?useServerPrepStmts=false&rewriteBatchedStatements=true&useUnicode=true&amp;characterEncoding=UTF-8";private String user = "root";private String password = "0203";@org.junit.Testpublic void insertBigData3() {//定义连接、statement对象Connection conn = null;PreparedStatement pstm = null;try {//加载jdbc驱动Class.forName("com.mysql.jdbc.Driver");//连接mysqlconn = DriverManager.getConnection(url, user, password);//将自动提交关闭conn.setAutoCommit(false);//编写sqlString sql = "INSERT INTO person VALUES (?,?,?,?,?,?,?)";//预编译sqlpstm = conn.prepareStatement(sql);//开始总计时long bTime1 = System.currentTimeMillis();//循环10次,每次一万数据,一共10万for(int i=0;i<10;i++) {//开启分段计时,计1W数据耗时long bTime = System.currentTimeMillis();//开始循环while (begin < end) {//赋值pstm.setLong(1, begin);pstm.setString(2, RandomValue.getChineseName());pstm.setString(3, RandomValue.name_sex);pstm.setInt(4, RandomValue.getNum(1, 100));pstm.setString(5, RandomValue.getEmail(4, 15));pstm.setString(6, RandomValue.getTel());pstm.setString(7, RandomValue.getRoad());//执行sqlpstm.execute();begin++;}//提交事务conn.commit();//边界值自增10Wend += 10000;//关闭分段计时long eTime = System.currentTimeMillis();//输出System.out.println("成功插入1W条数据耗时:"+(eTime-bTime));}//关闭总计时long eTime1 = System.currentTimeMillis();//输出System.out.println("插入10W数据共耗时:"+(eTime1-bTime1));} catch (SQLException e) {e.printStackTrace();} catch (ClassNotFoundException e1) {e1.printStackTrace();}}

1、我们首先利用上述代码测试无事务状态下,插入10W条数据需要耗时多少。

如图:

成功插入1W条数据耗时:21603
成功插入1W条数据耗时:20537
成功插入1W条数据耗时:20470
成功插入1W条数据耗时:21160
成功插入1W条数据耗时:23270
成功插入1W条数据耗时:21230
成功插入1W条数据耗时:20372
成功插入1W条数据耗时:22608
成功插入1W条数据耗时:20361
成功插入1W条数据耗时:20494
插入10W数据共耗时:212106

实验结论如下:

在未开启事务的情况下,平均每 21.2 秒插入 一万 数据。

接着我们测试开启事务后,插入十万条数据耗时,如图:

成功插入1W条数据耗时:4938
成功插入1W条数据耗时:3518
成功插入1W条数据耗时:3713
成功插入1W条数据耗时:3883
成功插入1W条数据耗时:3872
成功插入1W条数据耗时:3873
成功插入1W条数据耗时:3863
成功插入1W条数据耗时:3819
成功插入1W条数据耗时:3933
成功插入1W条数据耗时:3811
插入10W数据共耗时:39255

实验结论如下:

开启事务后,平均每 3.9 秒插入 一万 数据

第三种策略测试:

2.3 采用JDBC批处理(开启事务、无事务)

采用JDBC批处理时需要注意一下几点:

1、在URL连接时需要开启批处理、以及预编译

String url = “jdbc:mysql://localhost:3306/User?rewriteBatched
-Statements=true&useServerPrepStmts=false”;

2、PreparedStatement预处理sql语句必须放在循环体外

代码如下:

private long begin = 33112001;//起始id
private long end = begin+100000;//每次循环插入的数据量
private String url = "jdbc:mysql://localhost:3306/bigdata?useServerPrepStmts=false&rewriteBatchedStatements=true&useUnicode=true&amp;characterEncoding=UTF-8";
private String user = "root";
private String password = "0203";@org.junit.Test
public void insertBigData() {//定义连接、statement对象Connection conn = null;PreparedStatement pstm = null;try {//加载jdbc驱动Class.forName("com.mysql.jdbc.Driver");//连接mysqlconn = DriverManager.getConnection(url, user, password);//将自动提交关闭// conn.setAutoCommit(false);//编写sqlString sql = "INSERT INTO person VALUES (?,?,?,?,?,?,?)";//预编译sqlpstm = conn.prepareStatement(sql);//开始总计时long bTime1 = System.currentTimeMillis();//循环10次,每次十万数据,一共1000万for(int i=0;i<10;i++) {//开启分段计时,计1W数据耗时long bTime = System.currentTimeMillis();//开始循环while (begin < end) {//赋值pstm.setLong(1, begin);pstm.setString(2, RandomValue.getChineseName());pstm.setString(3, RandomValue.name_sex);pstm.setInt(4, RandomValue.getNum(1, 100));pstm.setString(5, RandomValue.getEmail(4, 15));pstm.setString(6, RandomValue.getTel());pstm.setString(7, RandomValue.getRoad());//添加到同一个批处理中pstm.addBatch();begin++;}//执行批处理pstm.executeBatch();//提交事务//        conn.commit();//边界值自增10Wend += 100000;//关闭分段计时long eTime = System.currentTimeMillis();//输出System.out.println("成功插入10W条数据耗时:"+(eTime-bTime));}//关闭总计时long eTime1 = System.currentTimeMillis();//输出System.out.println("插入100W数据共耗时:"+(eTime1-bTime1));} catch (SQLException e) {e.printStackTrace();} catch (ClassNotFoundException e1) {e1.printStackTrace();}
}

首先开始测试

无事务,每次循环插入10W条数据,循环10次,一共100W条数据。

结果如下图:

成功插入10W条数据耗时:3832
成功插入10W条数据耗时:1770
成功插入10W条数据耗时:2628
成功插入10W条数据耗时:2140
成功插入10W条数据耗时:2148
成功插入10W条数据耗时:1757
成功插入10W条数据耗时:1767
成功插入10W条数据耗时:1832
成功插入10W条数据耗时:1830
成功插入10W条数据耗时:2031
插入100W数据共耗时:21737

实验结果:

使用JDBC批处理,未开启事务下,平均每 2.1 秒插入 十万 条数据

接着测试

开启事务,每次循环插入10W条数据,循环10次,一共100W条数据。

结果如下图:

成功插入10W条数据耗时:3482
成功插入10W条数据耗时:1776
成功插入10W条数据耗时:1979
成功插入10W条数据耗时:1730
成功插入10W条数据耗时:1643
成功插入10W条数据耗时:1665
成功插入10W条数据耗时:1622
成功插入10W条数据耗时:1624
成功插入10W条数据耗时:1779
成功插入10W条数据耗时:1698
插入100W数据共耗时:19003

实验结果:

使用JDBC批处理,开启事务,平均每 1.9 秒插入 十万 条数据

3 总结

能够看到,在开启事务下 JDBC直接处理 和 JDBC批处理 均耗时更短。

  • Mybatis 轻量级框架插入 , mybatis在我这次实验被黑的可惨了,哈哈。实际开启事务以后,差距不会这么大(差距10倍)。大家有兴趣的可以接着去测试

  • JDBC直接处理,在本次实验,开启事务和关闭事务,耗时差距5倍左右,并且这个倍数会随着数据量的增大而增大。因为在未开启事务时,更新10000条数据,就得访问数据库10000次。导致每次操作都需要操作一次数据库。

  • JDBC批处理,在本次实验,开启事务与关闭事务,耗时差距很微小(后面会增加测试,加大这个数值的差距)。但是能够看到开启事务以后,速度还是有提升。

结论:设计到大量单条数据的插入,使用JDBC批处理和事务混合速度最快

实测使用批处理+事务混合插入1亿条数据耗时:174756毫秒

4 补充

JDBC批处理事务,开启和关闭事务,测评插入20次,一次50W数据,一共一千万数据耗时:

1、开启事务(数据太长不全贴了)

插入1000W数据共耗时:197654

2、关闭事务(数据太长不全贴了)

插入1000W数据共耗时:200540

还是没很大的差距~

借用:

分别是:

  • 不用批处理,不用事务;

  • 只用批处理,不用事务;

  • 只用事务,不用批处理;

  • 既用事务,也用批处理;(很明显,这个最快,所以建议在处理大批量的数据时,同时使用批处理和事务)

来源:blog.csdn.net/q6834850/article/details/73726707

【热门内容】

利用注解 + 反射消除重复代码,妙!

公司把自家运营多年的核心系统(智慧系统)完全开源了

Nacos 2.1.0 正式发布!堪称最强!

SpringBoot实现人脸识别功能,亲测可用!

JetBrains 宣布:IntelliJ 平台彻底停用 Log4j 组件

最新 955 不加班的公司名单

一键生成Springboot & Vue项目!【私活神器】

秒懂 23 种设计模式!有点污,但真得秒啊...

求求你别再手动部署jar包了,太low了!

300多本程序员经典技术书籍高清PDF
加我微信,备注:资料扫码备注:资料,自动获取

面试官:1亿条数据批量插入 MySQL,哪种方式最快?相关推荐

  1. 1亿条数据批量插入 MySQL,哪种方式最快?

    这几天研究mysql优化中查询效率时,发现测试的数据太少(10万级别),利用 EXPLAIN 比较不同的 SQL 语句,不能够得到比较有效的测评数据,大多模棱两可,不敢通过这些数据下定论. 所以通过随 ...

  2. 1亿条数据批量插入 MySQL,哪种方式最快

    利用JAVA向Mysql插入一亿数量级数据-效率测评 这几天研究mysql优化中查询效率时,发现测试的数据太少(10万级别),利用 EXPLAIN 比较不同的 SQL 语句,不能够得到比较有效的测评数 ...

  3. jdbc批量插入的4种方式【百万条数据插入只需几秒】

    mysql数据库准备 #打开数据库test01; use test01; #创建表a,表a包含int型的id列.可变长度型的name[长度20个字符] create table a (id INT,N ...

  4. 每日定点将excel数据批量插入mysql数据库对应表

    最近在研究利用Metabase+MySQL实现excel数据的页面呈现,但excel数据每天需要手工上传真的很烦人,所以在网上参考各路大神,用Python实现了excel数据的每日自动上传至MySQL ...

  5. MyBatis批量插入的五种方式

    MyBatis利用For循环批量插入 MyBatis的手动批量提交 MyBatis以集合方式批量新增(推荐) MyBatis-Plus提供的SaveBatch方法 MyBatis-Plus提供的Ins ...

  6. 实战演练 | 批量插入的三种方式

    最近,我写了一个 node.js 脚本,每天要循环访问数百万个文件,并将其内容插入 MySQL 数据库.该脚本不是一次处理一条记录,而是将文件内容存储在内存中,然后每 1000 个文件运行一次 INS ...

  7. 【020期】面试官问:Java 遍历 Map 集合有几种方式?效率如何?

    >>号外:关注"Java精选"公众号,回复"2021面试题",领取免费资料!"Java精选面试题"小程序,3000+ 道面试题在 ...

  8. mybatis中批量插入的两种方式(高效插入)

    MyBatis简介 MyBatis是一个支持普通SQL查询,存储过程和高级映射的优秀持久层框架.MyBatis消除了几乎所有的JDBC代码和参数的手工设置以及对结果集的检索封装.MyBatis可以使用 ...

  9. mybatis 批量插入的两种方式

    2019独角兽企业重金招聘Python工程师标准>>> 一.mybiats foreach标签 foreach的主要用在构建in条件中,它可以在SQL语句中进行迭代一个集合.fore ...

最新文章

  1. SpringBoot基于AOP实现自定义非空验证的注解
  2. 2.5.3 工作日处理函数(自定义节假日).sql
  3. SPI 的主模式和从模式
  4. mysql数据库自动转储_mysql数据库数据定时封装转储
  5. 学习:erlang开源项目。
  6. 【线上直播】Xilinx U30 视频转码 + AI 的应用技术实践
  7. 【前缀和】【DP】登机(jzoj 5535)
  8. JS 实现 jQuery的$(function(){});
  9. python循环绘制六角星_《Python游戏趣味编程》 第3章 美丽的圆圈画
  10. 离散数学之主析取范式,主合取范式
  11. 利用python进行回归分析
  12. pythonpandas入门_pyhton pandas数据分析基础入门(一文看懂pandas)
  13. 关于基向量的理解和矩阵的推导
  14. linux翻页查看,【转载】linux-查看日志
  15. 尊重钟南山,但请也给我们哀悼科比
  16. 一文搞懂什么是遗传算法Genetic Algorithm【附应用举例】
  17. 《影响力》 -- 人类的心理行为模式
  18. 【小白学Java】D20》》》Iterator迭代器 增强for循环
  19. IOS数据库操作SQLite3使用详解
  20. Python——定义全局变量

热门文章

  1. C盘与D盘空间的扩充
  2. Java根据子节点递归父节点
  3. leyou商城day5 商品管理
  4. Android 在部分华为手机上出现乱码的问题
  5. JSON 命令行工具
  6. python掷两个骰子的和_python对2个六边形骰子掷骰的仿真之和
  7. 学习笔记-echarts实现数据下钻
  8. antd 中 Upload 上传图片宽高限制以及上传文件的格式限制
  9. Deflater与Inflater的压缩与解压缩
  10. 计算机在职考研怎么考,【计算机在职研究生】计算机考研考在职有用吗?