使用jdbc向数据库插入100000条记录,分别使用statement,PreparedStatement,及PreparedStatement+批处理3种方式进行测试:
//1.使用statement插入100000条记录
- public void exec(Connection conn){
- try {
- //开始时间
- Long beginTime = System.currentTimeMillis();
- //设置手动提交
- conn.setAutoCommit(false);
- Statement st = conn.createStatement();
- for(int i=0;i<100000;i++){
- String sql="insert into t1(id) values ("+i+")";
- st.executeUpdate(sql);
- }
- //结束时间
- Long endTime = System.currentTimeMillis();
- System.out.println("st:"+(endTime-beginTime)/1000+"秒");//计算时间
- st.close();
- conn.close();
- } catch (SQLException e) {
- e.printStackTrace();
- }
- }
public void exec(Connection conn){ try { //开始时间 Long beginTime = System.currentTimeMillis(); //设置手动提交 conn.setAutoCommit(false); Statement st = conn.createStatement(); for(int i=0;i<100000;i++){ String sql="insert into t1(id) values ("+i+")"; st.executeUpdate(sql); } //结束时间 Long endTime = System.currentTimeMillis(); System.out.println("st:"+(endTime-beginTime)/1000+"秒");//计算时间 st.close(); conn.close(); } catch (SQLException e) { e.printStackTrace(); } }
//2.使用PreparedStatement对象
- public void exec2(Connection conn){
- try {
- Long beginTime = System.currentTimeMillis();
- conn.setAutoCommit(false);//手动提交
- PreparedStatement pst = conn.prepareStatement("insert into t1(id) values (?)");
- for(int i=0;i<100000;i++){
- pst.setInt(1, i);
- pst.execute();
- }
- conn.commit();
- Long endTime = System.currentTimeMillis();
- System.out.println("pst:"+(endTime-beginTime)/1000+"秒");//计算时间
- pst.close();
- conn.close();
- } catch (SQLException e) {
- e.printStackTrace();
- }
- }
public void exec2(Connection conn){ try { Long beginTime = System.currentTimeMillis(); conn.setAutoCommit(false);//手动提交 PreparedStatement pst = conn.prepareStatement("insert into t1(id) values (?)"); for(int i=0;i<100000;i++){ pst.setInt(1, i); pst.execute(); } conn.commit(); Long endTime = System.currentTimeMillis(); System.out.println("pst:"+(endTime-beginTime)/1000+"秒");//计算时间 pst.close(); conn.close(); } catch (SQLException e) { e.printStackTrace(); } }
//3.使用PreparedStatement + 批处理
- public void exec3(Connection conn){
- try {
- conn.setAutoCommit(false);
- Long beginTime = System.currentTimeMillis();
- //构造预处理statement
- PreparedStatement pst = conn.prepareStatement("insert into t1(id) values (?)");
- //1万次循环
- for(int i=1;i<=100000;i++){
- pst.setInt(1, i);
- pst.addBatch();
- //每1000次提交一次
- if(i%1000==0){//可以设置不同的大小;如50,100,500,1000等等
- pst.executeBatch();
- conn.commit();
- pst.clearBatch();
- }
- }
- Long endTime = System.currentTimeMillis();
- System.out.println("pst+batch:"+(endTime-beginTime)/1000+"秒");
- pst.close();
- conn.close();
- } catch (SQLException e) {
- e.printStackTrace();
- }
- }
public void exec3(Connection conn){ try { conn.setAutoCommit(false); Long beginTime = System.currentTimeMillis(); //构造预处理statement PreparedStatement pst = conn.prepareStatement("insert into t1(id) values (?)"); //1万次循环 for(int i=1;i<=100000;i++){ pst.setInt(1, i); pst.addBatch(); //每1000次提交一次 if(i%1000==0){//可以设置不同的大小;如50,100,500,1000等等 pst.executeBatch(); conn.commit(); pst.clearBatch(); } } Long endTime = System.currentTimeMillis(); System.out.println("pst+batch:"+(endTime-beginTime)/1000+"秒"); pst.close(); conn.close(); } catch (SQLException e) { e.printStackTrace(); } }
在Oracle 10g中测试,结果:
1.使用statement 耗时142秒;
2.使用PreparedStatement 耗时56秒;
3.使用PreparedStatement + 批处理耗时:
a.50条插入一次,耗时5秒;
b.100条插入一次,耗时2秒;
c.1000条以上插入一次,耗时1秒;
通过以上可以得出结论,在使用jdbc大批量插入数据时,明显使用第三种方式(PreparedStatement + 批处理)性能更优。
-------------------------------------------------------------------------------------------------------------------------------
- /*
/*
- 普通方式处理大量数据的insert时,处理速度相当慢。
- */
- PreparedStatement ps = null;
- //循环10000次
- for(int i = 0; i < 100000; i++) {
- ps = con.prepareStatement(sql);
- ps.executeUpdate();
- }
普通方式处理大量数据的insert时,处理速度相当慢。 */ PreparedStatement ps = null; //循环10000次 for(int i = 0; i < 100000; i++) { ps = con.prepareStatement(sql); ps.executeUpdate(); }
/*
- 方法二:通过addBatch()的方式,将数据缓存在对象里面,通过最后执行executeBatch();方法提交,因此速度会快很多!
- */
- PreparedStatement ps = con.prepareStatement(sql);
- for(int i = 0; i < 100000; i++) {
- ps.setString(1, "1");
- ps.setString(2, "2");
- ps.addBatch();
- }
- ps.executeBatch();
- http://gooderlee.iteye.com/blog/1160949
相关推荐
Java向数据库中插入大量数据时的优化
”我做了什么读取一组测试分数,将每个分数处理到其分数,然后将更新的数据写入MySQL数据库表。 我使用提供的'scores.txt'测试用例作为程序的输入。 它在csv文件夹下提供。 'Coding_challenge.out'是从MySQL数据库...
它完全支持结构化查询语言(SQL),允许用户进行数据查询、插入、更新、删除、创建和管理数据库结构等操作。SQL标准的广泛支持使得MySQL易于学习,且与其他关系型数据库系统有良好的互操作性。 存储引擎 MySQL支持...
第一部分 ORACLE系统优化基本知识 23 第1章 ORACLE结构回顾 23 §1.1 Oracle数据库结构 23 §1.1.1 Oracle数据字典 23 §1.1.2 表空间与数据文件 24 §1.1.3 Oracle实例(Instance) 24 §1.2 Oracle文件 26 §1.2.1...
注重实战,通过实际中的案例为读者讲解使用MongoDB时遇到的各种问题,并给出了解决方案。本书旨在帮助云计算初学者迅速掌握MongoDB数据库,提升读者在云计算实践中的应用和开发能力。同时本书极强的系统性和大量翔实...
它完全支持结构化查询语言(SQL),允许用户进行数据查询、插入、更新、删除、创建和管理数据库结构等操作。SQL标准的广泛支持使得MySQL易于学习,且与其他关系型数据库系统有良好的互操作性。 存储引擎 MySQL支持...
它完全支持结构化查询语言(SQL),允许用户进行数据查询、插入、更新、删除、创建和管理数据库结构等操作。SQL标准的广泛支持使得MySQL易于学习,且与其他关系型数据库系统有良好的互操作性。 存储引擎 MySQL支持...
它完全支持结构化查询语言(SQL),允许用户进行数据查询、插入、更新、删除、创建和管理数据库结构等操作。SQL标准的广泛支持使得MySQL易于学习,且与其他关系型数据库系统有良好的互操作性。 存储引擎 MySQL支持...
它完全支持结构化查询语言(SQL),允许用户进行数据查询、插入、更新、删除、创建和管理数据库结构等操作。SQL标准的广泛支持使得MySQL易于学习,且与其他关系型数据库系统有良好的互操作性。 存储引擎 MySQL支持...
本书内容包括核心概念、Informix SQL、服务器管理、安装与维护、性能调整、应用程序开发、Web应用程序和对象关系式数据库等,所附光盘中有大量实用程序、白皮书和与书中内容有关的其他信息。还提供一些Web站点链接....
注重实战,通过实际中的案例为读者讲解使用MongoDB时遇到的各种问题,并给出了解决方案。本书旨在帮助云计算初学者迅速掌握MongoDB数据库,提升读者在云计算实践中的应用和开发能力。同时本书极强的系统性和大量翔实...
它完全支持结构化查询语言(SQL),允许用户进行数据查询、插入、更新、删除、创建和管理数据库结构等操作。SQL标准的广泛支持使得MySQL易于学习,且与其他关系型数据库系统有良好的互操作性。 存储引擎 MySQL支持...
它完全支持结构化查询语言(SQL),允许用户进行数据查询、插入、更新、删除、创建和管理数据库结构等操作。SQL标准的广泛支持使得MySQL易于学习,且与其他关系型数据库系统有良好的互操作性。 存储引擎 MySQL支持...
5. 选课请求压入MQ,异步执行,流量削峰,消费端消费选课信息,将结果写入数据库,结果写入数据库这一步采用事务机制,先插入结果,后减余量,减少事务期间锁持有时间,优化数据库读写性能 6. 返回执行成功标识,但...
有近20年使用Oracle技术产品以及Oracle数据库管理员/Oracle数据库应用管理员的经验,是真正应用集群、性能调优以及数据库内部属性方面的专家。同时是一位演讲家及Oracle ACE。 JARED STILL 从1994年就开始使用...
静态编译后的易语言EXE/DLL之间不能再共享譬如窗口、窗口组件等类似资源,对于已经静态连接到一个EXE/DLL中的支持库,该支持库中的数据或资源将不能再被其它EXE/DLL中所使用的同名支持库访问。这是因为代码被分别...
32、Redis 如何做大量数据插入? 33、为什么要做 Redis 分区? 34、你知道有哪些 Redis 分区实现方案? 35、Redis 分区有什么缺点? 36、Redis 持久化数据和缓存怎么做扩容? 37、分布式 Redis 是前期做还是后期规模...