MySQL批量千万级数据SQL插⼊性能优化细读
转⾃:blog.csdn/h330531987/article/details/76039795
对于⼀些数据量较⼤的系统,⾯临的问题除了查询效率低下,还有就是数据⼊库时间长。特别像报表系统,可能每天花费在数据导⼊上的时间就会长达⼏个⼩时之久。因此,优化数据库插⼊性能是很有意义的。
⽹络上的⽜⼈很多,总会有⼀些⼿段可以提⾼insert效率,⼤家跟我⼀起分享⼀下吧:
1. ⼀条SQL语句插⼊多条数据。
我们常⽤的插⼊语句⼤都是⼀条⼀个insert,如:
1. INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)
2.    VALUES ('0', 'userid_0', 'content_0', 0);
3. INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)
4.    VALUES ('1', 'userid_1', 'content_1', 1);
现在我们将它修改成:
1. INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)
2.    VALUES ('0', 'userid_0', 'content_0', 0), ('1', 'userid_1', 'content_1', 1);
【数据对⽐】
下⾯是⽹上⽜⼈提供⼀些对⽐数据,分别是进⾏单条数据的导⼊与转化成⼀条SQL语句进⾏导⼊,分别测试1百、1千、1万条数据记录。通过对⽐,可以发现修改后的插⼊操作能够提⾼程序的插⼊效率。
【缘由分析】
这⾥第⼆种SQL执⾏效率⾼的主要原因是合并后⽇志量(的binlog和innodb的事务让⽇志)减少了,降低⽇志刷盘的数据量和频率,从⽽提⾼效率。通过合并SQL语句,同时也能减少SQL语句解析的次数,减少⽹络传输的IO。
2. 在事务中进⾏插⼊处理。
在操作数据的时候,事务也是很常⽤的。现在我们把上⾯的插⼊语句修改成:
1. START TRANSACTION;
2. INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)
3.    VALUES ('0', 'userid_0', 'content_0', 0);
4. INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)
5.    VALUES ('1', 'userid_1', 'content_1', 1);
6. ...
7. COMMIT;
【数据对⽐】
这⾥也提供了测试对⽐,分别是不使⽤事务与使⽤事务在记录数为1百、1千、1万的情况。亦发现数据的插⼊效率提⾼了。
【缘由分析】
这是因为进⾏⼀个INSERT操作时,内部会建⽴⼀个事务,在事务内才进⾏真正插⼊处理操作。通过使⽤事务可以减少创建事务的消耗,所有插⼊都在执⾏后才进⾏提交操作。
3. 数据有序插⼊。
数据有序的插⼊是指插⼊记录在主键上是有序排列,例如datetime是记录的主键:
原始插⼊语句如下:
1. INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)
2.    VALUES ('1', 'userid_1', 'content_1', 1);
3. INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)
4.    VALUES ('0', 'userid_0', 'content_0', 0);
5. INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)
6.    VALUES ('2', 'userid_2', 'content_2',2);
修改成:
1. INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)
2.    VALUES ('0', 'userid_0', 'content_0', 0);
3. INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)
4.    VALUES ('1', 'userid_1', 'content_1', 1);
5. INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)
6.    VALUES ('2', 'userid_2', 'content_2',2);
【数据对⽐】
下⾯提供随机数据与顺序数据的性能对⽐,分别是记录为1百、1千、1万、10万、100万。从测试结果来看,该优化⽅法的性能有所提⾼,但是提⾼并不是很明显。
【缘由分析】
由于数据库插⼊时,需要维护索引数据,⽆序的记录会增⼤维护索引的成本。我们可以参照innodb使⽤的B+Tree 索引,如果每次插⼊记录都在索引的最后⾯,索引的定位效率很⾼,并且对索引调整较⼩;如果插⼊的记录在索引中间,需要B+tree进⾏分裂合并等处理,会消耗⽐较多计算资源,并且插⼊记录的索引定位效率会下降,数据量较⼤时会有频繁的磁盘操作。
性能综合测试:
这⾥提供了同时使⽤上⾯三种⽅法进⾏INSERT效率优化的测试。
从测试结果可以看到,合并数据+事务的⽅法在较⼩数据量时,性能提⾼是很明显的,数据量较⼤时(1千万以上),性能会急剧下降,这是由于此时数据量超过了innodb_buffer的容量,每次定位索引涉及较多的磁盘读写操作,性能下降较快。⽽使⽤合并数据+事务+有序数据的⽅式在数据量达到千万级以上表现依旧是良好,在数据量较⼤时,有序数据索引定位较为⽅便,不需要频繁对磁盘进⾏读写操作,所以可以维持较⾼的性能。
注意事项:
SQL语句是有长度限制,在进⾏数据合并在同⼀SQL中务必不能超过SQL长度限制,通过max_allowed_packet配置可以修sql优化的几种方式
改,默认是1M,测试时修改为8M。
事务需要控制⼤⼩,事务太⼤可能会影响执⾏的效率。MySQL有innodb_log_buffer_size配置项,超过这个值会把innodb
的数据刷到磁盘中,这时,效率会有所下降。所以⽐较好的做法是,在数据达到这个这个值前进⾏事务提交。

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。