MySQL中实现大数据量的快速插入
一、SQL语句优化
1. 批量插入代替单条插入
- 单条插入会频繁触发事务提交和日志写入,效率极低。
- 批量插入通过合并多条数据为一条SQL语句,减少网络传输和SQL解析开销。
-- 低效写法:逐条插入
INSERT INTO table (col1, col2) VALUES (1, 'a');
INSERT INTO table (col1, col2) VALUES (2, 'b');-- 高效写法:批量插入
INSERT INTO table (col1, col2) VALUES 
(1, 'a'), (2, 'b'), (3, 'c'), ...;- 建议单次插入数据量:控制在 500~2000行(避免超出max_allowed_packet)。
2. 禁用自动提交(Autocommit)
- 默认情况下,每条插入都会自动提交事务,导致频繁的磁盘I/O。
- 手动控制事务,将多个插入操作合并为一个事务提交:
START TRANSACTION;
INSERT INTO table ...;
INSERT INTO table ...;
...
COMMIT;- 注意:事务过大可能导致 undo log膨胀,需根据内存调整事务批次(如每1万~10万行提交一次)。
3. **使用 LOAD DATA INFILE**
 
- 从文件直接导入数据,比 INSERT快 20倍以上,跳过了SQL解析和事务开销。
LOAD DATA LOCAL INFILE '/path/data.csv' 
INTO TABLE table
FIELDS TERMINATED BY ',' 
LINES TERMINATED BY '\n';- 适用场景:从CSV或文本文件导入数据。
4. 禁用索引和约束
- 插入前禁用索引(尤其是唯一索引和全文索引),插入完成后重建:
-- 禁用索引
ALTER TABLE table DISABLE KEYS;
-- 插入数据...
-- 重建索引
ALTER TABLE table ENABLE KEYS;- 禁用外键检查:
SET FOREIGN_KEY_CHECKS = 0;
-- 插入数据...
SET FOREIGN_KEY_CHECKS = 1;二、参数配置优化
1. InnoDB引擎参数调整
- **innodb_flush_log_at_trx_commit**:- 默认值为 1(每次事务提交都刷盘),改为0或2可减少磁盘I/O。
- 0:每秒刷盘(可能丢失1秒数据)。
- 2:提交时写入OS缓存,不强制刷盘。
 
- 默认值为 
- **innodb_buffer_pool_size**:- 增大缓冲池大小(通常设为物理内存的 70%~80%),提高数据缓存命中率。
 
- 增大缓冲池大小(通常设为物理内存的 
- **innodb_autoinc_lock_mode**:- 设为 2(交叉模式),减少自增锁竞争(需MySQL 8.0+)。
 
- 设为 
2. 调整网络和包大小
- **max_allowed_packet**:- 增大允许的数据包大小(默认 4MB),避免批量插入被截断。
 
- 增大允许的数据包大小(默认 
- **bulk_insert_buffer_size**:- 增大批量插入缓冲区大小(默认 8MB)。
 
- 增大批量插入缓冲区大小(默认 
3. 其他参数
- **back_log**:增大连接队列长度,应对高并发插入。
- **innodb_doublewrite**:关闭双写机制(牺牲数据安全换取性能)。
三、存储引擎选择
1. MyISAM引擎
- 优点:插入速度比InnoDB快(无事务和行级锁开销)。
- 缺点:不支持事务和崩溃恢复,适合只读或允许数据丢失的场景。
2. InnoDB引擎
- 优点:支持事务和行级锁,适合高并发写入。
- 优化技巧: - 使用 innodb_file_per_table避免表空间碎片。
- 主键使用自增整数(避免随机写入导致的页分裂)。
 
- 使用 
四、硬件和架构优化
1. 使用SSD硬盘
- 替换机械硬盘为SSD,提升I/O吞吐量。
2. 分库分表
- 将单表拆分为多个子表(如按时间或ID范围),减少单表压力。
- 使用中间件(如ShardingSphere)或分区表(PARTITION BY)。
3. 读写分离
- 主库负责写入,从库负责查询,降低主库压力。
4. 异步写入
- 将数据先写入消息队列(如Kafka),再由消费者批量插入数据库。
五、代码层面优化
1. 多线程并行插入
- 将数据分片,通过多线程并发插入不同分片。
- 注意:需确保线程间无主键冲突。
2. 预处理语句(Prepared Statements)
- 复用SQL模板,减少解析开销:
// Java示例
String sql = "INSERT INTO table (col1, col2) VALUES (?, ?)";
PreparedStatement ps = conn.prepareStatement(sql);
for (Data data : list) {ps.setInt(1, data.getCol1());ps.setString(2, data.getCol2());ps.addBatch();
}
ps.executeBatch();六、性能对比示例
| 优化方法 | 插入10万条耗时(秒) | 
|---|---|
| 逐条插入(默认) | 120 | 
| 批量插入(1000行/次) | 5 | 
| LOAD DATA INFILE | 1.5 | 
总结
- 核心思路:减少磁盘I/O、降低锁竞争、合并操作。
- 推荐步骤: - 优先使用 LOAD DATA INFILE或批量插入。
- 调整事务提交策略和InnoDB参数。
- 优化表结构(禁用非必要索引)。
- 根据硬件和场景选择存储引擎。
- 在架构层面分库分表或异步写入。
 
- 优先使用 
通过上述方法,可在MySQL中实现每秒数万甚至数十万条的高效插入。
