前言
今天要讨论一个让无数人抓狂的话题:如何高效导入百万级 Excel 数据。
去年有家公司找到我,他们的电商系统遇到一个致命问题:每天需要导入 20 万条商品数据,但一执行就卡死,最长耗时超过 3 小时。
更魔幻的是,重启服务器后前功尽弃。
经过半天的源码分析,我们发现了下面这些触目惊心的代码...
1 为什么传统导入方案会崩盘?
很多小伙伴在实现 Excel 导入时,往往直接写出这样的代码:
// 错误示例:逐行读取+逐条插入
public void importExcel(File file) {
List<Product> list = ExcelUtils.readAll(file); // 一次加载到内存
for (Product product : list) {
productMapper.insert(product); // 逐行插入
}
}
复制代码
这种写法会引发三大致命问题:
1.1 内存熔断:堆区 OOM 惨案
问题:POI 的UserModel
(如 XSSFWorkbook)一次性加载整个 Excel 到内存
实验:一个 50MB 的 Excel(约 20 万行)直接耗尽默认的 1GB 堆内存
症状:频繁 Full GC ➔ CPU 飙升 ➔ 服务无响应
1.2 同步阻塞:用户等到崩溃
1.3 效率黑洞:逐条操作事务
2 性能优化四板斧
第一招:流式解析
使用 POI 的 SAX 模式替代 DOM 模式:
// 正确写法:分段读取(以HSSF为例)
OPCPackage pkg = OPCPackage.open(file);
XSSFReader reader = new XSSFReader(pkg);
SheetIterator sheets = (SheetIterator) reader.getSheetsData();
while (sheets.hasNext()) {
try (InputStream stream = sheets.next()) {
Sheet sheet = new XSSFSheet(); // 流式解析
RowHandler rowHandler = new RowHandler();
sheet.onRow(row -> rowHandler.process(row));
sheet.process(stream); // 不加载全量数据
}
}
复制代码
⚠️ 避坑指南:
第二招:分页批量插入
基于 MyBatis 的批量插入+连接池优化:
// 分页批量插入(每1000条提交一次)
public void batchInsert(List<Product> list) {
SqlSession sqlSession = sqlSessionFactory.openSession(ExecutorType.BATCH);
ProductMapper mapper = sqlSession.getMapper(ProductMapper.class);
int pageSize = 1000;
for (int i = 0; i < list.size(); i += pageSize) {
List<Product> subList = list.subList(i, Math.min(i + pageSize, list.size()));
mapper.batchInsert(subList);
sqlSession.commit();
sqlSession.clearCache(); // 清理缓存
}
}
复制代码
关键参数调优:
# MyBatis配置
mybatis.executor.batch.size=1000
# 连接池(Druid)
spring.datasource.druid.maxActive=50
spring.datasource.druid.initialSize=10
复制代码
第三招:异步化处理
架构设计:
前端上传:客户端使用 WebUploader 等分片上传工具
服务端:生成唯一任务 ID 写入任务队列(Redis Stream/RabbitMQ)
异步线程池:多线程消费队列处理进度存储在 Redis 中
结果通知:通过 WebSocket 或邮件推送完成状态
第四招:并行导入
对于千万级数据,可采用分治策略:
3 代码之外的关键经验
3.1 数据校验必须前置
典型代码缺陷:
// 错误:边插入边校验,可能污染数据库
public void validateAndInsert(Product product) {
if (product.getPrice() < 0) {
throw new Exception("价格不能为负");
}
productMapper.insert(product);
}
复制代码
✅ 正确实践:
在流式解析阶段完成基础校验(格式、必填项)
入库前做业务校验(数据关联性、唯一性)
3.2 断点续传设计
解决方案:
记录每个分片的处理状态
失败时根据偏移量(offset)恢复
3.3 日志与监控
配置要点:
// Spring Boot配置Prometheus指标
@Bean
public MeterRegistryCustomizer<PrometheusMeterRegistry> metrics() {
return registry -> registry.config().meterFilter(
new MeterFilter() {
@Override
public DistributionStatisticConfig configure(Meter.Id id, DistributionStatisticConfig config) {
return DistributionStatisticConfig.builder()
.percentiles(0.5, 0.95) // 统计中位数和95分位
.build().merge(config);
}
}
);
}
复制代码
四、百万级导入性能实测对比
测试环境:
总结
Excel 高性能导入的 11 条军规:
决不允许全量加载数据到内存 → 使用 SAX 流式解析
避免逐行操作数据库 → 批量插入加持
永远不要让用户等待 → 异步处理+进度查询
横向扩展比纵向优化更有效 → 分片+分布式计算
内存管理是生死线 → 对象池+避免临时大对象
合理配置连接池参数 → 杜绝瓶颈在数据源
前置校验绝不动摇 → 脏数据必须拦截在入口
监控务必完善 → 掌握全链路指标
设计必须支持容灾 → 断点续传+幂等处理
抛弃单机思维 → 拥抱分布式系统设计
测试要覆盖极端场景 → 百万数据压测不可少
如果你正在为 Excel 导入性能苦恼,希望这篇文章能为你的系统打开一扇新的大门。
如果你有其他想了解的技术难题,欢迎在评论区留言!
文章转载自:苏三说技术
原文链接:https://www.cnblogs.com/12lisu/p/18805646
体验地址:http://www.jnpfsoft.com/?from=001YH
评论