0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

百万数据的导入导出解决方案

jf_ro2CN3Fa 来源: liu.kai 作者: liu.kai 2022-10-11 17:19 次阅读

前景

1 传统POI的的版本优缺点比较

2 使用方式哪种看情况

3 百万数据导入导出(正菜)

4 总结

前景

在项目开发中往往需要使用到数据的导入和导出,导入就是从Excel中导入到DB中,而导出就是从DB中查询数据然后使用POI写到Excel上。

写本文的背景是因为在工作中遇到了大数据的导入和导出,问题既然来了逃跑不如干掉它!!!

只要这一次解决了,后期遇到同样的问题就好解决了。

废话不多说,开始撸起来!!!

1 传统POI的的版本优缺点比较

其实想到数据的导入导出,理所当然的会想到apache的poi威廉希尔官方网站 ,以及Excel的版本问题。

既然要做导入导出,那么我们就先来大致看一下传统poi威廉希尔官方网站 的版本以及优缺点对比吧!

首先我们知道POI中我们最熟悉的莫过于WorkBook这样一个接口,我们的POI版本也在更新的同时对这个几口的实现类做了更新:

HSSFWorkbook :

这个实现类是我们早期使用最多的对象,它可以操作Excel2003以前(包含2003)的所有Excel版本。在2003以前Excel的版本后缀还是.xls

XSSFWorkbook :

这个实现类现在在很多公司都可以发现还在使用,它是操作的Excel2003--Excel2007之间的版本,Excel的扩展名是.xlsx

SXSSFWorkbook :

这个实现类是POI3.8之后的版本才有的,它可以操作Excel2007以后的所有版本Excel,扩展名是.xlsx

大致知道了我们在导入导出操作的时候会用到这样三个实现类以及他们可以操作的Excel版本和后缀之后,我们就要从优缺点分析他们了

HSSFWorkbook

它是POI版本中最常用的方式,不过:

它的缺点是 最多只能导出 65535行,也就是导出的数据函数超过这个数据就会报错;

它的优点是 不会报内存溢出。(因为数据量还不到7w所以内存一般都够用,首先你得明确知道这种方式是将数据先读取到内存中,然后再操作)

XSSFWorkbook

优点:这种形式的出现是为了突破HSSFWorkbook的65535行局限,是为了针对Excel2007版本的1048576行,16384列,最多可以导出104w条数据;

缺点:伴随的问题来了,虽然导出数据行数增加了好多倍,但是随之而来的内存溢出问题也成了噩梦。因为你所创建的book,Sheet,row,cell等在写入到Excel之前,都是存放在内存中的(这还没有算Excel的一些样式格式等等),可想而知,内存不溢出就有点不科学了!!!

SXSSFWorkbook

从POI 3.8版本开始,提供了一种基于XSSF的低内存占用的SXSSF方式:

优点:

这种方式不会一般不会出现内存溢出(它使用了硬盘来换取内存空间,

也就是当内存中数据达到一定程度这些数据会被持久化到硬盘中存储起来,而内存中存的都是最新的数据),

并且支持大型Excel文件的创建(存储百万条数据绰绰有余)。

缺点:

既然一部分数据持久化到了硬盘中,且不能被查看和访问那么就会导致,

在同一时间点我们只能访问一定数量的数据,也就是内存中存储的数据;

sheet.clone()方法将不再支持,还是因为持久化的原因;

不再支持对公式的求值,还是因为持久化的原因,在硬盘中的数据没法读取到内存中进行计算;

在使用模板方式下载数据的时候,不能改动表头,还是因为持久化的问题,写到了硬盘里就不能改变了;

2 使用方式哪种看情况

经过了解也知道了这三种Workbook的优点和缺点,那么具体使用哪种方式还是需要看情况的:

我一般会根据这样几种情况做分析选择:

1、当我们经常导入导出的数据不超过7w的情况下,可以使用 HSSFWorkbook 或者 XSSFWorkbook都行;

2、当数据量查过7w并且导出的Excel中不牵扯对Excel的样式,公式,格式等操作的情况下,推荐使用SXSSFWorkbook;

3、当数据量查过7w,并且我们需要操做Excel中的表头,样式,公式等,这时候我们可以使用 XSSFWorkbook 配合进行分批查询,分批写入Excel的方式来做;

3 百万数据导入导出(正菜)

铺垫也做了不少,那么现在开始讲讲我在工作中遇到的超百万数据的导入导出解决方案:

想要解决问题我们首先要明白自己遇到的问题是什么?

1、 我遇到的数据量超级大,使用传统的POI方式来完成导入导出很明显会内存溢出,并且效率会非常低;

2、 数据量大直接使用select * from tableName肯定不行,一下子查出来300w条数据肯定会很慢;

3、 300w 数据导出到Excel时肯定不能都写在一个Sheet中,这样效率会非常低;估计打开都得几分钟;

4、 300w数据导出到Excel中肯定不能一行一行的导出到Excel中。频繁IO操作绝对不行;

5、 导入时300万数据存储到DB如果循环一条条插入也肯定不行;

6、导入时300w数据如果使用Mybatis的批量插入肯定不行,因为Mybatis的批量插入其实就是SQL的循环;一样很慢。

解决思路:

针对1 :

其实问题所在就是内存溢出,我们只要使用对上面介绍的POI方式即可,主要问题就是原生的POI解决起来相当麻烦。

经过查阅资料翻看到阿里的一款POI封装工具EasyExcel,上面问题等到解决;

针对2:

不能一次性查询出全部数据,我们可以分批进行查询,只不过时多查询几次的问题,况且市面上分页插件很多。此问题好解决。

针对3:

可以将300w条数据写到不同的Sheet中,每一个Sheet写一百万即可。

针对4:

不能一行一行的写入到Excel上,我们可以将分批查询的数据分批写入到Excel中。

针对5:

导入到DB时我们可以将Excel中读取的数据存储到集合中,到了一定数量,直接批量插入到DB中。

针对6:

不能使用Mybatis的批量插入,我们可以使用JDBC的批量插入,配合事务来完成批量插入到DB。即 Excel读取分批+JDBC分批插入+事务。

3.1 EasyExcel 简介

附上GitHub地址:https://github.com/alibaba/easyexcel

GitHub地址上教程和说明很详细,并且附带有读和写的demo代码,这里对它的介绍我就不再详细说了。

至于EasyExcel底层怎么实现的这个还有待研究。

3.2 300w数据导出

EasyExcel完成300w数据的导出。威廉希尔官方网站 难点已经知道了,接下来就是针对这一难点提供自己的解决思路即可。

300w数据的导出解决思路:

首先在查询数据库层面,需要分批进行查询(我使用的是每次查询20w)

每查询一次结束,就使用EasyExcel工具将这些数据写入一次;

当一个Sheet写满了100w条数据,开始将查询的数据写入到另一个Sheet中;

如此循环直到数据全部导出到Excel完毕。

注意:

1、我们需要计算Sheet个数,以及循环写入次数。特别是最后一个Sheet的写入次数

因为你不知道最后一个Sheet选哟写入多少数据,可能是100w,也可能是25w因为我们这里的300w只是interwetten与威廉的赔率体系 数据,有可能导出的数据比300w多也可能少

2、我们需要计算写入次数,因为我们使用的分页查询,所以需要注意写入的次数。

其实查询数据库多少次就是写入多少次

//导出逻辑代码
publicvoiddataExport300w(HttpServletResponseresponse){
{
OutputStreamoutputStream=null;
try{
longstartTime=System.currentTimeMillis();
System.out.println("导出开始时间:"+startTime);

outputStream=response.getOutputStream();
ExcelWriterwriter=newExcelWriter(outputStream,ExcelTypeEnum.XLSX);
StringfileName=newString(("excel100w").getBytes(),"UTF-8");

//title
Tabletable=newTable(1);
List>titles=newArrayList>();
titles.add(Arrays.asList("onlineseqid"));
titles.add(Arrays.asList("businessid"));
titles.add(Arrays.asList("becifno"));
titles.add(Arrays.asList("ivisresult"));
titles.add(Arrays.asList("createdby"));
titles.add(Arrays.asList("createddate"));
titles.add(Arrays.asList("updateby"));
titles.add(Arrays.asList("updateddate"));
titles.add(Arrays.asList("risklevel"));
table.setHead(titles);

//模拟统计查询的数据数量这里模拟100w
intcount=3000001;
//记录总数:实际中需要根据查询条件进行统计即可
IntegertotalCount=actResultLogMapper.findActResultLogByCondations(count);
//每一个Sheet存放100w条数据
IntegersheetDataRows=ExcelConstants.PER_SHEET_ROW_COUNT;
//每次写入的数据量20w
IntegerwriteDataRows=ExcelConstants.PER_WRITE_ROW_COUNT;
//计算需要的Sheet数量
IntegersheetNum=totalCount%sheetDataRows==0?(totalCount/sheetDataRows):(totalCount/sheetDataRows+1);
//计算一般情况下每一个Sheet需要写入的次数(一般情况不包含最后一个sheet,因为最后一个sheet不确定会写入多少条数据)
IntegeroneSheetWriteCount=sheetDataRows/writeDataRows;
//计算最后一个sheet需要写入的次数
IntegerlastSheetWriteCount=totalCount%sheetDataRows==0?oneSheetWriteCount:(totalCount%sheetDataRows%writeDataRows==0?(totalCount/sheetDataRows/writeDataRows):(totalCount/sheetDataRows/writeDataRows+1));

//开始分批查询分次写入
//注意这次的循环就需要进行嵌套循环了,外层循环是Sheet数目,内层循环是写入次数
List>dataList=newArrayList<>();
for(inti=0;i< sheetNum; i++) {
                //创建Sheet
                Sheet sheet = new Sheet(i, 0);
                sheet.setSheetName("测试Sheet1" + i);
                //循环写入次数: j的自增条件是当不是最后一个Sheet的时候写入次数为正常的每个Sheet写入的次数,如果是最后一个就需要使用计算的次数lastSheetWriteCount
                for (int j = 0; j < (i != sheetNum - 1 ? oneSheetWriteCount : lastSheetWriteCount); j++) {
                    //集合复用,便于GC清理
                    dataList.clear();
                    //分页查询一次20w
                    PageHelper.startPage(j + 1 + oneSheetWriteCount * i, writeDataRows);
                    ListreslultList=actResultLogMapper.findByPage100w();
if(!CollectionUtils.isEmpty(reslultList)){
reslultList.forEach(item->{
dataList.add(Arrays.asList(item.getOnlineseqid(),item.getBusinessid(),item.getBecifno(),item.getIvisresult(),item.getCreatedby(),Calendar.getInstance().getTime().toString(),item.getUpdateby(),Calendar.getInstance().getTime().toString(),item.getRisklevel()));
});
}
//写数据
writer.write0(dataList,sheet,table);
}
}

//下载EXCEL
response.setHeader("Content-Disposition","attachment;filename="+newString((fileName).getBytes("gb2312"),"ISO-8859-1")+".xlsx");
response.setContentType("multipart/form-data");
response.setCharacterEncoding("utf-8");
writer.finish();
outputStream.flush();
//导出时间结束
longendTime=System.currentTimeMillis();
System.out.println("导出结束时间:"+endTime+"ms");
System.out.println("导出所用时间:"+(endTime-startTime)/1000+"秒");
}catch(FileNotFoundExceptione){
e.printStackTrace();
}catch(IOExceptione){
e.printStackTrace();
}finally{
if(outputStream!=null){
try{
outputStream.close();
}catch(Exceptione){
e.printStackTrace();
}
}
}
}
}

3.2.1 测试机状态

下面是测试机配置

ddebafb0-4925-11ed-a3b6-dac502259ad0.pngddf92186-4925-11ed-a3b6-dac502259ad0.pngde295298-4925-11ed-a3b6-dac502259ad0.pngde3a4648-4925-11ed-a3b6-dac502259ad0.png

3.2.2 使用数据库版本

数据库我使用的是Oracle19C在网上查阅其实在数据量不超过1亿的情况下,Mysql和Oracle的性能其实相差不大,超过1亿,Oracle的各方面优势才会明显。

所以这里可以忽略使用数据库对时间造成的影响,使用mysql一样可以完成测试,不需要单独安装Oracle。

这次测试在查询方面我使用的是rownum进行的模拟查询300w条数据,这种查询效率其实并不高,实际还有很多优化空间来加快查询速度,

如:明确查询具体字段,不要用星号,经常查询字段增加索引等尽可能提高查询效率,用时可能会更短。


select*
fromACT_RESULT_LOG
whererownum3000001

--建表语句:可以参考一下
--Createtable
createtableACT_RESULT_LOG
(
onlineseqidVARCHAR2(32),
businessidVARCHAR2(32),
becifnoVARCHAR2(32),
ivisresultVARCHAR2(32),
createdbyVARCHAR2(32),
createddateDATE,
updatebyVARCHAR2(32),
updateddateDATE,
risklevelVARCHAR2(32)
)
tablespaceSTUDY_KAY
pctfree10
initrans1
maxtrans255
storage
(
initial64K
next1M
minextents1
maxextentsunlimited
);

3.2.3 测试结果

下面是300w数据从DB导出到Excel所用时间

从上面结果可以看出,300w的数据导出时间用时2分15秒,并且这是在不适用实体作为映射的情况下,如果使用实体映射不适用循环封装的话速度会更快(当然这也是在没有设置表头等其他表格样式的情况下)

综合来说速度还算可以。

在网上查了很多资料有一个博主测试使用EasyExcel导出102w数据用时105秒。

看一下导出效果:文件还是挺大的163M

de54a3b2-4925-11ed-a3b6-dac502259ad0.pngde5f4330-4925-11ed-a3b6-dac502259ad0.png

3.2.4 导出小结

经过测试EasyExcel还是挺快的,并且使用起来相当方便,作者还专门提供了关流方法,不需要我们手动去关流了,也避免了我们经常忘记关流导致的一系列问题。

导出测试就到这里,对于数据量小于300W的数据可以使用在一个Sheet中进行导出。这里就不再演示。

3.3 300w数据导入

代码不重要首先还是思路

300W数据的导入解决思路

1、首先是分批读取读取Excel中的300w数据,这一点EasyExcel有自己的解决方案,我们可以参考Demo即可,只需要把它分批的参数3000调大即可。我是用的20w;(一会儿代码一看就能明白)

2、其次就是往DB里插入,怎么去插入这20w条数据,当然不能一条一条的循环,应该批量插入这20w条数据,同样也不能使用Mybatis的批量插入语,因为效率也低。可以参考下面链接【Myabtis批量插入和JDBC批量插入性能对比】

3、使用JDBC+事务的批量操作将数据插入到数据库。(分批读取+JDBC分批插入+手动事务控制)

3.3.1 数据库数据(导入前)

如图

de873a8e-4925-11ed-a3b6-dac502259ad0.png

3.3.2 核心业务代码

//EasyExcel的读取Excel数据的API
@Test
publicvoidimport2DBFromExcel10wTest(){
StringfileName="D:\StudyWorkspace\JavaWorkspace\java_project_workspace\idea_projects\SpringBootProjects\easyexcel\exportFile\excel300w.xlsx";
//记录开始读取Excel时间,也是导入程序开始时间
longstartReadTime=System.currentTimeMillis();
System.out.println("------开始读取Excel的Sheet时间(包括导入数据过程):"+startReadTime+"ms------");
//读取所有Sheet的数据.每次读完一个Sheet就会调用这个方法
EasyExcel.read(fileName,newEasyExceGeneralDatalListener(actResultLogService2)).doReadAll();
longendReadTime=System.currentTimeMillis();
System.out.println("------结束读取Excel的Sheet时间(包括导入数据过程):"+endReadTime+"ms------");
}
//事件监听
publicclassEasyExceGeneralDatalListenerextendsAnalysisEventListener>{
/**
*处理业务逻辑的Service,也可以是Mapper
*/
privateActResultLogService2actResultLogService2;

/**
*用于存储读取的数据
*/
privateList>dataList=newArrayList>();

publicEasyExceGeneralDatalListener(){
}

publicEasyExceGeneralDatalListener(ActResultLogService2actResultLogService2){
this.actResultLogService2=actResultLogService2;
}

@Override
publicvoidinvoke(Mapdata,AnalysisContextcontext){
//数据add进入集合
dataList.add(data);
//size是否为100000条:这里其实就是分批.当数据等于10w的时候执行一次插入
if(dataList.size()>=ExcelConstants.GENERAL_ONCE_SAVE_TO_DB_ROWS){
//存入数据库:数据小于1w条使用Mybatis的批量插入即可;
saveData();
//清理集合便于GC回收
dataList.clear();
}
}

/**
*保存数据到DB
*
*@param
*@MethodName:saveData
*@return:void
*/
privatevoidsaveData(){
actResultLogService2.import2DBFromExcel10w(dataList);
dataList.clear();
}

/**
*Excel中所有数据解析完毕会调用此方法
*
*@param:context
*@MethodName:doAfterAllAnalysed
*@return:void
*/
@Override
publicvoiddoAfterAllAnalysed(AnalysisContextcontext){
saveData();
dataList.clear();
}
}
//JDBC工具类
publicclassJDBCDruidUtils{
privatestaticDataSourcedataSource;

/*
创建数据Properties集合对象加载加载配置文件
*/
static{
Propertiespro=newProperties();
//加载数据库连接池对象
try{
//获取数据库连接池对象
pro.load(JDBCDruidUtils.class.getClassLoader().getResourceAsStream("druid.properties"));
dataSource=DruidDataSourceFactory.createDataSource(pro);
}catch(Exceptione){
e.printStackTrace();
}
}

/*
获取连接
*/
publicstaticConnectiongetConnection()throwsSQLException{
returndataSource.getConnection();
}


/**
*关闭conn,和statement独对象资源
*
*@paramconnection
*@paramstatement
*@MethodName:close
*@return:void
*/
publicstaticvoidclose(Connectionconnection,Statementstatement){
if(connection!=null){
try{
connection.close();
}catch(SQLExceptione){
e.printStackTrace();
}
}
if(statement!=null){
try{
statement.close();
}catch(SQLExceptione){
e.printStackTrace();
}
}
}

/**
*关闭conn,statement和resultset三个对象资源
*
*@paramconnection
*@paramstatement
*@paramresultSet
*@MethodName:close
*@return:void
*/
publicstaticvoidclose(Connectionconnection,Statementstatement,ResultSetresultSet){
close(connection,statement);
if(resultSet!=null){
try{
resultSet.close();
}catch(SQLExceptione){
e.printStackTrace();
}
}
}

/*
获取连接池对象
*/
publicstaticDataSourcegetDataSource(){
returndataSource;
}

}
#druid.properties配置
driverClassName=oracle.jdbc.driver.OracleDriver
url=jdbcthin:@localhost:1521:ORCL
username=mrkay
password=******
initialSize=10
maxActive=50
maxWait=60000
//Service中具体业务逻辑

/**
*测试用Excel导入超过10w条数据,经过测试发现,使用Mybatis的批量插入速度非常慢,所以这里可以使用数据分批+JDBC分批插入+事务来继续插入速度会非常快
*
*@param
*@MethodName:import2DBFromExcel10w
*@return:java.util.Map
*/
@Override
publicMapimport2DBFromExcel10w(List>dataList){
HashMapresult=newHashMap<>();
//结果集中数据为0时,结束方法.进行下一次调用
if(dataList.size()==0){
result.put("empty","0000");
returnresult;
}
//JDBC分批插入+事务操作完成对10w数据的插入
Connectionconn=null;
PreparedStatementps=null;
try{
longstartTime=System.currentTimeMillis();
System.out.println(dataList.size()+"条,开始导入到数据库时间:"+startTime+"ms");
conn=JDBCDruidUtils.getConnection();
//控制事务:默认不提交
conn.setAutoCommit(false);
Stringsql="insertintoACT_RESULT_LOG(onlineseqid,businessid,becifno,ivisresult,createdby,createddate,updateby,updateddate,risklevel)values";
sql+="(?,?,?,?,?,?,?,?,?)";
ps=conn.prepareStatement(sql);
//循环结果集:这里循环不支持"烂布袋"表达式
for(inti=0;i< dataList.size(); i++) {
            Mapitem=dataList.get(i);
ps.setString(1,item.get(0));
ps.setString(2,item.get(1));
ps.setString(3,item.get(2));
ps.setString(4,item.get(3));
ps.setString(5,item.get(4));
ps.setTimestamp(6,newTimestamp(System.currentTimeMillis()));
ps.setString(7,item.get(6));
ps.setTimestamp(8,newTimestamp(System.currentTimeMillis()));
ps.setString(9,item.get(8));
//将一组参数添加到此PreparedStatement对象的批处理命令中。
ps.addBatch();
}
//执行批处理
ps.executeBatch();
//手动提交事务
conn.commit();
longendTime=System.currentTimeMillis();
System.out.println(dataList.size()+"条,结束导入到数据库时间:"+endTime+"ms");
System.out.println(dataList.size()+"条,导入用时:"+(endTime-startTime)+"ms");
result.put("success","1111");
}catch(Exceptione){
result.put("exception","0000");
e.printStackTrace();
}finally{
//关连接
JDBCDruidUtils.close(conn,ps);
}
returnresult;
}

3.3.3 测试结果

下面是300w数据边读边写用时间:

大致计算一下:

从开始读取到中间分批导入再到程序结束总共用时: (1623127964725-1623127873630)/1000=91.095秒

300w数据正好是分15次插入综合用时:8209毫秒 也就是 8.209秒

计算可得300w数据读取时间为:91.095-8.209=82.886秒

结果显而易见:

EasyExcel分批读取300W数据只用了 82.886秒

使用JDBC分批+事务操作插入300w条数据综合只用时 8.209秒

------开始读取Excel的Sheet时间(包括导入数据过程):1623127873630ms------
200000条,开始导入到数据库时间:1623127880632ms
200000条,结束导入到数据库时间:1623127881513ms
200000条,导入用时:881ms
200000条,开始导入到数据库时间:1623127886945ms
200000条,结束导入到数据库时间:1623127887429ms
200000条,导入用时:484ms
200000条,开始导入到数据库时间:1623127892894ms
200000条,结束导入到数据库时间:1623127893397ms
200000条,导入用时:503ms
200000条,开始导入到数据库时间:1623127898607ms
200000条,结束导入到数据库时间:1623127899066ms
200000条,导入用时:459ms
200000条,开始导入到数据库时间:1623127904379ms
200000条,结束导入到数据库时间:1623127904855ms
200000条,导入用时:476ms
200000条,开始导入到数据库时间:1623127910495ms
200000条,结束导入到数据库时间:1623127910939ms
200000条,导入用时:444ms
200000条,开始导入到数据库时间:1623127916271ms
200000条,结束导入到数据库时间:1623127916744ms
200000条,导入用时:473ms
200000条,开始导入到数据库时间:1623127922465ms
200000条,结束导入到数据库时间:1623127922947ms
200000条,导入用时:482ms
200000条,开始导入到数据库时间:1623127928260ms
200000条,结束导入到数据库时间:1623127928727ms
200000条,导入用时:467ms
200000条,开始导入到数据库时间:1623127934374ms
200000条,结束导入到数据库时间:1623127934891ms
200000条,导入用时:517ms
200000条,开始导入到数据库时间:1623127940189ms
200000条,结束导入到数据库时间:1623127940677ms
200000条,导入用时:488ms
200000条,开始导入到数据库时间:1623127946402ms
200000条,结束导入到数据库时间:1623127946925ms
200000条,导入用时:523ms
200000条,开始导入到数据库时间:1623127952158ms
200000条,结束导入到数据库时间:1623127952639ms
200000条,导入用时:481ms
200000条,开始导入到数据库时间:1623127957880ms
200000条,结束导入到数据库时间:1623127958925ms
200000条,导入用时:1045ms
200000条,开始导入到数据库时间:1623127964239ms
200000条,结束导入到数据库时间:1623127964725ms
200000条,导入用时:486ms
------结束读取Excel的Sheet时间(包括导入数据过程):1623127964725ms------

看一下数据库的数据是不是真的存进去了300w

可以看到数据比导入前多了300W,测试很成功

deb70b74-4925-11ed-a3b6-dac502259ad0.png

3.3.4 导入小结

具体我没有看网上其他人的测试情况,这东西一般也很少有人愿意测试,不过这个速度对于我当时解决公司大数据的导入和导出已经足够,当然公司的业务逻辑很复杂,数据量也比较多,表的字段也比较多,导入和导出的速度会比现在测试的要慢一点,但是也在人类能接受的范围之内。

4 总结

这次工作中遇到的问题也给我留下了深刻印象,同时也是我职业生涯添彩的一笔。

最起码简历上可以写上你处理过上百万条数据的导入导出。

最后说一下公司之前怎么做的,公司之前做法是

限制了用户的下载数量每次最多只能有四个人同时下载,并且控制每个用户最大的导出数据最多只能是20w,与此同时他们也是使用的JDBC分批导入,但是并没有手动控制事务。

控制同时下载人数我可以理解,但是控制下载数据最多为20w就显得有点鸡肋了。

这也是我后期要解决的问题。

好了到此结束,相信大神有比我做的更好的,对于EasyExcel内部到底是怎么实现的还有待考究(有空我再研究研究)。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据库
    +关注

    关注

    7

    文章

    3795

    浏览量

    64366
  • 代码
    +关注

    关注

    30

    文章

    4780

    浏览量

    68539
  • POI
    POI
    +关注

    关注

    0

    文章

    8

    浏览量

    7020
  • 大数据
    +关注

    关注

    64

    文章

    8884

    浏览量

    137409

原文标题:百万数据的导入导出解决方案

文章出处:【微信号:芋道源码,微信公众号:芋道源码】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    百万级别excel导出功能如何实现

    最近我做过一个MySQL 百万级别 数据的 excel 导出功能,已经正常上线使用了。 这个功能挺有意思的,里面需要注意的细节还真不少,现在拿出来跟大家分享一下,希望对你会有所帮助。 原始需求:用户
    的头像 发表于 09-25 11:38 1055次阅读
    <b class='flag-5'>百万</b>级别excel<b class='flag-5'>导出</b>功能如何实现

    不同格式设计数据导入导出

    支持的设计数据导入格式原理图文件向下兼容Protel及Altium Designer先前版本原理图和符号库文件格式Protel 99SE数据包格式文件(*.DDB)P-CAD V16 或 V17
    发表于 07-11 15:30

    AD不同格式设计数据导入导出

    支持的设计数据导入格式原理图文件向下兼容Protel及Altium Designer先前版本原理图和符号库文件格式Protel 99SE数据包格式文件(*.DDB)P-CAD V16 或 V17
    发表于 12-28 23:01

    请问怎么导入导出AD规则?

    如何导入导出AD规则?
    发表于 03-01 07:35

    Linux环境下oracle数据库exp命令导出数据及imp命令导入数据

    一:以oracle用户登录Linux,使用命令:sqlplus / as sysdba进入SQL命令模式;oracle数据库exp命令导出数据及imp命令导入
    发表于 07-09 07:23

    INSTRUMENTS导出导入跟踪数据

    INSTRUMENTS调试工具的使用(三十二) —— 高级任务之导出导入跟踪数据(一)
    发表于 08-30 09:18

    Citect标签导入导出资料

    本章就Citect标签导入导出,其实包含变量标签、局部变量、趋势标签、报警定义等都可以使用该方法来实现快速定义和修改
    发表于 05-10 17:25 0次下载
    Citect标签<b class='flag-5'>导入</b><b class='flag-5'>导出</b>资料

    PCB设计:如何导入导出设计规则

    介绍如何在Altium Designer中导入导出设计规则,借鉴其他设计的优秀合理的规则设置(宝贵的设计经验)为我所用,而不需要自己手动创建。
    发表于 06-05 07:17 9572次阅读
    PCB设计:如何<b class='flag-5'>导入</b><b class='flag-5'>导出</b>设计规则

    XMC MCU 开发基础:DAVE3项目导入导出

    DAVE3 项目导入导出
    的头像 发表于 07-11 02:12 3992次阅读

    PCB威廉希尔官方网站 :Altium怎么安装导入导出插件

    EDA软件中Altium Designer的兼容性是最好的,在其他EDA平台设计的原理图、PCB等文件,有时候会统一到Altium Designer平台,或者将在Altium Designer平台设计的文件导入其他平台,这种时候需要用到导入
    的头像 发表于 10-14 10:36 6454次阅读
    PCB威廉希尔官方网站
:Altium怎么安装<b class='flag-5'>导入</b><b class='flag-5'>导出</b>插件

    MACSV数据导出导入的方法

    MACSV数据导出导入的方法(现代电源威廉希尔官方网站 期末考试)-文档为MACSV数据导出导入的方法
    发表于 09-17 15:41 2次下载
    MACSV<b class='flag-5'>数据</b>库<b class='flag-5'>导出</b>、<b class='flag-5'>导入</b>的方法

    如何写一个公用工具来进行Excel的导入导出

    日常在做后台系统的时候会很频繁的遇到Excel导入导出的问题,正好这次在做一个后台系统,就想着写一个公用工具来进行Excel的导入导出
    的头像 发表于 10-09 14:19 1475次阅读

    如何导入导出SCL源文件?

    如何导入导出SCL源文件?
    的头像 发表于 01-16 10:41 2211次阅读

    TIA Portal Openness导入/导出的基本原理

    可以导出某些组态数据,然后在编辑之后再将数据重新导入同一项目或不同项目中。
    的头像 发表于 06-21 11:48 3716次阅读
    TIA Portal Openness<b class='flag-5'>导入</b>/<b class='flag-5'>导出</b>的基本原理

    数据库的clob类型如何导入导出

    导入导出操作时,可以使用不同的方法和工具来实现,具体取决于数据库的类型和版本。 一、导出CLOB类型数据
    的头像 发表于 11-21 10:51 4824次阅读