批量导入,如何避免导入重复数据,如果用智能提交,导入数据量大的时候会不会,导致效率很低

image.png

FineReport vectory 发布于 2020-8-3 16:29 (编辑于 2020-8-3 16:30)
1min目标场景问卷 立即参与
回答问题
悬赏:3 F币 + 添加悬赏
提示:增加悬赏、完善问题、追问等操作,可使您的问题被置顶,并向所有关注者发送通知
共2回答
最佳回答
0
吾姓独孤Lv6高级互助
发布于2020-8-3 16:32

公式做检验,用sql函数查询是否存在重复值,数据量大应该会有点影响吧,应该没啥问题,你大不了分几次导入,本身数据量大的execl表格就效率低,你来个几十M的execl表格导入肯定慢啊,那么大的数据一般初始化的时候才有吧,你直接去重导入数据库呗

  • vectory vectory(提问者) 是那种分三批导入的,第一批导入了,第二批导入了,发现第一批有问题,修改了比较多的地方重新导入第一批批,就和之前有部分数据重复,这种重复的数据要一个一个找出来修改再导入就很麻烦
    2020-08-04 16:24 
  • 吾姓独孤 吾姓独孤 回复 vectory(提问者) execl表格先处理下去重呗
    2020-08-04 16:38 
最佳回答
0
ScyalcireLv7中级互助
发布于2020-8-3 16:32(编辑于 2020-8-3 16:33)

https://help.finereport.com/doc-view-3032.html#

利用填报自带的填报校验功能

  • 3关注人数
  • 786浏览人数
  • 最后回答于:2020-8-3 16:33
    请选择关闭问题的原因
    确定 取消
    返回顶部