1、高频指标借助参数实现轻量化修改
1.1 应用场景
用户需要对活跃客户的占比进行分析,但由于不断变化的业务需求,活跃客户的定义会不定期修改。
例如,上半年活跃客户被定义为在过去 3 个月内至少在商城下单 2 次的连锁客户,而下半年的定义则是在过去 6 个月内至少下单 3 次的客户。这种指标变化需要 IT 团队重新评估相关数据的计算逻辑,可能会带来繁重的工作量。
1.2 实现思路
将业务指标中的数值参数化,例如本文 1.1 节场景中的活跃客户指标:近 X 个月,下单次数,可作为参数进行自定义修改。
1.3 实现过程
请参见文档:高频指标借助参数实现轻量化修改
2、新增/修改宜搭表单数据
2.1 应用场景
用户希望根据业务数据库中的数据,更新、新增宜搭表单的数据。
2.2 实现思路
调用 新增或更新表单实例 接口,来更新、新增宜搭表单的数据。
注:「第三方个人应用」不支持调用上述接口。
2.3 实现过程
请参见文档:新增/修改宜搭表单数据
3、循环多次读取Windows环境文件同步数据
3.1 应用场景
用户 Windows 系统中有多个相同格式的 Excel 文件,需要读取所有文件数据并进行 行转列 操作。
由于 文件输入 算子批量读取文件时,是将所有文件数据上下合并,合并后的数据会存在重复值,行转列时会报错(行转列算子中,要求「待行转列」的字段名称不能重复)。
3.2 实现思路
每次读取一个 Excel 文件,并对读取后的数据进行处理,循环执行该过程,避免一次性读取所有文件,导致出现数据重复无法进行行转列操作问题。
注:本文方案适用于 4.0.29 及之后版本。
3.3 实现过程
请参见文档:循环多次读取Windows环境文件同步数据
4、【Linux环境】PostgreSQL环境准备
4.1 应用场景
FDL 工程部署在 Linux 环境中,通过数据管道实时同步 PostgreSQL 数据前,需要参考本文在数据源中进行一些配置,为后续的数据同步做好准备。
4.2 实现过程
请参见文档:【Linux环境】PostgreSQL环境准备
5、BI仪表板展示管道任务信息
5.1 应用场景
用户想了解某个管道任务是谁编辑的、编辑时间、断点相关信息等,FDL 工程内的 管道任务运维 无法满足需求。
5.2 实现思路
用户可根据实际需求,使用 FineDB 数据库中的数据管道表 ,筛选出需要的字段,最后将多张表进行关联即可。
5.3 实现过程
请参见文档:BI仪表板展示管道任务信息
6、批量修改定时任务中的数据连接名
6.1 应用场景
FDL 中原先采用的数据连接名为demo1,已在大量定时任务中使用。为了规范数据连接命名,需将此数据连接名更改为fdl_demo,目前需要逐个打开定时任务并手动重新选择新命名的数据连接,操作过程比较麻烦。
鉴于定时任务数量较多,手动选择过于繁琐,本文提供一种批量替换的解决方案。
6.2 实现思路
定时任务中的数据连接名保存在 dp 文件内,来源是fromConnectionName,去向是toConnectionName。如下图所示:
6.3 实现过程
请参见文档:批量修改定时任务中的数据连接名
|