请上传宽度大于 1200px,高度大于 164px 的封面图片
    调整图片尺寸与位置
    滚轮可以放大缩小图片尺寸,按住图片拖动可调整位置,多余的会自动被裁剪掉
取消
haigang(uid:91648)
职业资格认证:FCP-零代码开发工程师 | FCA-FineBI | FCA-数知鸟 | FCA-业务分析理论 | FCP-FineBI | FCP-报表开发工程师
简道云赋能物业建筑设备管理的数字化转型
一、 案例背景 近年来,随着商业建筑规模的不断扩大,建筑机电系统的维保复杂程度不断提升,建筑环境舒适度需求不断提高,建筑运维成本管控难度不断增大,传统运维模式已经难以跟上时代步伐及现实需求,迫切需要向数字化运维转型。本案例通过应用简道云低代码开发实践楼宇空调设备的运维管理,分享我公司在房地产物业管理领域如何通过数字化能力改进提升设备运维服务能级的方法。 二、 业务需求 2.1 物业建筑设备运维管理范围概述 设备巡检管理:每日对建筑关键机房设备进行例行检查,判断设备运行状态记录设备运行状态; 设备维修管理:记录建筑物使用人的报修信息,将报修记录分配给维修班组,并跟踪维修的进度; 设备维保管理:根据设备运行管理要求制定定期的维保计划,对建筑体内关键设备进行例行检查,预防设备故障发生; 设备档案管理:为楼宇内关键设备建立基础档案,包括维修信息、维保记录、设备厂商信息的等; 设备运行分析:通过巡检和工单原始记录,对设备运行绩效进行监控和评估发生设备运维过程中问题,对设备运维服务进行持续改进。 2.2 物业建筑设备运维管理业务痛点 过去对于建筑设备巡检主要以线下纸质方式为主,效率低下且质量难以保证。对于业主方的报修信息缺少跟踪导致工单处置及时率难以满足业主需求。由于缺乏电子化设备台账设备维保计划主要在Excel中完成随意性比较大。基于上述物业在设施设备运维管理的痛点。IT部门整理物业对于建筑设施设备运维管理主要诉求,通过简道云平台帮助物业部门针对大楼空调设备快速实施了信息系统研发,提升物业部门工作绩效,主要的实施方案如下。 三、简道云零代码实施方案  3.1 设备台账集中管理 首先将原先Excel中设备台账导入简道云平台,实现设备台账的数字化集中管理,保证设备台账数据完整性和一致性,并在此基础上开发设备台账可视化看板,通过可视化手段提升物业部门对设备资产的管理能力。 3.2 设备维修流程的闭环管理 通过梳理既有的空调设备维修业务流程将其整合到简道云的流程表单中,实现空调设备业主报修-工单分配-工单追踪-工单满意度评估的线上闭环。通过分析历史维修工单数据优化物业对于空调设备维修效率提升业主满意度。 3.3 设备运维绩效的持续改进 依托简道云平台的收集历史巡检、维修和维保工单数据,通过简道云的仪表盘功能进行物业运维数据可视化看板的应用,提升物业部门通过数据驱动物业服务持续改进能力的提升。 3.4 空调设备运行数据的可视化 空调设备作为能耗使用大户是物业节能的重点设备,通过巡检计划收集空调设备运行数据并进行数据可视化应用提升物业发现空调运行过程不合理操作进而实现空调设备的经济化使用,实现空调设备使用的低碳环保。 四、总结  基于简道云零代码的方案,通过采用数字化运维技术和手段提高了物业所管理的空调设备维保效率约20%,降低了空调运行成本约8%,延长了空调设备使用寿命,提升了空调设备节能降耗的能力约7%。通过简道云平台使用实现了在零代码条件下进行高效数字化系统研发的目标,并且在建筑设备全生命周期实现了空调设备资产的数字化管理提升物业部门的工作绩效。
帆软可爱的新年礼物收到了
节后第一天上班,收到帆软新年礼物,小兔子真的好可爱呀! 希望在兔年顺利,一切安好!   最后附图啦  
【FineBI v6.0体验报告】 - DEF 函数应用篇
在一些数据分析场景下用户需要按指定数据粒度进行指标计算,而不受分析区域维度的影响。在此前FineBI5.0时需要通过复杂数据集拼接去完成,既复杂有容易出错。FineBI 6.0中有了个新分析函数DEF(),让用户控制指标计算的粒度,此为按Fine BI6.0 帮助文档学习下神奇的DEF函数的妙用。Fine BI6.0 DEF分析函数共有4个,这次测试DEF(),DEF_ADD()、DEF_SUB()的应用场景。   1 DEF-定义静态指标 DEF 函数使用 ,计算聚合指标值。         2 DEF_ADD 函数 使用「指定维度」+「分析区域中的维度」,计算聚合指标值。与 DEF 函数相比,DEF_ADD 加入了「分析区域中的维度」,所以「分析区域中维度」的增删会影响函数结果。     3 DEF_SUB-定义动态指标 DEF_SUB 函数使用「分析区域的维度」-「指定维度」,计算聚合指标。 即阻止函数使用分析区域中的一个或多个维度。        4 DEF函数应用体会   跟着教程做了下DEF函数的例子,感觉FineBI 6.0在有了DEF函数后,可以解决此前FineBI 5.0时,分析指标需要按固定维度计算时只能在自助数据集中用一个个数据集拼接出来的情况,简化了数据报告的制作难度!同样也使数据分析的脉络更加清晰。同样FineBI 6.0的帮助文档目前已经很完善了,如果有小伙伴学习FineBI 6.0有困难,可以参考在线帮助文档帮你快速解决问题。        
【FineBI v6.0体验报告】 - 数据开发功能体验篇
   这次新版的Fine BI 6.0中新增一个数据开发模块,该模块能整合不同数据库中分析数据源将处理好的分析数据集同步至 FineBI 公共数据供业务人员自助分析。为了测试这个Fine BI轻量化的ETL功能,在公司内部生产库和开发库中各建立一个数据连接,测试Fine BI6.0的数据加工组件功能。 1 数据同步    主要测试从生产库同步数据到开发库并且将处理后结果同步到FineBI 6.0 公共数据面板中。 步骤1 在数据同步组件数据来源中配置数据源 步骤2 在数据同步组件数据去向中配置写入目标数据库方式        步骤3 执行数据同步任务 在公共数据面板查看输出的数据集 在开发库查看输出的数据表       2 参数赋值:  测试FineBI 数据加工参数赋值组件输出结果,按抽取条件装载数据 步骤1:取得项目部清单 步骤2: 参数赋值-输出参数设置        步骤3: 数据装载组件-数据来源SQL 参数条件设置     步骤4 : 数据去向配置     步骤5: 任务执行     3 使用体验 这次测FineBI 6.0数据开发的和参数赋值和数据同步功能,总体上Fine BI 6.0中集成了一个轻量化的ETL工具并且可以直接导出到Fine BI 公共数据集中,使用效果还是不错的。Fine BI 6.0的数据开发模块继承了FDL的功能,在Fine BI平台内部集成ETL功能,可以方便公司IT人员快速从多个数据源中整合和加工分析数据源的基础数据,提升了部门级数据集市搭建效率。        
【FineBI v6.0体验报告】- 高效数据分析路径优化,提升数据分析效能和价值
        很有幸有机会参加FineBI 6.0的测试工作,使用Fine BI 6.0 快1个多月了,目前对FineBI 6.0 数据分析主题部分已经试用一遍,发现6.0版本在这方面的确是一次大版本突破,特别是数据分析路径上同5.X有很大不同,接下来同各位小伙伴介绍下6.0版本在数据分析路径主要改进:  一 、分析主题数据分析路径 提升点:在FineBI 5.X中,数据集是独立模块、在仪表板中设计图表组件。在FineBI  6.0中,自助数据集、组件和仪表板是在分析主题的。设计时候从自助数据集制作到图表制作在到最终仪表板的输出,这样一种数据分析模式更加符合数据分析思路。         二、 分析主题协作 提升点:在FineBI 6.0 中新增分析协作功能,相比5.X的共享方式6.0的设计使数据报告的协同制作变得更简单。     三、 血缘分析 提升点:通过分析主题血缘分析功能,可以原始数据数据文件追溯到组件之间的关联,这样方便报告制作者了解数据组件之间的“子孙之间”的引用关联。       四、数据开发 提升点:在FineBI 6.0中新增数据开发功能,通过内置ETL功能,可以将数据分析ETL过程集成到FineBI 中。   五、新的图表类型应用   提升点:FineBI 6.0 新增箱线图和桑基图的图表类型,丰富了FineBI数据可视化的手段。     六、用户自助数据集 提升点:FineBI 6.0在分析主题中对用户自定义数据集进行统一管理,用户可以知道分析中引用那些数据集,并且可以将处理好数据集进行发布,方便团队开发过程中共享数据集的使用。   七、数据集表头操作   提升点:在FineBI6.0中对于数据集的持在表头进行排序、过滤、更改字段名称、删除列、更改字段类型、拖拽调整顺序等操作     八,数据集汇总条件 提升点:FineBI6.0支持对分组汇总的数据添加汇总条件。对于分组汇总的结果进行过滤。简化数据集准备过程。   需求 描述: 是否可以在FineBI6.0中提供一个数据故事版功能 作用:方便业务上直接使用FineBI进行数据演示   总结:        使用6.0后感觉相比较于5.X 版本,这次 FineBI 6.0 在数据分析路径上进行重大的突破,在分析主题功能中的数据集、图表组件、仪表板的制作途径同此前有较大差异。提供了一个数据开发的ETL模块可以在FineBI 6.0进行轻量化的ETL的应用.当然还有其他一些改进还在试用。总体感觉这版在功能点上提升很多,更加符合数据分析工作的常规的工作习惯。在一些功能细节上相比5.X有做了很多改进。相信Fine BI 6.0会帮助更多企业提升数据分析工作效率,帮助企业挖掘数据内在价值!    
【FDL 体验报告】打通业务数据壁垒的敏捷化ETL工具
1、本次体验点 1.1 对接的数据库及业务系统 做企业数据仓库系统,ETL是关键的一环。ETL是英文Extract-Transform-Load的缩写。通常企业构建数据仓库是独立于生产系统的,而且在装载生产系统数据源时候会面临着多源异构的复杂数据环境。过去我们用Shell 脚本通过linux的crontab进行计划执行。虽然可以满足数据仓库数据定时装载要求,但一旦数据源接口众多且数据格式标准存在差异时整个Shell 脚本的调度逻辑就会显得很复杂而且出错时候也不易定位问题。FineDataLink 是帆软公司开发一款适用于企业数据仓库ETL的工具系统,这次为了测试FineDataLink功能,进行ETL脚本测试: 源系统:设备管理系统  MySQL;目的系统:数仓的MySQL数据库。   1.2 体验功能点 一、 测评功能点:参数赋值 解决场景:将设备管理系统指定项目部工单数据,通过参数赋值形式抽取到数仓中 体验成果: 1 新增参数赋值节点,从项目信息表中抽取指定项管部下项目部信息   2 参数赋值的进行输出参数选择                3 数据同步节点,选择数据来源       4 运行结果如下图所示   功能评价:FDL的参数赋值是一个很灵活的抽取数据的方法,在数仓构建业务中有很多是需要根据参数进行装载的工作。有了参数赋值功能,通过传参数到数据同步节点SQL中,可以按业务要求进行数据抽取。     二、数据关联 解决场景:测试数据转换功能节点,将生产库中工单事实表关联项目部维表在原始数据列上增加项目信息。 体验成果:   1  DB表输入-工单事实表         2 DB输入表-项目信息维度表         3 数据关联-关联DB表-工单和DB表-项目表       4 DB表-输出       功能评价:     在数仓基础数据装载过程,需要对事实表数据栏位进行补充形成适用于数仓的宽表的形式。FDL数据转换节点中的数据关联功能,可以将生产库中“窄表”按数仓要求进行“宽表”的扩展,这是典型ELT应用场景。   三、条件分支 解决场景:按项管部将设备巡检数据装载到对应的数仓临时表,测试FDL的条件分支装载能力 体验成果:           1 通过参数赋值节点获取项目部参数信息,传递到循环容器中         2 在循环容器中设置循环遍历对象       3 条件分支节点-配置各运行分支运行的条件       4 在数据同步节点,配置装载的源表和目的表。(最后一个缺省默认装载条件需要在写入方式中设置为“直接将数据写入目标表”才可以按预期正确装载数据)     功能评价:    总体上FDL的条件分支功能可以满足数仓按业务条件进行数据装载到不同表单的需求。对于多参数的条件装载需要通过循环容器循环实现,这点要注意使用要求。     四、SparkSQL 解决场景:通过SparkSQL统计各总承包和项管部所属项目部数量交叉表输出结果 体验成果: 1 获取项目信息 2 执行Spark语句进行行列转换       3 输出到目的表     功能评价:    ELT功能中需要对源表的数据格式进行转换方便数仓使用,FDL中集成SparkSQL可以比较容易实现数据列的转换,非常适用于数仓表单的构建。     五、任务包调用 解决场景:调用巡检数据、工单数据、短信信息任务。验证FDL包调用形式进行数据装载 体验成果:   1 配置调用任务A       2 配置调用任务B          3 配置调用任务C       功能评价:    在实际数据仓库ETL装载过程中会涉及到多个调度任务。通过调用任务功能可以将ETL任务集中到一个任务包中执行,这样ETL任务脚本开发和集成工作会更加方便。   2、产品体验心得 这次测试FDL的参数赋值、条件分支、SparkSQL、数据转换和任务包5个功能点,总体上效果还是满足数仓ETL构建的需求的。FDL将ETL和ELT功能需求整合到一起可以大大提升数仓ETL脚本的开发效率。从总体上看FDL基本上延续帆软产品家族的特点,并在ETL和ELT上进行定制使其满足数仓构建需求。如果在ETL性能监控上对FDL功能进行改进将更能满足ETL脚本日常运维的需要。 3、结尾    ETL是企业数仓构建的关键环节,帆软FineDataLink 作为一款面向ETL的开发工具,更好完善既有的帆软产品线规划,使其从数据报表设计延伸到数据准备阶段,希望FDL越做越好提升企业数仓建设效率。
【聊聊智能客服】智能问答语境的理解能力
   帆软阿狸是帆软自动客服问答机器人系统。它可以全年无休、24小时服务;思考问题已毫秒计时,不影响同时接待大并发量的客户;问题答案标准完善。为了测试“阿狸”的工作表现,这次使用2个场景进行问答测试,“阿狸”表现如下1 注册授权问题:用户问题:注册文件失效系统回答:2  决策平台问题用户问题:决策平台admin 密码忘记了系统回答:从2个测试场景看,帆软阿狸基本上能理解用户提出问题并给出相关问题解答或者文档链接信息。从第二问题“决策平台admin 密码忘记了”。系统应答结果来看没有直接理解用户提问意图,系统直接通过一个“你可能还想问”这个问答链接保持对话继续。从测试智能客服的回答反馈看来,帆软阿狸如果能按一定对话模板能完成固定形式的问答记录生成,但对一些开放式问题回答结果需要改善。希望帆软阿狸的后台知识库能更加完善,能更按自然语言对话模式进行问题上下文语境的理解,提升自动应答结果的匹配度。希望帆软阿狸的问题理解能力能越做越强!
以“简”为本-帆软零代码开发工程师认证之旅
  一、为啥参加简道云零代码学习       我是公司信息部的负责系统开发和运维业务,此前我所在的团队的应用开发的模式以代码+数据为的传统IT开发模式,即在业务需求明确后IT人员才会跟进系统开发或变更。但随着业务需求地不断变化,需要IT部门对业务需求进行快速响应,这需要IT能实现快速搭建和部署应用系统的能力。在此业务驱动下我通过帆软论坛了解到帆软有一款围绕业务流程表单进行快速应用搭建的产品“简道云”,可以满足业务应用快速搭建和部署的要求。于是在今年报名参加帆软简道云学习班,并在5月通过了新版的简道云的FCP-零代码工程师的认证。        作为IT技术人员回顾我的简道云学习经历,我认为作为企业部署零代码平台关键驱动因素是企业应用需要敏捷化的开发和部署的驱动。传统IT开发流程是以数据为核心的代码编制,开发人员同业务人员的衔接不够紧密,因此IT部门开发的应用往往需要多伦迭代才能满足业务需求,这样反复迭代磨合的开发即耗时,且效率低。而帆软的简道云零代码开发平台核心思想是以业务流程为中心,通过可视化方式进行应用搭建,因此构建系统类似“搭积木”,这样降低了系统搭建的所需的代码编写和调试的难度,可以快速构建出满足我公司表单类业务线上闭环的需要。 二、简道云零代码开发工程师学习历程 我学习简道云,主要是依托帆软认证这个平台进行。首先,通过认证可以证明自己的零代码的技术能力。如果要从事公司内部的简道云实施项目,对简道云技术上掌握是必不可少的。同样,通过简道云学习班提升自己掌握简道云子表单、聚合表、数据工厂、智能助手等复杂功能的应用能力,学习班很多案例对我将简道云的功能应用到实际工作场景中起到很好的启发作用。每次课程结束后习题难度是由浅入深,我也从一个个习题中完成了简道云“小白”到“熟手”的蜕变过程。这里可以给打算参加简道云学习和认证的小伙伴一点提示,在学习简道云过程中一定要充分利用简道云帮助文档,简道云的帮助文档有很多案例和具体功能使用方法介绍,通过帮助文档学习可以提升自己解决实际使用简道云中问题。 三、参加简道云零代码工程师认证的心得 今年5月份是帆软的首次新版的认证。以前的简道云FCJP认证已经变成FCP-零代码开发工程师认证,这点打算参加认证的小伙伴注意下官网,考试流程同此前有些变化。 FCP-零代码开发工程师考试题目是1道,但是在考试过程中发现这道题目还是很综合的,1道题目所提出需求实现,覆盖了简道云大部分功能点。因此如果要参加认证,需要对简道云功能有充分理解和充分掌握后才能应对。  分享下本人的认证经验,在动手构建系统前一定要充分理解题目中背景需求和功能点,先画一个思维导图出来梳理下在将业务流程图画下,对题目所需构建的系统有个整体设计在进入到功能搭建阶段会比较容易点。正常情况应该是2天内完成,时间有点紧。 四、一些关于零代码的感言       近年来流行零代码开发模式使“全民开发”成为一种可能。零代码这种以业务流程为驱动的应用搭建模式必将加速公司业务的数字化变革的进程。同样,掌握简道云零代码应用的搭建技能将提升自身在职场的核心技能。相信简道云能将我们IT开发“化繁为简”,提升IT系统的应用价值。也预祝各位小伙伴们能早日通过FCP-零代码工程师的认证丰富自己的职业技能。      
【九数云·用故事板说话】建筑用能分析月报
1 数据故事背景       随着“碳中和”概念的推进,通过建筑能耗数据分析提升建筑低碳运行能力是目前建筑运维行业的一个技术发展趋势。推进建筑节能,有利于国家“碳中和”战略的达成,对于建筑管理方可以通过建筑运行节能优化建筑运维费用的投入。上述这些目标达成都依赖于建筑运行能耗数据分析结果的支撑。因此本数据分析报告旨在通过对建筑运行系统的能耗数据采集的结果,通过“九数云”探索基于在线数据分析平台进行建筑能耗数据可视化技术途径。   2 数据故事内容        通过九数云的Excel 数据上传功能将原始能耗数据上传到平台。             九数云的数据血缘关系可视化展示     九数云文档模式下的数据故事展示-自动生成数据分析步骤的可视化输出     九数云文档模式下的数据故事展示-数据图表“所见即所得”方式的利用   建筑能耗分析故事板在线链接 建筑能耗分析月报   3 九数云故事板的使用心得      通过九数云故事板功能对建筑能耗分析报告编制过程中图表制作和数据文档制作过程进行融合,提升建筑用能分析报告编制效率,简化用能分析报告的制作过程。 希望故事板功能进行深化和完善。        
FCRP备考经验分享-“炼数成金”过程中的巡径、探索、顿悟
一 前言 从2017年信息部采购FineReport 8 用于公司报表平台开发以来,我已经用FineReport完成了生产监控报表、项目数据大屏、项目数据报表平台3数据报表项目的交付工作。在项目开发过程中,我也逐渐从一个帆软产品的“小白”成长为对FineReport 产品有些了解的报表开发人员。为了检验自己使用FineReport 能力,我报名参加了FineReport 2021年09期的培训班,并在2021年12月参加了FCRP认证考试,并顺利获得了FCRP资格认证。       二、巡径 首先,要解释下什么是FCRP认证。FCRP认证是帆软组织的针对Finereport 产品的认证,分为FCRP和FCRP-D 2种,FCRP 更偏向企业用户,FCRP-D侧重于项目交付实施。我参加FCRP认证目的无非有2个,一是,提升自己使用FineReport 工具的能力,满足公司内部报表开发的需求。二是,帆软FCRP认证难度比较高,FineReport在国内用户群体较多,希望通过FCRP学习班,获得FCBP资格证书,取得同道的认可。 其次,参加FCRP 学习和认证,也是想给自己一点学习压力和动力,通过认证备考过程提升我掌握FineReport功能的能力,平时工作时候基本上做CPT报表文件都是固定套路没有变化,但在学习班中题目会设置些条件,例如,不能通过SQL数据集过滤,要通过模板组件过滤、公式过滤等,通过这些约束条件使我逐渐掌握如何依托Finereport 软件自身功能实现报表的功能点。总之,FCRP题目主要是围绕Finereport 公式、层次坐标、决策报表、JS脚本去考察的,希望这次我备考FCRP巡径历程能帮助未来小伙伴们顺利通过FCRP认证。   三、探索    总体上将FCRP 考试内容还是侧重在产品使用能力上,特别是公式、层次坐标、父子格这类一定会在考试中以某种形式出现。因此只要能灵活应用公式、理解父子格关系、攻克层次坐标难点基本上FCRP 认证就能通过。通过这次FCRP 备考过程我个人感觉层次坐标的确是个难点,首先它概念抽象,并且教程中给出的例子也是难懂。因此我在搞层次坐标这节课时候重点听、认真做练习,习题难度很大,其他章节习题我2天就做完,层次坐标题目我搞1周时间才将3道练习题搞通。虽然在层次坐标应用上探索很长时间,但事后回想层次坐标这样搞一遍的确很通透,以前做报表环比、同比这类指标时候,我需要在SQL中计算好在报表模板中实现,掌握了层次坐标后通过父格和子格关系引用,就可以实现此前需要花费很多时间写SQL来实现的功能,提升了我开发报表的效率。FCRP主要是考核不仅是对Finereport单个功能点考核,也会涉及到多个功能点综合应用考察,所以参加FCRP培训还是很有必要的,培训班中如果遇到冥思苦想都无法解决的问题,群里老师和助教会给出提示分析解答思路,节省自己摸索的时间。   四、顿悟 FCRP考试需要2天内完成5道题目,如果没有对Finereport 有充分熟悉情况会比较难。所以建议各位小伙伴要按照培训班习题来反复复盘熟悉各类单元格公式,层次坐标等知识点,但具体操作步骤不必死记硬背,虽然题目中的公式看上去很复杂,但实际上是几个基础公式综合应用,解题的思路是一种思维方式的顿悟,实现效果即可。最后,我想对给位即将参加FCRP认证小伙伴们说,对于每位参加FCRP认证小伙伴们,他们的巡径、探索、顿悟的历程都会不同。但FCRP备考过程将是每个人的一段宝贵经历。通过FCRP备考过程的磨炼各自“炼数成金”的技能,祝大家都能顺利通过FCRP认证!
京东高达商品销售分析
一、背景介绍    本数据分析案例,基于对京东高达商品的销售数据分析,从店类型、商品销售价、热销商品排名、门店销售排名、高达商品销售价分布特征分析下京东高达商品销售特征。  二、分析思路 2.1 数据来源 2.2 数据字段说明: 序号 字段 数据类型 1 搜索关键词 varchar 2 商品名称 varchar 3 商品SKU varchar 4 商品链接 varchar 5 封面图链接 varchar 6 价格 number(10,2) 7 评价人数 int 8 评论链接 varchar 9 商家店名 varchar 10 店铺链接 varchar 11 标签 varchar 12 是否广告 varchar 13 页码 int 14 当前时间 datetime 15 页面网址 varchar   2.3 分析维度和指标构建       2.4 数据准备 导入高达数据集,通过自助数据集新增门店类型字段   三、数据可视化分析结果解读 1 店类型分析 通过柱形图在价格和商品数量2个维度显示京东销售高达门店特征。专营店商品SKU数较多,价格在500元。旗舰店SKU数不多但是商品价值高。         通过饼图展示评论用户数集中在专营店,说明京东高达商品销售门店集中的专营店这样销售模式。   2 价格与潜在客户 从价格与评价人数的关系分析上,可以发现评论用户大多集中在价值400-500元的高达商品上。   3 热销排名榜 从热销商品分析上,排名前20 高达SKU大部分是专营店业绩创造的。       4 定价特征 从定价策略分布可以看出超过50%的高达SKU在京东价格是200元-500元区间 四、分析结论 从上述可视化结果可以形成如下分析结果: 1 从业绩来源分析,高达在京东销售业绩的86.28%是有专营店模式贡献的。 2 从销售策略分析,专营店的价格和品类比较全,旗舰店走高端路线相对售价较高。 3 从消费者视角分析,消费者比较关心1000元以下的高达商品 4 从产品定价策略分析,50%以上高达商品在专营店、旗舰店和自营店模式下,其单价集中在200元-500元这个区间。  
【2021年终故事会】用数据决策、用数据创新
【2021年终故事会】用数据决策、用数据创新       时光飞逝、岁月如梭,转眼又到年终季,回眸2021年我同帆软已经相识了4年,从不了解帆软产品到熟练使用帆软产品,在将业务数据需求用帆软产品实现,对数据应用项目的实践理解由浅入深,其中一个个数据分析项目成功上线成为我职业生涯的美好回忆,在此非常感谢帆软社区小伙伴对我的支持和帮助。 4年前因为我公司数字化转型的需要,我公司在数据分析项目选型过程中选择FineReport 作为数据决策平台的开发工具,将生产系统的报表迁移到帆软报表平台上,并在此基础上进行数据大屏、数据分析深化工作。 一、初遇帆软: 记得我第一个同帆软相关项目是公司数据报表平台项目,当时我所在团队在生产系统中已经开始使用Echart进行生产系统数据可视化应用,但经过一段时间的开发,发现我们信息部开发的报告开发和使用效率很低,而且报表管理比较“碎片化”不能实现“集约化”管理优势,因此在同事介绍下了解到国内报表工具龙头帆软公司FineReport 产品,并通过帆软社区公开课程熟悉了FineReport产品功能,并建议公司采购FineReport 作为信息部的数据报表平台的基础开发工具。初期只是简单将生产系统二维报表迁移到帆软平台上,刚开始认为Finereport是新工具开发需要时间去适应新的开发环境,但因为Finereport 类Excel 设计,开发的效率要比Echart要高很多,而且Finereport自带的数据决策平台可以使开发人员在“低代码”环境下通过配置完成报表发布和权限分配工作,这个功能对报表开发人员相当的友好,提升公司报表开发的周期和效率。通过首个Finereport项目的落地使我公司肯定了这种基于报表工具上进行内部报表开发的模式,为此后我公司的数据分析项目提供基于帆软工具实现的技术路径和方式,因此项目也获得公司管理层的肯定。   二、学会用数据思考       现今我公司处于数字化转型阶段,通过数据驱动公司业务决策精准的执行,"用数据说话、用数据决策、用数据管理、用数据创新”业已成为我公司数字化转型的重要目标。面对公司的要求,我们信息部在2021年启动项目数据大屏工作,将零散报表数据整合到一张数据大屏上进行项目绩效的集中展示。在这个项目中我的团队应用到帆软的决策报表功能,随着帆软将决策报表功能进行组件化工作,使我们这些最终用户的制作大屏效率有了很大的提升,此前需要1周才能完成大屏设计、开发、调试工作。在大屏组件复用的状态下3天内就可以完成,满足了公司快速多变的数据大屏的需求。在此也要感谢帆软Dora老师的系列课程,使我们这些大屏开发的小白成长为大屏开发的熟手。下面是我们今年开发项目绩效数据看板,从需求提出到设计完成就用了2天,是不是效率很高呀。   三、提升数据的价值 作为一家物业服务公司,不仅需要从每个服务事件中获得信息,还应将分析每个服务事件根本原因,通过帆软数据工具可以使我们公司从海量的用户服务数据中提炼出有价值信息,引发公司对数据价值的高度敏感和重视,使得公司业务模式和服务模式上创新和变革。而帆软社区上的公开课程和任务可以帮助我们这些企业用户快速了解和掌握最新的数据应用的方法和技术应用途径,进而挖掘企业内部数据价值提升数据分析项目的投资价值。在这里非常感谢社区内提供的FineReport和FineBI的这些公开教程或资源,它们对我的帮助非常大,使我受益匪浅。下面是我学习数据大屏过程中一些社区的教程,有兴趣小伙伴可以参考下:   结束语      我们即将进入2022年,在新的一年中,我衷心希望社区能越办越好,而我们这些番薯在未来的2022年中从社区中能收获更多知识和技能,开启各自的挖掘数据价值的历程。    
【FR11功能体验报告】- B/S端修改布局&新自适应效果
  场景1 B/S端开发者调试 在Finereport决策报表大屏设计时,对数据大屏布局经常需要在预览模式和设计模式下进行切换,导致大屏界面调整面临反复的调整工作。在FR11的“B/S端开发者调试”新功能可以在所见即所得方式进行数据大屏的设计,方便数据大屏的设计和调整工作。 测试该项功能发现只有在“绝对布局”情况下,可以在开发者界面中操作各控件的位置和大小。“自适应布局”下无法操作,不知道这是不是个问题。    图1 将决策报表调整到新版模式 图2 在开发者模式下在浏览器端调整数据大屏控件位置和大小,这个界面同fineBI 很相似,很容易上手。    图3 在进入开发者模式修改后,决策报表会设定为“锁定”状态。 图4 浏览器端调整后结果直接可见   场景2 决策报表新自适应 过去FR数据大屏为了适应不同分辨率的需要开发不同分辨率的决策报表,FR11的自适应的模板可以自动适应不同屏幕分辨率的浏览器,展示出与设计相符的效果。   1 页面比例在100%情况 2 页面比例在80%情况        3 页面比例在150%情况 在3种页面比例下,FR11的新自适应功能都很好调整决策报表控件比例。 产品体验心得: FR11在B/S端开发者调试、决策报表新自适应这2个功能上,提升还是很大的,可以方便数据大屏的开发效率,如果在B/S端开发者调试上能优化下浏览器端的操作体验会更好。    
【FR11功能体验报告】- 开放平台插件
测试FineReport 11的开放平台插件。这个插件功能的目标是将业务数据统一管理,通过WebService API形式进行调用,这个产品功能定位有点类似将FR作为一个数据中台,提供数据服务接口供第三方应用调用。这次测试是将报表模板数据集通过开放平台的API发布为公开的WebService 调用方式。 测试过程 第一步:定义客户数据集模板 第二步:FR11决策平台-管理系统-开放平台中创建API services 第三步: 定义Data Services API 参数和属性   第四步:调用Data Services API   产品体验心得: FR11 在即有产品功能基础上将模板数据集进行WEB Services封装,方便了FR开发人员快速向第三方系统提供标准基于WEB的数据开放接口。这样FR11 服务器 就可以拓展为数据微中台概念的产品服务提供给第三方调用,这种模式非常符合目前IT系统架构发展潮流。通过体验感觉这个产品组件还处于初期阶段很多功能还需要完善,特别是数据调用安全和文档说明需要加强。    
【FR11功能体验报告】- JS API
体验下FineReport 11的JS API。感觉这次11.0在JS的接口调用上做了更多优化,接口标准更规范了。同时原先在老版本中需要通过JS Script 实现的一些场景功能,在FR11 JSAPI 中主要通过简单的API调用就可以实现,提升开发效率。 为了测试FR 11的JS API功能以鼠标悬浮变色功能为例做了新老方法比较: 老方式:   FR11 JS API     产品体验心得: FR11在JS API封装上还是做了很大提升和改进,原先要大量JS 脚本实现的功能,在FR11的JS API 下只用一条调用语句就实现了,不足是貌似在FR 11鼠标悬浮变色实现时出现一些瑕疵,当鼠标移出报表内容后,所有行都变色了。   附上FR11 鼠标悬浮变色模板文件供参考:鼠标悬浮变色-FR11.rar (2.69 K)
【FR11功能体验报告】-报表新前端和控件样式
      体验了FR11报表界面参数新样式,通过图1(经典),图2(FR11)对比觉得FR11扁平化的风格更加fashion些,符合目前主流的UI设计理念,简化操作上视觉干扰。但经典样式也有其适用场景例如到文本框、下拉列表框这类用于内容交互的空间,经典样式可以明显表明此处有交互操作。 图 SEQ Figure \* ARABIC 1 经典控件样式   图 SEQ Figure \* ARABIC 2 FR11 新样式     Bug: 测试下使用新插件导出,貌似PDF和Word目前都不可用。   产品体验心得: FR11报表界面参数新样式这个UI上改进总体上令人满意的,在具体使用上要看用户是更偏好经典样式还是扁平化样式。
【FR11功能体验报告】-数据准备-ETL作业
本次测评了FR11中新功能ETL,共测试2个场景下的ETL的使用。   场景1:从原始数据中提炼数据到聚合表中   第一步 在目标数据库构建表结构 第二步 在目标表中插入数据 第三步 将目标表数据聚合后插入目标聚合表中   在实际报表开发中,开发人员需要从源表中提炼数据,并通过聚合函数到聚合表中作为报表开发数据准备工作。这种场景下有大量SQL脚本需要进行批处理操作。通过ETL方式可以将分散SQL脚本集中可视化管理,简化数据准备工作。     场景2:从生产库中抽取数据到报表数据库   在报表数据准备过程中需要从源系统抽取大量数据到报表数据库中,通过数据同步功能将源表内容抽取到目的表中,因为数据抽取是大量Select 操作,通过虚拟节点可以使2个抽取节点并发执行,优化线性任务调度的时间耗费。       产品体验心得: ETL功能总体上可以满足基本的报表数据准备工作,性能也能满足使用要求。 建议增加如下功能 1 在ETL设计中增加行列转置 2 按条件聚合到不同聚合表 3 增加并发任务开始和结束判断条件 编辑于 2021-9-28 21:04
【2021夏季挑战赛】台风大数据可视化分析
1. 选手简介 个人选手版: 1.1. 个人介绍 帆软社区用户名:haigang 职业简介:一名数据分析人员,现在在国企信息部从事数据分析工作,平时主要工作内容是获取系统原始数据进行报表和数据大屏的制作,也会参与一些数据分析专项研究工作,如文本挖掘、知识图谱构建之类,希望通过这次交流可以同更多同行交流和探讨,提升数据分析技能。   1.2. 参赛初衷 评估下自己对FineBI的掌握程度,通过FineBI的学习掌握探索式数据分析的要点。通过台风气象数据的获取提升非系统数据源数据的取得能力,通过台风数据可视化分析过程锻炼自己运用FineBI 图表库进行可视化分析的能力。     2. 项目介绍2.1 项目背景介绍 台风是对热带气旋的一个分级,不同程度的台风会带来不同的危害。从台风活动时间上看,西北太平洋和南海一年四季都可能有台风生成。在我国台风登陆的时间范围也极广,除了1月至3月无台风登陆,其他月份均有台风登陆的情况。台风数据可视化分析对中国台风网1949年-2020年期间的台风数据进行了回顾性分析,形成关于西北太平洋地区台风对我国的影响、台风地域路径特征、台风活跃时间特点、台风年际变化等台风气象数据的见解。期望通过本次台风数据可视化分析,探索对台风这样的气候大数据可视化分析的技术路径。 2.2 数据采集和处理 1、台风可视化数据来源为中国台风网 http://typhoon.weather.com.cn/ 2、按F12,打开开发者工具,在台风列表中选择我们所需要查看的台风,通过抓包结果分析网页台风JSON数据返回,如图1所示。   144768       图1 台风数据网页分析结果 3、 根据原始网页结构分析,构建台风数据爬虫Python代码,如图2所示   144769 图2 台风数据获取代码 4、台风编号规则: 我国从1959年起开始对每年发生或进入赤道以北、180度经线以西的太平洋和南海海域的近中心最大风力大于或等于8级(17.2米/秒)的热带气旋(强度在热带风暴及以上)按其出现的先后顺序进行编号。编号由四位数字组成前两位表示年份,后两位是当年风暴级以上热带气旋的序号。例如 2101 杜鹃 表示是2021年第1号台风命名为“杜鹃”。 5、 运行台风爬虫代码,形成1949-2020期间所有的台风路径信息和台风登陆信息,如图3所示。   144770 图3 台风数据爬虫结果   2.3 台风数据分析思路2.3.1 台风数据可视化分析思路1447712.3.2 台风基础数据说明    台风路径信息             序号    字段名称 字段类型 说明 1 台风到达时间 Datetime 台风达到时间 YYYY-MM-DD  H 2 台风到达地经度 Number 东经  (0.1°E) 3 台风到达地纬度 Number 北纬  (0.1°N); 4 台风中心气压 Number 中心最低气压(hPa); 5 台风风速风力 Number 2分钟平均近中心最大风速(MSW,  m/s).    WND=9 表示 MSW <  10m/s,    WND=0 为缺测. 6 未来移向 Number   7 未来移速 Number   8 台风编号 Number 国际编号, 年份的最后两位数+两位数的编号; 9 台风名称-英文 Varchar 台风英文命名 10 台风名称-中文 Varchar 台风中文命名 11 台风状态 Varchar Stop –台风已经停止追踪            台风登陆信息             序号    字段名称 字段类型 说明 1 登陆时间 Datetime 台风登陆时间 YYYY-MM-DD  H 2 登陆点经度 Number 台风登陆点东经 3 登陆点纬度 Number 台风登陆点北纬 4 登陆点气压 Number 中心最低气压(hPa) 5 登陆点风速风力 Number 2分钟平均近中心最大风速(MSW,  m/s). 6 登陆点未来移向 Number   7 登陆点未来风速 Number   8 登陆点信息 Varchar 台风登陆位置 9 台风编号 Number YY+序号 10 台风名称-英文 Varchar 台风英文命名 11 台风名称-中文 Varchar 台风中文命名                     2.4 台风气象数据探索式分析报告制作2.4.1 台风数据探索式分析思路 数据报告用于展现西北太平洋地区的台风路径、登陆点、强度、风力等信息,因此采用数据地图形式将帮助报告阅读者理解上述台风关键信息。对于历年台风强度和台风生成次数主要以趋势折线图、柱状图的形式进行展示。在夏台风和秋台风对比分析上,主要按时序分析进行展现2个季节的台风特征的差异。 2.4.2 台风分析报告数据预处理 在FineBI数据准备模块,导入基础台风数据、台风登陆信息Excel文件,如图4   144772    图4 台风基础数据导入FineBI   从原始登陆信息内容中,提炼登陆点信息,如图5所示       144773   图5 数据准备提炼登陆点 对台风路径信息进行登陆时间类型转换、台风级别描述列新增,关联台风登陆信息构建台风数据事实宽表,如图6所示。 144774   图6 台风数据宽表 2.4.3 可视化报告布局设计 1、台风路径分析   144775 144776   设计说明:    台风路径信息展示采用流向地图形式,通过地图的流向信息展示历年台风路径规律。 通过月度折线图,分析台风月度活动规律。    分析结果:    在西太平洋地区,台风移动大致有三条路径。第一条是偏西路径,台风经过菲律宾或巴林塘海峡、巴士海峡进人南海,西行到海南岛或越南登陆,对我国影响较大。第二条是西北路径,台风向西北偏西方向移动,在台湾省登陆,然后穿过台湾海峡在福建省登陆。这种路径也叫作登陆路径。第三条是转向路径,台风从菲律宾以东的海面向西北移动,在25°N附近转向东北方,向日本方向移动。这条路径对我国影响较小。以上三条路径是典型的情况,不同季节盛行不同路径,一般盛夏季节以登陆和转向路径为主,春秋季则以西行和转向为主。      2、历年台风趋势分析   144777144778144779 设计说明:    折线图: 可视化展示1949-2020期间历年台风次数    柱状图: 可视化展示1949-2020期间历年台风平均风力强度    矩形图:热力可视化展示历年台风月度生成次数规律特征    分析结果:    从1949年至2020期间,60年代是台风生成的高峰,其中71年间最高峰出现在1964年当年共有37个台风编号。进入到90年代,台风生成次数趋势下降,共出现2个低谷,2020年仅有13次台风是71年来最少。同样从台风强度分析,进入到90年代,台风强度明显弱与60年代-70年代台风。从热力图上可以洞悉到7月、8月、9月是台风的高发季节。    3、台风登陆地特征分析 144780144781 设计说明:      通过经纬度构建台风登陆点、风力强度散点图,分析台风登陆点经纬度的数据特征。      通过柱状图直观分析台风登陆点的偏好。    分析结果:    通过可视化结果,我国的东南沿海地区是台风登陆热点地区:广东、海南、台湾、福建、浙江是防汛防台的关键点。    通过柱状图的可视化,西北太平洋沿岸地区国家:菲律宾、越南、中国、日本是台风登陆点的“热门” 4、台风发源地位置特征分析   144782   设计说明:      分析西北太平洋地区台风发源地位置特征。    分析结果:      通过散点图展示,西北太平洋上影响较大台风集中在东经120°至140°,北纬10°至20°之间的洋面上,基本上位于我国南海中北部偏东洋面和菲律宾群岛以东洋面。 5、夏台风与秋台风的对比分析   144783 144784 设计说明:       通过时序分析台风高发季节(夏(6月至8月)、秋季(9月至11月))台风的特点。    分析结果:       在台风数量上和强度上,秋台风的指标比夏台风更高些,但秋台风登陆次数少于夏台凤,需要注意海洋上行使船只避开这些台风路径。在台风登陆次数上,夏台风略微超过秋台风,台风登陆期间会造成交通中断、航班停航、大风强降雨,因此夏台风期间要注意气象台台风警报信息,避免生命财产的损失。 6 台风周期特征   144785 设计说明:       基于时序分析的结果,分析下台风从生成到消亡的平均时间周期。    分析结果:       数据分析结果展示,从年代时序看过去71年统计每次台风平均周期在7-8天,60年代台风平均周期最长为10天,最近10年台风周期特征在6天之内。从月度特征分析,从6月到11月台风高发期的台风周期大约7天(约1周)时间。 2.4.4 台风可视化数据分析见解 根据中国台风网台风数据,对西北太平洋台风数据进行可视化分析,发现71年间西北太平洋地域台风发生频数整体呈下降趋势,台风活跃程度呈现明显的年代际变化,60、70年代台风发生频数较多,此后呈递减趋势,西北太平洋台风主要发生在6-11月,8月最多,台风起源位置分布大致位于我国南海中北部偏东洋面和菲律宾群岛以东洋面。我国的广东、福建、海南、浙江、台湾位于西北太平洋的沿岸地区,是台风登陆的热点地区,因此也是我国夏秋季防汛和防台的重点地域。     2.4.5 可视化结果输出 144786 视频介绍:Your browser does not support video tags.3.项目总结     数据可视化不等同于可视化分析。数据可视化仅仅是解决了数据展示问题,而数据可视化分析需要构建数据分析框架,通过易于理解的可视化方式,帮助报告阅读者认识和理解数据。FineBI 提供丰富的图表设计元素,提供了无限视觉可视化的可行方案,提升了数据分析报告开发效率。     数据准备工作是耗时的,FineBI 数据准备模块能够更快、更容易地合并和清洗所需分析的数据。一般基础数据源因为数据格式和字段类型差异需要在数据准备阶段进行统一和规范化。在台风数据可视化的分析过程中,台风到达时间、台风级别、台风登陆点信息通过Fine BI的自助数据集功能快速完成台风数据集准备提高了数据质量,快速获得数据分析结果,简化了数据准备的工作量。     探索式可视化分析在于通过“假设”“寻证”方式获取数据背后的含义。例如,在分析过程中假设夏季台风强度是最高的,但是通过数据时序展现的结果,发现秋台风的强度是最高的。探索式分析本质在于假设,通过数据来证明这个假设是否成立,往往这些基于分析假设可以发现一些意想不到的结果,需要通过数据寻证去证实背后的事实,而FineBI敏捷化数据分析模式非常适合数据探索的历程。   附: 1、在线模版查看:https://bisolutions.fanruan.com/webroot/decision/link/JYjp 2、在线模板编辑:https://t6ixa9nyl6.jiandaoyun.com/f/60ffc825cf5c0b00070ee662 (填写问卷,获取平台账号) 3、PDF原文件 【BI可视化夏季挑战赛】作品-台风大数据分析.pdf (1.73 M)
【打卡作业】决策报表模板美化实操演练
决策报表优化后的结果。 144472
超详细!8周备考FCBP考试经验分享
一、为什么要考FCBP证书先简单介绍一下我的背景。计算机网络专业,信息部门员工,目前负责公司报表平台运维。2018年11月份的时候我第一次接触到FineBI,开始对商业数据分析和数据可视化产生了浓厚的兴趣。2021年参加2104期FCBP培训,对FineBI软件的应用和数据分析方法有了一个快速的熟悉。2021年5月参加FCBP考试,顺利获得了资格证书。143969 二、决定参加认证考试的考虑首先,希望提升自己在商业数据可视化方面的能力,满足公司业务发展要求。而且帆软的FCBP认证难度比较高,在行业内有一定的知名度,同时帆软也非常鼓励社区的合作伙伴参加认证考试。获得了FCBP资格证书以后,虽然仍然需要不断的学习数据分析技能,但是它可以使我在使用FineBI进行数据分析工作时更有自信。其次,参加FCBP考试也是想给自己一点学习的动力和压力。通过认证的准备过程可以帮助我更全面的去了解FineBI这个软件,平时不常用到的数据加工建模、过滤控件和展示组件、仪表盘等功能盲区,在准备认证的过程中也都更深入的进行掌握活用。FCBP考试主要是为了促进认证人员对FineBI进行系统学习的一种手段,希望将一些这次我准备FCBP考试过程中最实用的考试经验分享给各位社区伙伴。虽然FCBP考试有一定的难度,但是只要认真准备跟着官方培训教程走,相信每个小伙伴都能最终成为FCBP! 三、对准备学习的同学的建议首先,不要小看FCBP认证考试。我是专职做数据分析工作,即使参加FineBI工程师培训,这次考试的时候有些考题也是思考很久才给出操作答案的。FCBP主要是考核对不仅是对FineBI软件的本身的操作熟练程度,而且也会涉及到数据分析案例的综合应用,所以即使对软件本身非常熟悉也会被考试题目要求囧到。所以为了通过FCBP考试,还是建议在考前参加FineBI 工程师培训,培训班的习题量很大且有难度,考试需要2天内完成6道题目,是有点压力的,通过培训班学习可以让你适应这样强度和节奏。我参加是下面这个课程有兴趣的可以参考下https://bbs.fanruan.com/course/BI/standard/?sqtj143970 我报名参加培训班学习,从开始到参加考试大概是用了8周的时间:第1周 数据加工建模第2周 图形语法设计第3周 OLAP多维快速计算分析第4周 仪表盘设计和数据可视化第5周 案例分析第6周 高阶布局和可视化故事第7周 FCBP模拟试卷第8周 FCBP考试我的学习计划中首先就是充分利用培训班提供的资源,掌握FineBI的核心概念和操作。我在3月初开始学习到5月初考试,这次系统的学习过程让我对FineBI有了更深层次的理解,以前始终有点没明白的过滤组件问题,在课程习题中进行应用场景的理解和消化。Tips:如果是零基础的话,建议在起步阶段选择参加一个线上或者线下的免费培训,并参加下FCRA的考试,可以更快速系统的了解FineBI的操作方式,然后在参加FineBI培训班的学习,可以达到事半功倍的效果。线上培训教程 https://edu.fanruan.com/video/58143971 FCBP考试中会涉及到一些平时不常用到的功能,比如数据建模过程中的数据准备需要多数据集关联、字段类型转换等等。如果不想在考试中太惊喜的话,一定要按照培训班习题来反复复盘,这样能大大提升通过考试的概率。不过我的经验是要理解数据分析方法和思路,对于具体操作步骤不必死记硬背,考试题目虽然有点难度但是都是在基础操作上的变换,如果思维通达的话是可以找到求解的路径的。Tips:如果在考试中对某个功能或函数不理解的话可以查询官方文档的。所以在学习过程中一定要学会官方帮助文档检索方法,这项技能一定要有。FineBI 官方文档地址:https://help.fanruan.com/finebi/ 143972 考前一周,我对培训班习题中的错题总结和复盘,归纳解题方法是考试通过中至关重要的环节。我在最后一周进行针对性的FCBP模拟题训练,感受一下考题的类型和思路。说实在的模拟题的难度和真实的考试还是有一定的差异的。我个人认为在实际考试中,一般做数据建模的题目时候普遍会有些不适应,因为如果没有IT基础要快速理顺数据比较难,而且其中几个数据源还需要一点点专业背景知识,需要脑筋转下才能做下去。Tips: 我个人总结的考试时候一定要看清题目的要求,熟悉数据案例题目提供背景信息,进行针对性的回答。 四 、对马上就要参加考试的小伙伴的提示对马上要参加FCBP认证的小伙伴来说,FCBP的考试流程一直都是认证考试中的一大亮点。考前我也了解FCBP考试规则,考试题目是周五17:00 发送,考试时间是2天,考试题目截图要全屏幕(包括系统时间也要截到)、考试题目操作关键步骤一定要给出、考试题目不能公开交流等。所以各位准备参加FCBP小伙伴一定要做好了充分的理解考试的规则。顺利考完并且通过啦! 五、FCBP考试环境的准备因为FCBP考试是在考试个人电脑上进行的,所以在考前一定要在自己电脑上准备好FineBI安装,建议不要选择最新版本,因为新版本可能同培训班版本不同,操作习惯上可能会有差异,所以保险点选择同培训班教程所用版本一致为妥。电脑内存建议16G以上,FineBI会运行比较流畅。同时准备好一个视频录制软件,因为案例分析过程中需要你录制讲解分析的过程。 六、学以致用,做好数据分析工作做好数据分析工作,我想不能脱离业务环境去理解数据,数据分析本质是让我们更容易的理解数据。FineBI工程师培训班上学到数据分析的方法和FineBI使用技能,可以帮助我形成数据分析的思维能力。最后,感谢和FineBI的这次相遇,在学习班上我遇到很多同行提出的问题很有启发,祝大家都能顺利通过FCBP!!!
12下一页
个人成就
内容被浏览431,944
加入社区7年104天
返回顶部