找回密码
 立即注册

QQ登录

只需一步,快速开始

扫一扫,极速登录

请上传宽度大于 1200px,高度大于 164px 的封面图片
    调整图片尺寸与位置
    滚轮可以放大缩小图片尺寸,按住图片拖动可调整位置,多余的会自动被裁剪掉
取消
haigang(uid:91648)
职业资格认证:FCRA,FCAA,FCJA,FCBP
【2021夏季挑战赛】台风大数据可视化分析
1. 选手简介 个人选手版: 1.1. 个人介绍 帆软社区用户名:haigang 职业简介:一名数据分析人员,现在在国企信息部从事数据分析工作,平时主要工作内容是获取系统原始数据进行报表和数据大屏的制作,也会参与一些数据分析专项研究工作,如文本挖掘、知识图谱构建之类,希望通过这次交流可以同更多同行交流和探讨,提升数据分析技能。   1.2. 参赛初衷 评估下自己对FineBI的掌握程度,通过FineBI的学习掌握探索式数据分析的要点。通过台风气象数据的获取提升非系统数据源数据的取得能力,通过台风数据可视化分析过程锻炼自己运用FineBI 图表库进行可视化分析的能力。     2. 项目介绍2.1 项目背景介绍 台风是对热带气旋的一个分级,不同程度的台风会带来不同的危害。从台风活动时间上看,西北太平洋和南海一年四季都可能有台风生成。在我国台风登陆的时间范围也极广,除了1月至3月无台风登陆,其他月份均有台风登陆的情况。台风数据可视化分析对中国台风网1949年-2020年期间的台风数据进行了回顾性分析,形成关于西北太平洋地区台风对我国的影响、台风地域路径特征、台风活跃时间特点、台风年际变化等台风气象数据的见解。期望通过本次台风数据可视化分析,探索对台风这样的气候大数据可视化分析的技术路径。 2.2 数据采集和处理 1、台风可视化数据来源为中国台风网 http://typhoon.weather.com.cn/ 2、按F12,打开开发者工具,在台风列表中选择我们所需要查看的台风,通过抓包结果分析网页台风JSON数据返回,如图1所示。   144768       图1 台风数据网页分析结果 3、 根据原始网页结构分析,构建台风数据爬虫Python代码,如图2所示   144769 图2 台风数据获取代码 4、台风编号规则: 我国从1959年起开始对每年发生或进入赤道以北、180度经线以西的太平洋和南海海域的近中心最大风力大于或等于8级(17.2米/秒)的热带气旋(强度在热带风暴及以上)按其出现的先后顺序进行编号。编号由四位数字组成前两位表示年份,后两位是当年风暴级以上热带气旋的序号。例如 2101 杜鹃 表示是2021年第1号台风命名为“杜鹃”。 5、 运行台风爬虫代码,形成1949-2020期间所有的台风路径信息和台风登陆信息,如图3所示。   144770 图3 台风数据爬虫结果   2.3 台风数据分析思路2.3.1 台风数据可视化分析思路1447712.3.2 台风基础数据说明    台风路径信息             序号    字段名称 字段类型 说明 1 台风到达时间 Datetime 台风达到时间 YYYY-MM-DD  H 2 台风到达地经度 Number 东经  (0.1°E) 3 台风到达地纬度 Number 北纬  (0.1°N); 4 台风中心气压 Number 中心最低气压(hPa); 5 台风风速风力 Number 2分钟平均近中心最大风速(MSW,  m/s).    WND=9 表示 MSW <  10m/s,    WND=0 为缺测. 6 未来移向 Number   7 未来移速 Number   8 台风编号 Number 国际编号, 年份的最后两位数+两位数的编号; 9 台风名称-英文 Varchar 台风英文命名 10 台风名称-中文 Varchar 台风中文命名 11 台风状态 Varchar Stop –台风已经停止追踪            台风登陆信息             序号    字段名称 字段类型 说明 1 登陆时间 Datetime 台风登陆时间 YYYY-MM-DD  H 2 登陆点经度 Number 台风登陆点东经 3 登陆点纬度 Number 台风登陆点北纬 4 登陆点气压 Number 中心最低气压(hPa) 5 登陆点风速风力 Number 2分钟平均近中心最大风速(MSW,  m/s). 6 登陆点未来移向 Number   7 登陆点未来风速 Number   8 登陆点信息 Varchar 台风登陆位置 9 台风编号 Number YY+序号 10 台风名称-英文 Varchar 台风英文命名 11 台风名称-中文 Varchar 台风中文命名                     2.4 台风气象数据探索式分析报告制作2.4.1 台风数据探索式分析思路 数据报告用于展现西北太平洋地区的台风路径、登陆点、强度、风力等信息,因此采用数据地图形式将帮助报告阅读者理解上述台风关键信息。对于历年台风强度和台风生成次数主要以趋势折线图、柱状图的形式进行展示。在夏台风和秋台风对比分析上,主要按时序分析进行展现2个季节的台风特征的差异。 2.4.2 台风分析报告数据预处理 在FineBI数据准备模块,导入基础台风数据、台风登陆信息Excel文件,如图4   144772    图4 台风基础数据导入FineBI   从原始登陆信息内容中,提炼登陆点信息,如图5所示       144773   图5 数据准备提炼登陆点 对台风路径信息进行登陆时间类型转换、台风级别描述列新增,关联台风登陆信息构建台风数据事实宽表,如图6所示。 144774   图6 台风数据宽表 2.4.3 可视化报告布局设计 1、台风路径分析   144775 144776   设计说明:    台风路径信息展示采用流向地图形式,通过地图的流向信息展示历年台风路径规律。 通过月度折线图,分析台风月度活动规律。    分析结果:    在西太平洋地区,台风移动大致有三条路径。第一条是偏西路径,台风经过菲律宾或巴林塘海峡、巴士海峡进人南海,西行到海南岛或越南登陆,对我国影响较大。第二条是西北路径,台风向西北偏西方向移动,在台湾省登陆,然后穿过台湾海峡在福建省登陆。这种路径也叫作登陆路径。第三条是转向路径,台风从菲律宾以东的海面向西北移动,在25°N附近转向东北方,向日本方向移动。这条路径对我国影响较小。以上三条路径是典型的情况,不同季节盛行不同路径,一般盛夏季节以登陆和转向路径为主,春秋季则以西行和转向为主。      2、历年台风趋势分析   144777144778144779 设计说明:    折线图: 可视化展示1949-2020期间历年台风次数    柱状图: 可视化展示1949-2020期间历年台风平均风力强度    矩形图:热力可视化展示历年台风月度生成次数规律特征    分析结果:    从1949年至2020期间,60年代是台风生成的高峰,其中71年间最高峰出现在1964年当年共有37个台风编号。进入到90年代,台风生成次数趋势下降,共出现2个低谷,2020年仅有13次台风是71年来最少。同样从台风强度分析,进入到90年代,台风强度明显弱与60年代-70年代台风。从热力图上可以洞悉到7月、8月、9月是台风的高发季节。    3、台风登陆地特征分析 144780144781 设计说明:      通过经纬度构建台风登陆点、风力强度散点图,分析台风登陆点经纬度的数据特征。      通过柱状图直观分析台风登陆点的偏好。    分析结果:    通过可视化结果,我国的东南沿海地区是台风登陆热点地区:广东、海南、台湾、福建、浙江是防汛防台的关键点。    通过柱状图的可视化,西北太平洋沿岸地区国家:菲律宾、越南、中国、日本是台风登陆点的“热门” 4、台风发源地位置特征分析   144782   设计说明:      分析西北太平洋地区台风发源地位置特征。    分析结果:      通过散点图展示,西北太平洋上影响较大台风集中在东经120°至140°,北纬10°至20°之间的洋面上,基本上位于我国南海中北部偏东洋面和菲律宾群岛以东洋面。 5、夏台风与秋台风的对比分析   144783 144784 设计说明:       通过时序分析台风高发季节(夏(6月至8月)、秋季(9月至11月))台风的特点。    分析结果:       在台风数量上和强度上,秋台风的指标比夏台风更高些,但秋台风登陆次数少于夏台凤,需要注意海洋上行使船只避开这些台风路径。在台风登陆次数上,夏台风略微超过秋台风,台风登陆期间会造成交通中断、航班停航、大风强降雨,因此夏台风期间要注意气象台台风警报信息,避免生命财产的损失。 6 台风周期特征   144785 设计说明:       基于时序分析的结果,分析下台风从生成到消亡的平均时间周期。    分析结果:       数据分析结果展示,从年代时序看过去71年统计每次台风平均周期在7-8天,60年代台风平均周期最长为10天,最近10年台风周期特征在6天之内。从月度特征分析,从6月到11月台风高发期的台风周期大约7天(约1周)时间。 2.4.4 台风可视化数据分析见解 根据中国台风网台风数据,对西北太平洋台风数据进行可视化分析,发现71年间西北太平洋地域台风发生频数整体呈下降趋势,台风活跃程度呈现明显的年代际变化,60、70年代台风发生频数较多,此后呈递减趋势,西北太平洋台风主要发生在6-11月,8月最多,台风起源位置分布大致位于我国南海中北部偏东洋面和菲律宾群岛以东洋面。我国的广东、福建、海南、浙江、台湾位于西北太平洋的沿岸地区,是台风登陆的热点地区,因此也是我国夏秋季防汛和防台的重点地域。     2.4.5 可视化结果输出 144786 视频介绍:Your browser does not support video tags.3.项目总结     数据可视化不等同于可视化分析。数据可视化仅仅是解决了数据展示问题,而数据可视化分析需要构建数据分析框架,通过易于理解的可视化方式,帮助报告阅读者认识和理解数据。FineBI 提供丰富的图表设计元素,提供了无限视觉可视化的可行方案,提升了数据分析报告开发效率。     数据准备工作是耗时的,FineBI 数据准备模块能够更快、更容易地合并和清洗所需分析的数据。一般基础数据源因为数据格式和字段类型差异需要在数据准备阶段进行统一和规范化。在台风数据可视化的分析过程中,台风到达时间、台风级别、台风登陆点信息通过Fine BI的自助数据集功能快速完成台风数据集准备提高了数据质量,快速获得数据分析结果,简化了数据准备的工作量。     探索式可视化分析在于通过“假设”“寻证”方式获取数据背后的含义。例如,在分析过程中假设夏季台风强度是最高的,但是通过数据时序展现的结果,发现秋台风的强度是最高的。探索式分析本质在于假设,通过数据来证明这个假设是否成立,往往这些基于分析假设可以发现一些意想不到的结果,需要通过数据寻证去证实背后的事实,而FineBI敏捷化数据分析模式非常适合数据探索的历程。   附: 1、在线模版查看:https://bisolutions.fanruan.com/webroot/decision/link/JYjp 2、在线模板编辑:https://t6ixa9nyl6.jiandaoyun.com/f/60ffc825cf5c0b00070ee662 (填写问卷,获取平台账号) 3、PDF原文件 【BI可视化夏季挑战赛】作品-台风大数据分析.pdf (1.73 M)
【打卡作业】决策报表模板美化实操演练
决策报表优化后的结果。 144472
超详细!8周备考FCBP考试经验分享
一、为什么要考FCBP证书先简单介绍一下我的背景。计算机网络专业,信息部门员工,目前负责公司报表平台运维。2018年11月份的时候我第一次接触到FineBI,开始对商业数据分析和数据可视化产生了浓厚的兴趣。2021年参加2104期FCBP培训,对FineBI软件的应用和数据分析方法有了一个快速的熟悉。2021年5月参加FCBP考试,顺利获得了资格证书。143969 二、决定参加认证考试的考虑首先,希望提升自己在商业数据可视化方面的能力,满足公司业务发展要求。而且帆软的FCBP认证难度比较高,在行业内有一定的知名度,同时帆软也非常鼓励社区的合作伙伴参加认证考试。获得了FCBP资格证书以后,虽然仍然需要不断的学习数据分析技能,但是它可以使我在使用FineBI进行数据分析工作时更有自信。其次,参加FCBP考试也是想给自己一点学习的动力和压力。通过认证的准备过程可以帮助我更全面的去了解FineBI这个软件,平时不常用到的数据加工建模、过滤控件和展示组件、仪表盘等功能盲区,在准备认证的过程中也都更深入的进行掌握活用。FCBP考试主要是为了促进认证人员对FineBI进行系统学习的一种手段,希望将一些这次我准备FCBP考试过程中最实用的考试经验分享给各位社区伙伴。虽然FCBP考试有一定的难度,但是只要认真准备跟着官方培训教程走,相信每个小伙伴都能最终成为FCBP! 三、对准备学习的同学的建议首先,不要小看FCBP认证考试。我是专职做数据分析工作,即使参加FineBI工程师培训,这次考试的时候有些考题也是思考很久才给出操作答案的。FCBP主要是考核对不仅是对FineBI软件的本身的操作熟练程度,而且也会涉及到数据分析案例的综合应用,所以即使对软件本身非常熟悉也会被考试题目要求囧到。所以为了通过FCBP考试,还是建议在考前参加FineBI 工程师培训,培训班的习题量很大且有难度,考试需要2天内完成6道题目,是有点压力的,通过培训班学习可以让你适应这样强度和节奏。我参加是下面这个课程有兴趣的可以参考下https://bbs.fanruan.com/course/BI/standard/?sqtj143970 我报名参加培训班学习,从开始到参加考试大概是用了8周的时间:第1周 数据加工建模第2周 图形语法设计第3周 OLAP多维快速计算分析第4周 仪表盘设计和数据可视化第5周 案例分析第6周 高阶布局和可视化故事第7周 FCBP模拟试卷第8周 FCBP考试我的学习计划中首先就是充分利用培训班提供的资源,掌握FineBI的核心概念和操作。我在3月初开始学习到5月初考试,这次系统的学习过程让我对FineBI有了更深层次的理解,以前始终有点没明白的过滤组件问题,在课程习题中进行应用场景的理解和消化。Tips:如果是零基础的话,建议在起步阶段选择参加一个线上或者线下的免费培训,并参加下FCRA的考试,可以更快速系统的了解FineBI的操作方式,然后在参加FineBI培训班的学习,可以达到事半功倍的效果。线上培训教程 https://edu.fanruan.com/video/58143971 FCBP考试中会涉及到一些平时不常用到的功能,比如数据建模过程中的数据准备需要多数据集关联、字段类型转换等等。如果不想在考试中太惊喜的话,一定要按照培训班习题来反复复盘,这样能大大提升通过考试的概率。不过我的经验是要理解数据分析方法和思路,对于具体操作步骤不必死记硬背,考试题目虽然有点难度但是都是在基础操作上的变换,如果思维通达的话是可以找到求解的路径的。Tips:如果在考试中对某个功能或函数不理解的话可以查询官方文档的。所以在学习过程中一定要学会官方帮助文档检索方法,这项技能一定要有。FineBI 官方文档地址:https://help.fanruan.com/finebi/ 143972 考前一周,我对培训班习题中的错题总结和复盘,归纳解题方法是考试通过中至关重要的环节。我在最后一周进行针对性的FCBP模拟题训练,感受一下考题的类型和思路。说实在的模拟题的难度和真实的考试还是有一定的差异的。我个人认为在实际考试中,一般做数据建模的题目时候普遍会有些不适应,因为如果没有IT基础要快速理顺数据比较难,而且其中几个数据源还需要一点点专业背景知识,需要脑筋转下才能做下去。Tips: 我个人总结的考试时候一定要看清题目的要求,熟悉数据案例题目提供背景信息,进行针对性的回答。 四 、对马上就要参加考试的小伙伴的提示对马上要参加FCBP认证的小伙伴来说,FCBP的考试流程一直都是认证考试中的一大亮点。考前我也了解FCBP考试规则,考试题目是周五17:00 发送,考试时间是2天,考试题目截图要全屏幕(包括系统时间也要截到)、考试题目操作关键步骤一定要给出、考试题目不能公开交流等。所以各位准备参加FCBP小伙伴一定要做好了充分的理解考试的规则。顺利考完并且通过啦! 五、FCBP考试环境的准备因为FCBP考试是在考试个人电脑上进行的,所以在考前一定要在自己电脑上准备好FineBI安装,建议不要选择最新版本,因为新版本可能同培训班版本不同,操作习惯上可能会有差异,所以保险点选择同培训班教程所用版本一致为妥。电脑内存建议16G以上,FineBI会运行比较流畅。同时准备好一个视频录制软件,因为案例分析过程中需要你录制讲解分析的过程。 六、学以致用,做好数据分析工作做好数据分析工作,我想不能脱离业务环境去理解数据,数据分析本质是让我们更容易的理解数据。FineBI工程师培训班上学到数据分析的方法和FineBI使用技能,可以帮助我形成数据分析的思维能力。最后,感谢和FineBI的这次相遇,在学习班上我遇到很多同行提出的问题很有启发,祝大家都能顺利通过FCBP!!!
【产品评测】FineBI 5.1.10功能测评报告
测评功能1:新增自定义同环比功能,灵活计算区间同环比。 测评维度 维度说明 业务场景使用* 新增前: 如果要进行同比,环比操作,维度字段必须是日期型 新增后: 如果维度字段是非日期型的,可以通过指标字段的自定义设置比较区间,方便分析工作。 142966 功能交互体验* 自定义同环比功能对于非日期型维度比较非常实用,用户可以根据需要进行时间段比较。 产品功能建议* 建议在日期型维度上也增加自定义功能,因为有些日期同比不是按自然日进行的,例如:比较农历新年销售,今年的农历和去年对应时间区间是不同的。比较商品促销档期,促销前、促销期间、促销后的销售情况同样也不是严格按自然日进行的。 其他测评维度 (可自由发挥对于此项功能的其他测评) 综合满意/推荐度* 满意度:☆☆☆☆ 推荐度:☆☆☆☆ 日常分析过程会涉及到非自然日的同比/环比计算问题,有了这个功能可以按用户要求进行自定义。 注:标* 为必测维度,未标*可选测 测评功能2:【新增】增加时间过滤组件的【设置可选区间】。 测评维度 维度说明 业务场景使用* 在功能优化前,用户在时间过滤组件上选择需要在一个大大时间清单中选择,操作不便 在功能优化后,用户可以根据数据期间,在时间过滤组件中设置合适的时间区间,告知用户哪些时间区间是有数据的。如下图142968 功能交互体验* 功能和易用性尚可,但不大符合操作习惯,因为用户设计时间区间后就不要在过滤下拉列表中显示其他的时间区间了,这个优化是将可选时间区间高亮出来 产品功能建议* 可选时间区间若设置后,就不要显示其他的时间段了。这样可以避免在一个庞大的下拉列表中寻找清单内容。 其他测评维度 (可自由发挥对于此项功能的其他测评) 综合满意/推荐度* 满意度:☆☆☆☆ 推荐度 :☆☆☆☆ 评价理由:功能很实用,因为分析数据时间区间作为普通用户是不知道的,普通用户可能选择没有数据的时间段。 注:标* 为必测维度,未标*可选测测评功能3:【新增】Excel支持多sheet导入 测评维度 维度说明 业务场景使用* 1在功能优化/新增前: 在优化前系统只能导入第一个Sheet页的数据内容,如果有多个Sheet页需要分开导入,数据处理工作量大。 2在功能优化/新增后: 在系统5.1.10 中已经支持Excel 多Sheet也的数据导入工作。使用效果符合期望,如下图 142970142971 功能交互体验* Excel 多Sheet 页导入非常符合数据分析需要,因为现场业务EXCEL文件大部分是有几个Sheet页组成,批量导入可以节省大量的时间。 产品功能建议* 这个版本的批量更新是新建数据集时候可以批量导入,若能在更新和追加数据集时同样能支持导入会更好。例如下图142972 其他测评维度 批量导入时导致原先仪表盘数据丢失,如下图142973 综合满意/推荐度* 满意度:☆☆☆ 推荐度:☆☆☆☆ 目前此功能需要完善。 注:标* 为必测维度,未标*可选测 测评功能4:【新增】支持多tab组件支持在此组件内设置tab页签及对应页签内容,通过切换页签来实现展示不同内容。 测评维度 维度说明 业务场景使用* 新增前:若要从多维度分析相关数据时,需要在仪表盘上放置图表组件,这样仪表盘布局就比较紧张 新增后:采用Tab页后可以将相关分析放入到1个Tab页中,页面显的比较紧凑和简洁。如下图所示142975 功能交互体验* 此功能操作简单、符合操作习惯,满足设计需要。 产品功能建议* 1 可以在Tab页基础上,实现轮播的功能。 2 在Tab页基础上,实现类似“数据故事”播放效果 3 Tab页面导出到PPT,直接形成汇报PPT 其他测评维度 (可自由发挥对于此项功能的其他测评) 综合满意/推荐度* 满意度:☆☆☆☆☆ 推荐度:☆☆☆☆☆ 评价理由:功能非常实用,如果能导出PPT和轮播实现将更好。 注:标* 为必测维度,未标*可选测 测评功能5:【新增】支持自助数据集节点自定义名称、数据集添加备注l用户在制作自助数据集过程中,可以对数据集节点进行自定义名以及备注。方便理解每个节点的意义。同时用户可以对每个数据集进行备注,方便用户快速了解整体数据集的意义。 测评维度 维度说明 业务场景使用* 优化前:在自助数据集中每个节点名称是系统自动命名,在数据集设计完成后,过一段时间后可能就无法理解当时设计数据集目的和节点操作含义。 优化后:自助数据集可以添加备注,操作节点名称和备注可以自定义写入。这样方面IT运维管理。142977 功能交互体验* 此功能对IT后台运维比较有利,可以方便识别出数据集资源用途。 产品功能建议* 建议增加历史变更记录。方便后台进行数据集、仪表盘资源配置管理 其他测评维度 (可自由发挥对于此项功能的其他测评) 综合满意/推荐度* 满意度:☆☆☆☆☆ 推荐度:☆☆☆☆☆ 评价理由:日常分析过程中数据准备工作涉及到数据集会比较多,有了备注可以方便运维团队和团队多人协作。 注:标* 为必测维度,未标*可选测 编辑于 2021-4-10 09:42
【打卡作业】福布斯富豪榜可视化分析
一、数据分析目的 分析2015全球年度福布斯排行榜中的富豪数据分布情况,对不同国家、地区、行业、来源、性别、年龄等相关维度分析福布斯全球富豪人数、资产总额等数据规律。 二、数据分析规划 142747三、数据分析 3.1 福布斯富豪榜国家分布从地图分布结果看,在2015年福布斯富豪榜美国和中国提供富豪人数最多。从全球经济发展分析,随着中国成为全球第二大经济实体,其贡献富豪人数将呈上升趋势。1427483.2福布斯富豪榜富豪年龄与行业、业态的关系从2015年富豪榜数据分析发现大部分富豪的年龄集中在60-70岁,信息技术行业年龄较轻,时尚零售业、投资行业富豪资产额高于平均水平。从富豪从事的业态看,不动产、多元化集团、零售业比较容易产生富豪。142749 3.3 福布斯富豪榜行业分布 从饼图可视化结果看。时尚与零售、技术、投资业态占据将近4成的占比。 1427503.5 富豪性别特征从富豪性别分布看,大部分富豪集中在男性。一个事实是,男人更有可能创造新财富 1427511427513.6 全球和中国福布斯富人榜Top20从全球富豪榜Top20 分析,美国占据大多数。这表明全球财富主要集中在美国,如果解决收入过渡集中问题是一个值得思考的社会问题。 从富豪榜中国排名Top20 数据分析,中国在2015年房地产行业发展趋势向好,因此在富豪榜出现人数较多。同时信息技术业态的马云、马化腾、刘强东也在Top20之内。 142752 四、数据报告总结从2015年福布斯富人榜数据分析可以发现,全球财富越来越集中在少数人手里。逐渐增长的收入差距已经成为全球性的问题。在很多国家,在前1%富豪们的财富继续快速增长的同时,分配体系中的穷人甚至更高收入阶层财富的微弱增长使得收入差距问题变得日益严峻。142753
FineBI让数据分析思路更加清晰
我是一位IT部门员工,因为公司要实施数据分析项目所以接触到了FineBI,并报名参加2102期的FineBI学习班。通过这次学习班学习,我对FineBI功能和应用场景有了全新的认识。此前IT数据分析工作一直用代码和SQL解决原始数据要求,这次尝试使用FineBI的数据处理模块进行分析数据的准备工作刚开始的确很不习惯,认为效率比写代码低。通过老师的讲解和助教辅导我逐渐体会到这种“低代码”模式的制作数据分析报告非常适合IT部门进行敏捷化快速迭代开发。在学习过程中,伙伴们都非常的积极,不断的在群里提问,通过每周三的答疑我了解到许多此前我所不知道的FineBI的仪表组件、图表组件功能点,这些功能点可以提升我们业务人员进行自助分析的能力。对于课程内容,我认为FineBI学习班课程安排还是比较紧凑的,课程内容从数据准备、仪表板制作、数据报告编写从基础到精通逐步完成FineBI技能深化过程,非常适合入门者学习。有点小建议课程所使用版本有些老,部分实践习题上有些细节需要调整下。分享下本次学习班实践作业 142730 结合自己工作思考面对企业大数据大环境,为了提升业务能力,IT部门如何善用各类数据,以更有效、更精准、高效率的方式辅助管理部门做出各类关键业务决策。首先,Fine BI 是一套商业分析工具,为商业数据提供一个统一视图,并能通过实时更新的仪表板帮组企业随时掌控业务运转情况。 其次,Fine BI是一种业务分析解决方案,可让数据可视化并在整个组织中共享洞察并形成数据见解。本次学习让我了解如何使用更加丰富并且有吸引力的方式可视化数据。了解了Fine BI能否满足组织对数据可视化和分析工作的需求;如何提高效率等,对今后的工作产生更积极的影响。从学习过程回到我的实际工作中,我需要思考下我公司的数据分析工作的抓手在哪里?我对于业务的理解有多深入?我需要深刻理解“数据”的含义和“业务”的含义。将业务数据化,或者是用数据决策驱动业务。如何做好数据分析,我想不能脱离业务去看数据,而是要时刻从业务角度去理解数据。使用FineBI数据分析只是手段、方法和工具,形成数据思维能力恰恰是数据分析的本质。这次FineBI学习班过程将帮助我形成这些数据分析的基础认知。 编辑于 2021-4-13 15:17
【打卡作业】淘宝体育运动品牌商品分析案例
一、数据背景 分析淘宝店铺体育运动用品的价格,品牌,区域信息 二、数据建模 142325 三、数据分析淘宝运动商品店铺分布信息:从淘宝网经营体育运动类商品的店铺分布集中在上海,泉州、广州 142326品类分析:耐克、阿迪达斯、李宁、安踏的产品线品类较全142327 销量分析: 鞋类中跑步鞋、休闲鞋、篮球鞋销量较高 运动装备类以健身、跑步、篮球类居多 服饰类集中在T恤、运动长裤、健身服装为主142328 价格和销量相关性分析耐克在价格和销量做比较平衡,阿迪达斯走高定价策略,安踏国内品牌主要走高销量 低售价的行销策略。142329 商品售价分布淘宝运动类商品售价主要集中在0-499,499-899 区间142330 四、数据报告142331学习FineBI也有一段时间了,今天来总结一下哈,希望能帮助到你。 刚开始学习FineBI自己先看一些FineBI学习视频基本在帆软官网都有。 编辑于 2021-3-3 18:56
【2020冬季挑战赛】部门绩效分析报告
1.选手简介 1.1选手介绍帆软社区用户名:haigang职业简介:公司信息部运维经理,一枚码农。一直以来都喜欢数据分析,多年的实践使得在数据应用开发、数据处理等方面积累了一些经验。 1.2参赛初衷对BI比较感兴趣,真实地感受下使用BI工具对数据分析能力的提升。 1.3演示数据说明注意:本数据来源于生产系统基础数据,为了满足数据发布合规性进行数据脱敏处理。 2.场景介绍 物业维保数据是物业管理的重要数据,每天物业部门需要处理大量的服务请求。维保工单作为维保工作的内容载体是物业管理的核心数据资源,在分析维保绩效上发挥着不可替代的作用。公司原有的物业维保数据的应用还局限在时间、业主信息和服务类型几个固化报表上,缺乏对工单数据的多维数据动态展示。为了对物业部门进行2020年度维保情况进行量化评估,用FineBI 5.1制作本数据分析报告,作为2020年度本部门年度报告素材。 2.1 业务背景介绍 2.1.1业务背景本部门工作属于物业工程管理的范畴。日常工作包括定期设备巡检、用户报障处理、计划性设备维护等。目前日常作业已经完成信息化,物业工程日常维保记录存放在设备管理系统中,该系统存放着设备巡检、工单维保、设备台账、设备点位信息。每月物业部门需要提交巡检、工单的绩效总结报告给上级部门。同时需要通过工单数据分析发现维保工作重点并将此信息反馈给项目经理,用于改进物业项目服务质量。 2.1.2基础数据说明 工单信息 序号 字段名称字段类型说明 1工单日期date工单创建时间 2创建时间datetime系统建立工单时间 3工单编号varchar(20)工单流水号 4项管部varchar(10)项管部 5项目组varchar(15)项目 6业主区域varchar(20)业主单位 7工单来源varchar(10)自检、报障 8工单类型varchar(10)应求性维护、预防性维护 9工单状态varchar(10)已创建、处理中、完成、关闭 10工单内容varchar(100)维保内容描述 11报障人varchar(10)报障联系人 12服务类型varchar(10)服务专业(工程维保分类) 13大楼varchar(30)建筑位置信息,从空间信息中获取 14楼层varchar(30)建筑位置信息,从空间信息中获取 15实际达到时间datetime工单实际处理开始时间 16实际完成时间datetime工单实际处理完成时间 17实际工作时间Number从接单到确认关闭时间 18工单类别varchar(20)通过工单描述文本描述提炼 巡检信息 序号 字段名称字段类型说明 1项管部varchar(10)项管部 2项目组varchar(15)项目 3巡检日期date巡检任务创建时间 4巡检时间datetime巡检计划设置的开始时间 5时间段bigint巡检时间段1-24 小时 6星期varchar(10)星期一到星期日 7巡检任务varchar(20)巡检计划名称 8巡检期间varchar(10)巡检频度 9开始时间datetime实际巡检开始时间 10结束时间datetime实际巡检结束时间 11巡检状态varchar(20)已完成、未完成、进行中、超时 12巡检员varchar(20)巡检员 13补检数int根据巡检明细提炼 设备信息 序号 字段名称字段类型说明 1类型varchar(10)数据标识 2项管部varchar(10)项管部 3项目组varchar(15)项目 4设备分类varchar(20)暖通、给排水、强电、弱电等 5设备品牌varchar(20)设备铭牌信息 6设备名称varchar(30)从初始设备台账中获取 7建立时间date系统建立时间 8服务时间date设备开始运行时间 9安装时间date设备安装调试完成时间 10生产时间date设备出厂时间 11安装位置varchar(50)从空间信息中获取 12制造商varchar(50)从初始施工记录中获取 13供货商varchar(50)从初始施工记录中获取 14安装商varchar(50)从初始施工记录中获取 点位信息 序号 字段名称字段类型说明 1类型varchar(10)数据标识 2项管部varchar(10)项管部 3项目组varchar(15)项目 4修改人varchar(20)系统记录 5修改日期varchar(20)系统记录 6点位名称varchar(30)点位描述 7点位二维码varchar(20)点位二维码信息 8大楼varchar(20)点位所在大楼空间信息 9楼层varchar(20)点位所在楼层空间信息 10房间varchar(20)点位所在房间空间信息 2.2分析思路 2.2.1分析报告需要解决的问题 即有的固化报表维度单一,缺乏数据穿透能力。需要通过BI报表提升用户自主数据分析能力。 通过维保数据多维分析,洞悉物业维保工作的重点和难点,为维保质量的持续改进提供依据。 分析维保工作量集中在哪里,如何合理的安排维保资源,将维保工作有被动响应转为主动预防模式。通过业务分析,整理下物业维保数据应用的思维导图,如图1所示: 138485 图 1物业维保数据应用 2.2.2编制报告目的 量化物业维保的能力。 评价和考核维保业绩,揭示维保活动存在的问题。 挖掘维保作业潜力,寻求提高维保管理水平的途径。 分析物业维保工作的趋势。 2.2.3报告使用者需求 物业部:关心维保绩效、特征、发现维保工作的短板 业主方:关注评估物业维保服务能力和履行能力 设备商:侧重报障的专业和系统,用于改进产品质量 研究者:提供基础数据源,用于数据挖掘模型的构建 2.2.4分析指标 序号 分析类别指标名称指标说明 1 巡检巡检-已完成源系统标注为“已完成”巡检任务数 2 巡检-未完成源系统标注为“未完成”巡检任务数 3 巡检-已超时源系统标注为“已超时”巡检任务数 4 巡检-已补检源系统标注为“已补检”巡检任务数 5 巡检任务数巡检任务数=已完成+未完成+已超时+已补检 6 巡检完成率巡检完成率=(已完成+已补检)/巡检任务数 *100 7 工单工单-已完成源系统标注为“已完成”工单任务数 8 工单-未完成源系统标注为“未完成”工单任务数 9 工单总数工单总数=已完成+未完成 10 工单完成率工单完成率=已完成/工单总数* 100 11 点位点位数设备管理系统点位设置数(未删除) 12 设备设备数设备管理系统设备台账记录数(未删除) 2.2.5分析维度构建报告采用星型分析模型架构,采用工单事实表关联时间、组织、业主、工单特征、空间信息维度,实现多维数据集的构建,维度关系如图2 所示: 138489 图 2 维保分析模型示意 2.3数据整理 数据集的规模质量 数据集规模:数据集的范围为2020年度物业部门的维保工单数据、巡检数据、点位数据、设备数据属于人工输入数据,所以数据集的规模不是很大。 数据集质量:分析指标信息主要是维保工单绩效,涉及了维保趋势、维保热点、维保专业、维保来源等。本数据来源于物业设备管理系统,数据规范性较好。 业务架构:业务架构分为四层:数据获取、数据整合、数据处理、数据可视化分析。 系统架构:数据源MySQL;通过SQL数据集输出到Excel;在FineBI中完成分析样本数据的导入,最后在FineBI 仪表板中完成报告设计,最终通过模板发布功能完成前台发布工作。 2.4. 数据可视化设计 2.4.1可视化设计目标本报告基于设备管理系统原始数据进行可视化处理。需要从时间、维保专业、服务类别维度,清晰反应工单趋势、工单分布、工单占比关系,用直观的表现方式,减少用户数据认知的负担,提升管理者的决策效率。 2.4.2分析报告设计方案 排版布局:划分页面工单信息、巡检、设备、点位辅助信息,运用折线图、柱形图、雷达图、组合图等图表表达元素进行信息的可视化展现。 色彩搭配: 为了避免视觉刺激,报告使用浅色背景,让阅读者视觉有更好体验。 2.4.3 可视化报告布局设计物业维保数据分析,主要基于工单维保数据分析;巡检、设备、点位信息作为辅助性支撑分析主题使用。因此报表设计的风格采用如下UI设计,将主要信息集中在报表面板的上部,左侧显示以时间趋势展现为主,右侧以建筑信息维度分析工单特征,设计样式如图3,所示: 138490 图 3 分析报告设计样式 2.4.4可视化图表选择根据原始数据特征和分析的要求,在报告输出过程中需要呈现多维工单数据特征如,趋势分析(维保月度趋势)、占比分析(维保专业分布)、效率分析(维保耗时)、相关性分析(维保专业与楼层)等数据可视化报告输出要求,参考选择图表方法如图4所示,在物业维保数据分析图表可视化过程采用如下图表: 138491 图 4 图表选择方法 l 工单趋势分析-折线图 138492 设计说明:工单维保数据存在时间序列特征,因此采用折线图的形式呈现各楼层的月度工单量走势。 分析结果:受疫情影响1月至2月工单量偏少,从3月复工后开始逐步上升,其中2号楼工单量高于其他楼层,因此项目维保工作量集中在2号楼。 l 工单文本挖掘-维保热点词云 138493 设计说明:工单描述文本中包括很多维保专业关键字,通过词云提炼出维保热点信息。 分析结果:通过词云分析发现2020年度维保热点词汇在“照明”、“1号楼”,“车库”。 l 工单耗时分析-柱状图 138494 设计说明:采用柱状图对维保工单平均耗时按楼层分布排序,发现维保工作响应时间提升点。 分析结果:A栋保护建筑工单响应时间明显高于其他楼。 l 工单聚类分析-雷达图 138495 设计说明:通过雷达图进行工单数据按建筑空间维度聚类 。 分析结果:洞悉维保工作的重点在2号楼。 l 工单专业占比分析-柱状堆积图 138496 设计说明:柱状堆积图可以很好展示工单占比关系,按时间维度展开,发现维保工作改进点。 分析结果:通过可视化数据展示,可以发现“安防”“照明”工单量比较集中,业务提升点较多。 l 维保重点分析-帕累托图 138497 设计说明:对维保工作抓手进行描述,因此采用帕累托图进行分析。 分析结果:帕累托图可以很好展示管理上80/20原则,通过上图可以发现1号楼、2号楼、3号楼、5号楼是重点关注的对象。 2.4.5可视化输出结果基于Fine BI 5.1设计,最后输出的数据报告,如图5所示: 138498 图 5 维保分析报告 3.总结 结合本次BI报告设计过程,对于BI应用总结以下四点思考: 3.1.关于BI平台实施BI 上手不难,新手很快就可以作出1份数据报告,但BI在公司中的部署和应用是比较复杂的事情,因此培养公司的数据文化非常重要,信息部需要培训挖掘业务用户自主探索式分析能力,才能真正推动BI在公司的应用和发展。 3.2.关于BI数据准备BI可视化分析依赖基础是产系统数据完整性和可靠性,BI分析数据源面临复杂的数据环境包括SQL数据库、文本文件、Excel文件等,这些数据资源通过连接形成BI分析所用的数据集,因此信息部需要面临数据治理的问题。 3.3.关于BI可视化分析对于数据可视化分析工作关键并不是制作一张复杂的报告,而是设计出一张满足业务需求的报告。为了降低业务用户的阅读负担应该简化设计的界面,通过图表特征将数字特征信号放大。 3.4.关于BI 数据挖掘公司对BI数据集的用途集中在数据可视化应用,较少有通过脚本进行数据挖掘的案例,未来基于脚本BI+AI的应用将是未来数据分析主流。 140340
【数据追梦人2020】一个IT老兵的故事
一个IT老兵的故事 我是一位在数据分析岗位上干过了15年的老员工,非常有幸能在这里分享我的故事给大家听。 初始FineBI 5年前我来到目前工作的单位从事IT运维管理。在工作中发现公司数据应用能力不高,处于此前一直在干报表业务的经历,开始公司报表平台建设工作。通过身边朋友介绍了解到帆软BI产品。作为一个以前从未用过BI产品的老IT,看到业界对FineBI的评价,于是从帆软的网站上下载了FineBI试用。作为此前一直通过SQL Report的制作报表的IT老兵。在一开始接触到FineBI工具 突然间感觉自己不会做报表了,自己已经习惯通过代码获取数据了,类似FineBI那样通过维度、层级、公式来进行数据可视化工作有点不大适应。在之前的工作经验,我已经明白BI应用对一个企业业务发展的重要性,BI的自主式分析能力将给IT部门的数据应用项目带来本质的提升。于是带着一份对数据分析的热情,我开始一段FineBI的学习历程。 我的第一个FineBI仪表板 为了在公司推动BI的使用,我这位老兵作为试水者开始一段FineBI学习过程中。我的FineBI学习过程是从帮助文档开始,通过帮助文档我了解FineBI的体系架构。同时帆软为了帮助用户掌握FineBI 在帆软的网站上提供培训视频、社区讨论、产品认证这些对我的帮助很大。特别是,社区中定期会有些任务发布,通过一个任务Case完成,我逐渐熟悉了FineBI这个产品,并在疫情期间在家中完成了我第一个FineBI作品《新冠肺炎疫情分析》。通过对疫情数据空间可视化地图展示,我第一次感受到BI工具的魅力。 http://bbs.fanruan.com/source/plugin/votes/function/editor/attached/image/20201205/20201205193518_72926.png 让用户可以看到并理解数据 今年7月份,为了推动公司数据分析业务的发展,我负责公司工程维保数据的质量分析工作,处于对FineBI的了解我选择使用FineBI作为数据可视化展示平台。在维保数据分析报告的制作过程中,我通过帆软社区讲堂掌握了利用Python进行数据采集的方法并应用在维保数据采集过程中,将原先2周才能完成数据报表制作过程降低到2天内完成维保数据质量分析报告输出。通过BI报表可视化呈现,使数据特征进行可视化的放大,用户可以更加容易理解数据含义。这是我认识到BI的精髓在于“让用户可以看到并理解数据”。 http://bbs.fanruan.com/source/plugin/votes/function/editor/attached/image/20201205/20201205193536_51724.png 越努力、越幸福 2020年疫情的原因,注定是不平凡的一年。我们经历了很多,也成长不少。一天、半月、五年、十载,青葱岁月,一晃而过。唯有全力以赴,一往无前,燃烧炽热的青春,所求人生的梦想,方不负此生。而我,因为热爱BI的关系所以学习了FineBI,也因为FineBI助力我成就探索数据价值、形成业务洞见的愿景的实现。老兵将砥砺前行,不负韶华。 http://bbs.fanruan.com/source/plugin/votes/function/editor/attached/image/20201205/20201205193612_34879.jpg
【数据追梦人】近20年数据工作的“老司机”,我有一些心里话想对你们说……
一、我走过的路,关于数据分析工作 我是一位在报表分析岗位上干过了10多年的老员工,如今回头来看看自己过去那段成长历史,觉得自己挺幸运的,在几个关键成长节点的碰巧成就了我数据追梦的历程。 梦想开始的地方 2002年本科毕业后,因为是学计算机网络应聘到一家投资公司做系统管理员,因为那里IT事务是归属在综合管理办公室的,我又是学计算机的所以部门内的同计算机相关的事情都交给我做了,包括部门数据报表,我想这应该就是我从事报表和数据分析工作起点的地方。 记得当时部门中有很多报表是用Excel vlookup 函数拼接起来的,每月出部门报表时间很长,处于年轻人冲劲,我接手此事用C语言写了个数据处理的程序,调试时候一直出现Memory Overflow……错误信息。 记得那个时代调试手段很落后,只能一句句的代码走查,经过几天的连续奋战,我终于定位到问题在于某个数组指针引用错误,那时已经是凌晨了,修改后终于重新编译通过。现在回想当年那段经历,觉得还是很感激老天能给我这个机会,而我很幸运的接到了。 需要知道Teamwork 是啥意思的时候 两年后,我来到一家制药公司数据分析部门,主要做医疗数据分析,当时部门的老外很重视数据工作,每年都要去India Bangalore 做技术互动,在哪个时候我明白什么叫India People English……..。因为数据报表查询需要进行性能调优,为了检索数据性能提升,我需要同DBA团队、基础架构团队和业务系统团队进行沟通互动,通过团队间互动,我逐渐明白teamwork 的内涵,只有站在团队肩膀上,才能是我的数据分析工作由Better 到Best。 那些年在Global的日子 在做了三年制药业的数据分析后,这时大约是08年,商业智能逐渐火了起来,处于职业发展的考虑,我被猎头推荐到一家英资公司,负责中国区的商业智能系统的上线和后续运维工作。因为我负责KPI报表,直接对接财务分析部的老大,为了能配合财务部门规划KPI报表体系,我开始学习财务知识,类似Front Margin、Back Margin 、 Stock Provision 这些财务名词由陌生变得熟悉起来,KPI报表也从原先4张报表变成68张报表组成的KPI Family。为此Helpdesk 还为KPI 报表单独设立一个服务体系。 这是中国区唯一的由所在国资源做系统服务支持的,也算我的一点小成就吧。回想自己在Global的日子,依旧感到我在数据追梦之旅上居然还走到Global 舞台上,也算为祖国人民争光了! 二、追梦之路,任重道远 在外企工作10年后,我来到一家国资背景的企业,从事IT运维管理。工作中发现公司数据应用能力不高,处于老本行的冲动,开始撸起袖子干起报表平台建设工作。 此前在外企一直用Tableau、Cognos、MSTR 这类BI工具,对国内报表工具市场不是很了解,在一次朋友聚会中,有位老同事向我推荐FineReport,抱着试用心里安装下,感觉FineReport 类Excel 设计模式使其最能适配复杂结构的中国式报表开发,比老外那些反人类的设计要好很多。为此我公司,最终落地FineReport 报表项目,这套报表系统目前运行良好。 运行良好的背后,是IT人员24HR Standby的工作模式 这一感慨来源于,某天我看到QQ群中的对话,惊而发现,不知道从什么时候开始我的微信群和QQ群变成了工作群,从早到晚都在群里处理系统问题。 129858 也因此,让我有感而发。这一段简简单单的对话,这些秒回的信息,深深反映了报表组每位团队成员为业务部门服务的精神。快速响应支持,深深地烙在每位团队每位成员的心中。 我相信这样的对话不仅仅存在于我们公司,所有企业IT部门的同僚也都是这样。因为数据分析关系重大,关键用户的需求往往比较紧急,只有我们快速响应用户需求,才能让业务部门放心安心。 129859ProjectRoutine Meeting 当公司报表系统上线之初,有40个项目使用报表系统应用,但各项目分散在全国各地,很多问题需要统一汇总,处理,及时的沟通交流就显得十分必要。 为了能让项目组在报表系统出现问题时 “有技术人员支持”,我们与业务部门的经理建立了一个微信群,其中有我团队三名技术专家同时进群,无论何时何地,这些报表用户都可以在群中随时与我们取得联系。 记得有一次,我在休假,业务部门的报表系统服务器宕机,导致整个公司的报表都没有办法生成。公司上上下下都在找我,打我的手机,我一面远程遥控公司同事处理服务器问题,一面联系合作方的技术人员现场支持,那天我的手机都快电话都快被打爆了,事情结束后直接在入住度假村中吃完饭就直接睡觉去了,实在太累了啊! 还有一个冬天,本来我已经在暖暖的被窝里准备入睡,但看到老板要求马上提供去年库存数据的消息时,困意马上一消而散。赶紧从床上爬起来,打开电脑,通过VPN远程登录公司服务器查询数据。手机微信随时保持同领导沟通,自从有了微信这个东东后,我的工作变成24HR Standby。 129860ITService Desk 终于老板要的数据全部整合完成,靠在家里书房的电脑椅背上长舒一口气,看下时间,已经凌晨1点。再次躺在床上,闭上双眼,心满意足,安稳入睡 。 报表系统需要7*24运转,因此系统问题发生的时间是无法预估的,需要确定的就是我们能及时处理这些问题,虽然有时是用户误操作导致的报表数据异常,但也因此让我们了解了系统的健壮性需要加强,我们需要考虑此前没有考虑到情况对系统进行完善。 数据分析工作就像Shadow 一样 有时IT部门的数据分析工作就像Shadow 一样,很多情况都是在后台的,不为人知。只有数据出问题时候,我们才会突然曝光。因此敏捷化响应,持续改进系统,保证报表用户体验,是我心中追逐的梦想。 130017 MyShadow 我已从事IT工作近20年,从底层程序员干起,一直到现在负责公司IT数据分析团队经理。“数据追梦”我一直在路上,作为一位老员工,回顾自己10多年追梦历程,想对你说: 我觉得做好一名数据分析人员,要懂业务、勤于学习新技术、善于同业务人员沟通。看到群里不少童靴在QQ里问 “想做数据分析如何准备面试”,“现在是做XX工作,想转换到BI工作岗位”等,我想说的是数据分析工作需要有“工匠精神”,数据分析工作是一种修炼,一旦你决定要从事这项工作时,你必须全身心的投入到工作中去,热爱数据分析工作,千万不要因为困难而有怨言,你必须磨炼你的技能,这样才能让别人尊敬你的专业。 129855 My Photo 一天、半月、五年、十载,青葱岁月,一晃而过。唯有全力以赴,一往无前,燃烧炽热的青春,所求人生的梦想,方不负此生。Just Do It!,而我,也深深体会到IT的价值:系统即服务,服务产生价值!自我价值的实现也使我收获了更多的幸福和成就感。 最后,向各位读者献上我在 Koh Rong Samloem my holiday的照片,那是个美丽的地方,也非常适合思考人生的地方。数据分析是份有趣而富有挑战的工作, let me enjoy my job and enjoy my life。
决策支持平台的界面语言问题
早上启动帆软决策支持平台,发现界面语言变成英文了,如何调整回中文 用的客户端 操作系统: Win10 ,浏览器是 IE11,FineReport 8.0 ,此前一直是中文,但是在Chrome 在相同操作系统下界面是中文的。 有无方法设置决策支持平台即使在英文OS环境,也是显示中文。 129547
FineReprt8.0 数据决策平台index.html 位置
有个需求需要FineReprt8.0 数据决策平台index.html增加JS脚本功能,但不知道这个文件是在\FineReport_8.0\WebReport\WEB-INF\ 目录下那个文件修改的有高手知道吗。求指点? 127654
帆软数据决策平台浏览器图标如何修改
问题: 如何修改帆软数据决策平台浏览器默认图标? 127254
收到帆软日历啦
今天快递小哥终于将传说中 日历送到了。 祝大家2019年每天都是fine dayshttp://bbs.fanruan.com//mobcent//app/data/phiz/default/54.png 124555
2018年我同帆软在工作中成长
“多少艰辛不可告人,多少梦想有迹可循”。 2018年即将走过,我即将迎来崭新的2019年之际,回顾下2018年我同帆软一个个难忘的瞬间。 我与帆软有交集是在2017年,在一次朋友聚会上有位同事同我说他现在在用帆软报表开发公司报表而且相当好用,正好我公司有一个报表项目正在选择开发工具,抱着体验心情下载FineReport,随后在各位番薯的帮助下,开始我的帆软报表开发之旅。通过看帮助文档,帆软论坛请教我逐步掌握FineReport 的开发方法。通过FineReport开发体验感觉到这款工具魅力所在和其商业价值。 在2018年我利用空闲时间学习Royide FineBI的入门教程,逐渐熟悉FineBI这款数据分析的工具,并用FineBI完成自己第一个FineBI产品,感觉“数据分析的价值”。下面是我第一个FineBI的数据面板作品用了1天时间就搭建出来了,真的效率很高咯! 123974{:fange01gif:} 在使用帆软论坛过程中我发现帆软生态圈文化建设真是搞得很有特色,除了技术交流和互动外,还定期番薯活动可以参加。7月份我参加“世界杯”竞猜活动还赢得一个抱枕,给我紧张工作之余带来些许小确幸。现在我闲暇时间都会来逛论坛,看看今天有没有什么趣事,论坛里有啥活动。 123975 不知不觉已经同帆软相识2年,从开始的不了解不会用,到现在逐步上手,我很感谢论坛中各位番薯高手给我的指点,也感谢上海帆软的技术支持的各位同事。真是因为有你们的帮助,让我深化对帆软产品的了解。我的数据分析课题明年又要启动了,明年将又有新挑战,Just do it!。最后感谢诸位番薯的支持;希望大家在新一年里同舟共济将论坛办的更红火。{:fange05gif:}
基于IT服务质量分析技术案例
在企业的业务数据数据分析过程中,经常会遇到类似Adhoc形成的数据分析请求,这些adhoc请求因为其需要根据不同业务背景向目标用户提供特殊数据分析结果和管理报告,因此传统的BI架构模式因为其设计上的约束较难“因需而动”。而轻量化BI解决思路因为其没有严格ETL和业务建模的定义约束,用户在使用上会比较容易上手并且企业数据存储形式可能存在多种形式。在很多时候IT面对的数据是呈“碎片化”形式,业务人员提供的原始基础数据往往是Excel 格式,客观上需要一个敏捷化分析工具能完成这些数据的聚合工作。本案例给出一个基于IT服务质量分析案例,本案例所用的开发环境为FineBI 4.1。 一、需求背景 Tea公司IT部门使用ITIL V3模式管理公司的IT运维业务。每天业务用户系统使用问题通过Helpdesk上报并分配到相关的IT团队进行处理。按照ITIL要求对每个IT事件定义了4个等级(P1 –P4),每个等级对应不同的服务等级,例如P1 事件需要在2小时内关闭。Tea公司IT运维事件有3个服务团队支持,本地系统有所在国IT团队负责,集团业务系统有集团IT负责处理,外包系统有第三方团队支持处理。目前Helpdesk 已经记录所有IT服务事件运维情况,并在每月提供一份Excel 原始数据给IT 服务经理分析服务质量。原先服务质量分析基于Excel 数据分析效率低,因此该服务经理希望使用BI产品完成Helpdesk服务事件的多维分析。基本需求如下:① 按事件等级、IT团队、时间等维度统计Incidents 的数量并能完成数据的穿透,评估IT各团队的工作负荷② Helpdesk 对时间完成情况有完整的状态记录,因此需要按事件不同状态(open、closed、resolved)统计目前服务事件的分布情况(按事件状态、支持团队等维度能实现数据展开)③ 需要按时间维度对反映服务事件的趋势变化洞悉IT服务质量变化情况④ 目前外包方的服务质量需要改善,因此需要按外包商单独进行主题分析⑤ 最终用户需要提供数据联动、数据下钻和数据切片自主操作功能⑥ 数据展现需要容易业务用户理解并能通过BI分析自主发现服务过程中存在问题并提出改进措施 ITIL即IT基础架构库(Information Technology Infrastructure Library, ITIL,信息技术基础架构库)由英国政府部门CCTA(Central Computing and Telecommunications Agency)在20世纪80年代末制订,现由英国商务部OGC(Office of Government Commerce)负责管理,主要适用于IT服务管理(ITSM)。ITIL为企业的IT服务管理实践提供了一个客观、严谨、可量化的标准和规范。 二、 数据建模 2.1 业务数据分析按照IT服务经理的需求,Tea 公司BI团队获得原始的Excel的样板数据用于后台的数据建模和提炼分析维度和指标规划。Tea 公司Helpdesk原始提供服务日志如下格式:103180上述Excel文件Helpdesk 每月提供一份到IT 服务部门 1 1、 通过分析整理出上述表单的字段业务定义如下: 序号 字段名称字段类型字段说明备注 1Ticket Reference字符型事件编号主键IM+XXXXXXX (唯一源系统流水号) 2Call Details字符型用户报障内容来自Helpdesk 记录 3Summary字符型服务项目归类汇总服务大类|| 服务中类||服务小类||问题症状 4Priority字符型优先级服务事件的等级 P1 2小时关闭 P2 8小时关闭 P3 3天内关闭 P4 7天内关闭 5Status字符型状态open 事件处理中 closed 事件关闭 resolved 事件用户确认解决 6Assigned To字符型事件指派处理人  7Assigned To Team字符型事件指派负责团队Helpdesk 根据事件类型自动分配到对应团队 8In RLA数值型是否按服务标准完成 In Real Level agreement0 未能在事件服务等级规定的最后关闭时间前关闭事件 1 在事件服务等级规定的最后关闭时间前关闭事件 9Year数值型事件所在财务年份这里时间信息是财务年的概念,在案例中所在企业财报上年不是自然年的概念,财务年开始从每年3月1日开始到次年2月28日/2月29日为一个财务年 10Quarter数值型事件所在财务季度 11Period数值型事件所在财务月份 12Week数值型事件所在财务周 13Day数值型事件所在财务日 14Business Area字符型服务大类Helpdesk 事件类型设置 15Service Channel 字符型服务中类Helpdesk 事件类型设置 16Service字符型服务小类Helpdesk 事件类型设置 17Symptom字符型服务内容Helpdesk 事件类型设置 18Batch Failure数值型是否是自动脚本文本  19Country字符型所在国China 中国 China-Property 地产 20Created On日期型建立日期事件建立时间 YYYY-MM-DD HH:MM:SS 21Last Updated On日期型最后更新的日期事件最后更新时间 YYYY-MM-DD HH:MM:SS 22Resolution Deadline日期型按服务等级设置最后关闭事件的时间事件设定的最后关闭时间 YYYY-MM-DD HH:MM:SS 23Raised By字符型事件拥有者事件的建立者 24Resolved On日期型事件关闭时间事件最终解决时间,只有经过用户的确认事件才能最终关闭 25Root Cause字符型最终问题分类事件最终问题归类 26Resolution Action字符型问题建议方案事件处理人的建议方案 27Logging Type字符型事件所属的团队的服务类型Helpdesk 设定 28IT Organization字符型事件所属的团队Helpdesk 设定 29Toatal Time Taken字符型事件关闭所需的时间Resolved On - Create On 时间(分钟) 2、通过调研发现,目前IT 服务经理在PPT汇报中将所有支持团队分为CN、Global team、PMTeam、Vendor 作为分析大主题或高层聚合维度进行图表或者Pivot的展示。这些维度映射信息在原始数据上是没有的,是通过建立映射表将原始字段中的“AssignedTo Team”完成lookup table的构建。该映射表关系如下:103143 2.2 FineBI 数据建模 基于上述收集的业务数据,Tea公司BI团队 决定使用FineBI(轻量化BI工具)完成这样业务需求。首先,根据业务原始数据,在FineBI中创建数据包(包名“ITIL”),内部有2个业务表单:IM ticket(Helpdesk服务日志)和DIM_Support_Team(团队映射表)。103144 其次,将原始IM ticket.xls 通过ETL 装载到FineBI的ITIL业务包中,为了便于理解将原字段名按如下图所示进行转义命名。 103145 将团队映射表构建完成后,装载到ITIL业务包中,如下图所示。103146 最终ITIL 业务包。 103147再次:因为报表需要按团队进行聚合,因此需要在DIM_Support_Team 同IM ticket 业务包构建关系。 关键字如下DIM_Support_Team->TeamName vs IM Ticket->Assigned team name (1:N),构建关系如下图所示: 103148103149 三、 BI模板设计 3.1 业务指标规划 在构建完服务质量分析的数据环境后,更新完FineIndex 后,Tea BI 团队就开始BI前端展示页面的开发。FineBI 提供丰富的图表控件用于前端展示,但是需要Tea BI 团队根据业务需求进行数据展现逻辑的定义。需要对业务分析所需的维度和相关的聚合指标进行梳理。经过分析,关于服务质量分析维度规划如下: 103150 初步规划统计指标定义如下103152 在本分析项目原型阶段,Tea BI团队需要按需求开发如下业务分析模板3.2 服务工作量分析103153 业务用途: 基于服务事件的统计每个团队、每种优先级的事件、每个月度的服务事件数量。用于整体评估采用ITIL 模式后IT运维的工作量。设计说明:1、按服务等级统计工作量图表元件: 圆环仪表盘图表分类:IM ticket -> 服务等级图表指标:IM ticket ->IM ticket记录数 103154 2、服务类型分布图表元件: 多层饼图图表分类:IM ticket -> 服务属性大类 IM ticket ->服务等级(分组依据按相同值) IM ticket ->所属支持团队图表指标:IM ticket ->IM ticket记录数103155 3、按服务项目统计工作量图表元件: 词云图词名:IM ticket -> 服务项目 指标:IM ticket ->IM ticket记录数 103156 4、按BU统计各服务团队服务工作量图表元件: 堆积条形图分类:IM ticket -> 所属BU系列: IM ticket -> 所属支持团队指标:IM ticket ->IM ticket记录数 103157 5、按服务分类统计服务事件分布图表元件: 交叉表行表头:IM ticket -> 服务所属大类 IM ticket -> 服务所属中类 IM ticket -> 服务所属小类列表头: IM ticket -> 建立时间(月份)指标:IM ticket ->IM ticket记录数103158 6、月度服务事件统计图表元件: 组合图分类: IM ticket -> 建立时间(月份)系列: IM ticket ->服务等级左值轴:IM ticket ->IM ticket记录数 103159 7、服务数据明细表图表元件: 明细表数据:IM ticket -> 事件编号IM ticket -> 事件描述IM ticket -> 服务项目IM ticket -> 事件状态IM ticket -> 事件负责人IM ticket -> 所属团队IM ticket -> 事件发起者IM ticket -> 建立时间IM ticket -> 最后更新时间IM ticket -> 解决时间 103160 3.3 服务绩效分析103162业务用途: 基于服务事件的统计每个团队、每种优先级的事件、每个月度的服务事件完成情况。用于整体评估采用ITIL 模式后IT运维绩效。 设计说明: 1、团队服务完成率分析 103163 2、服务事件趋势分析 1031643、团队服务占比分析 103165 计算列公式定义参照如下图103166103167103168103169 3.4 外包服务分析业务用途: 基于服务事件的统计外包服务团队服务事件完成情况。用于整体评估采用ITIL 模式后外包运维绩效。 103170设计说明: 1、外包服务质量分析 103171 计算列定义如下103172103173103174103175 2、外包事件完成率103176 3、明细表 103177 四、实现效果 Tea BI团队通过FineBI 分析工具快速搭建完成原型分析模板的测试原型,并在测试环境中完成发布供服务经理确认满足其业务分析要求。Tea BI团队较为快速的响应业务需求。圆满完成这项BI分析原型开发任务。 103178 最终发布效果: 103179 编辑于 2018-5-4 19:00 编辑于 2018-5-4 19:31 编辑于 2018-5-4 19:41 编辑于 2018-5-4 19:45
元宵节拿到2017番薯故事纪念杯
今天元宵终于在单位门卫处拿到等待很久的纪念杯。 只可惜勺子碎了。贴个图 做个留念。http://bbs.fanruan.com//mobcent//app/data/phiz/default/03.png 祝各位番薯兄弟们元宵快乐 96294
FCRA、FCBA证书都到咯!
17年底通过FCRA,想着考完FCBA后一起放到论坛上。春节利用1天看下FineBI的教程就考了一张FCBA。 FCRA和FCBA其实挺简单的,计划今年挑战下FCRP ,这更有挑战{:4_120:}! 96008 96007
我与帆软在2017的故事
初次接触帆软:2017年7月,我被公司老总叫去开会,说公司想搞块大屏用于经营成果的展示。说实在的,对于这个任务,其实目前我手上的外包团队都可以开发出来,但是老总希望公司IT团队能自己解决这件事情。所以我就开始进行寻找合适的开发工具,在一个偶然机会,我发现国内有帆软这个报表开发工具,并通过帆软论坛了解到帆软城市课堂这样培训机制。出于项目选型需要,我去参加了帆软城市课堂(是一种家门口的线下培训模式)。通过城市课堂我了解到FineReport 这个简单易用的报表开发工具。 学习大屏开发:在帆软的城市课堂上,我在帆软培训讲师的帮助下逐步掌握的FineReport Designer 的各项功能和函数使用,在这里我要非常感谢帆软论坛各位“番薯”的无私的解答很及时。帮助我了解到大屏开发过程中问题该如何处理,报表函数该如何使用,使我快速学会大屏的开发技术,很快在各位“番薯”和上海帆软技术支持下我完成大屏原型开发并在演示过程中得到公司老总们的认可并确定将帆软产品作为公司未来数据分析的核心平台使用。在这里向大家展示下大屏开发的最后效果吧! 91975 学习FineReport开发报表对于FineReport掌握,我是通过公司报表系统原型开发,来实现从入门到精通的。因为公司大多数报表是通过Excel 方式手工完成,正常情况下完成一套月报需要3到5天时间,如果需求有变动时间就更长。这种报表制作的“慢节奏”已经不能让业务部门满意。因此,在这次公司项目报表开发过程中,我用FineReport 构建一套管理报表,平时要1个多月的开发周期,用FineReport 开发后仅仅2周后就交付了第一版的测试原型,通过业务用户反馈效果还是很不错的。 当然,在开发过程中免不了有些问题产生,好在帆软提供完善支持体系,帮助开发人员能够快速的找到合适的解决方案。在此也非常感谢论坛上各位“番薯”们的帮助,“番薯”们的建议对我的启发很大。在此就鸣谢各位同道对我的支持吧。 91976 {:4_122:} 很多人会问市场上有很多同类的产品,为什么我会最后选择帆软作为公司报表分析工具。我的回答是帆软的产品最符合复杂中式报表开发需求,同时轻量化开发模式也非常符合公司“小步快跑”的需求。 我同帆软相交在2017年,希望在2018年我们之间有更深的互动。希望帆软能做到“会当凌绝顶,一览众山小”的境界。贴张我公司目前实施FineReport开发的报表原型,作为我在2017年同帆软故事的总结吧。 91978 {:4_118:} 部分截图涉及到公司系统,我做个部分的脱敏处理,请各位谅解。
个人成就
内容被浏览75,268
加入社区4年47天
贡献:2275

联系社区管理员|联系帆软|《帆软社区协议》|手机版|帆软社区|Copyright © 帆软软件有限公司 ( 苏ICP备18065767号-7 )

GMT+8, 2021-9-22 14:04 , Processed in 2.417390 second(s), 101 queries , Gzip On.

返回顶部