找回密码
 立即注册

QQ登录

只需一步,快速开始

扫一扫,极速登录

请上传宽度大于 1200px,高度大于 164px 的封面图片
    调整图片尺寸与位置
    滚轮可以放大缩小图片尺寸,按住图片拖动可调整位置,多余的会自动被裁剪掉
取消
大猫吖(uid:68441)
啥都懂一点,但啥都不精 职业资格认证:FCBP,FCAP,FCRP
【2021夏季挑战赛】绿茵场上的 “绝代双骄”
恭喜本作品荣获“2021帆软BI可视化夏季挑战赛-最佳展现创意奖” 1、点击浏览在线作品 2、点击查看/编辑在线模板(完成问卷即可获取平台账号)   一、自我介绍   社区用户名:大猫吖,某国企的数据运维及数据可视化开发人员,励志做出色的数据分析师,去年其实已经和很多朋友结识了,如今希望认识更多的小伙伴。 参赛原因:帆软的活动现在有时间就尽量参加,寻找数据可视化快乐的同时锻炼自己,希望能结识更多的数据及可视化达人互相学习交流!   二、作品介绍   1、数据可视化背景:作为一个资深球迷的我,刚好又正直欧洲杯和美洲杯期间,所以一直想做一版关于足球的数据故事。想到近几年被球迷经常拿来比较的两大绿茵场的超巨梅西和C罗,于是出于情怀和感动,就对两人成名至今的比赛数据进行了对比和分析,至于谁更出色,由你们来评价。2、数据来源:百度百科、懂球帝、新浪体育等。3、可视化展现思路:作品跟企业业务的关联性不大,所以分析逻辑较为简单:展现两人的足球生涯历程、出道后的身价趋势、进攻方面的能力对比,各赛季的进球效率、直接对话的胜负关系、两人交锋大事件以及梅罗两人的荣誉对比。4、数据处理:该作品需要处理的数据不算多,主要还是获取想要的数据难度较大,而这里我只讲下做雷达图的数据处理,即处理两位球员的能力维度。这里处理能力维度对比时,需要加入能力组内的最小值和最大值两个字段,然后能力的计算公式为:(实际值-最小值)/ (最大值-最小值),做这样一个处理,也是为了方便看清球星自身的优劣势。        5、故事制作:5-1  球星介绍,图文并茂,球员资料也属于数据的一部分,所以有点类似指标卡的展现            5-2  身价趋势,多系列折线图,配置方面不多说了                5-3  能力对比,采用了雷达图的形式展现,因为之前雷达图的数据做了处理,指标的范围有了统一的整合,就能清晰的看清球星自身的长短处。          5-4  进球效率采用了多系列柱状图进行了对比,这里只需要注意进球效率这个指标需要进行计算,而整个可视化图形中,数值越低表明效率越高。          5-5  直接对话分析 直接环形图就能看出胜负关系,而用矩形块图可以看出这些两位巨星分别在什么赛事里的哪场比赛取得胜利                  5-6  直接交锋的事件轴,FineBI其实也是可以做事件轴,但实现起来达不到我要的效果,于是我在这个制作中将FineBI和FineReport相结合,做出了折叠性的事件轴效果。            5-7  旋风图作为最后一个图来表现两位巨星在过往的十几年里的荣誉,旋风图的制作方法可参考finebi的人力金字塔教程           完整作品:   三、总结        本次参赛刚好与单位的很多事情冲突,于是自己也没怎么准备,就抱着打酱油的心态参加的。而且作品也跟大家完全不同,纯属怀旧,没有任何业务特征,超级简单,我都在考虑要不要发出来,后来想想,其实自己也并无收获,新闻故事类型的数据可视化也是我尝试的一个方向。          谈点自己的看法:其实这两年数据可视化的发展速度之快让人惊讶,同质化的作品真的是越来越多,无论是样式和题材上都大同小异,这点我觉得做数据报告呈现的我们和FineBI的小伙伴都应该思考思考。最后就是回归到业务本质去,“会员活动对创利到底有没有帮助”、“实现降本增效的管理一直不理想是为什么”,“商品定价到底跟什么有关”……这些都是很好的分析主题,我一直认为,没有业务背景的分析价值真的很小,我身边看销售趋势、看同环比的案例比比皆是,然后,就没有然后了。          差点忘感谢了,这次作品虽然随便做了下提交,但依然有要感谢的小伙伴,瑶妹、天睿、徐总……跟大家聊了很多作品还有产品上的完善和优化,很开森!   P.S:我要care下FineBI的产品组,真的优化空间还很大:大数据量的分析、友好的交互、个性化的呈现 都可以是你们未来的工作方向!真心希望未来可以看到更多更好更个性的作品!   绝代双骄-verson2.pdf (720.19 K)   编辑于 2021-8-9 17:46
【数据萤· 业务场景专题】FineBI用户行为分析实战
标题 【数据萤计划】第1期:FineBI 用户行为分析实战 所属行业 互联网行业 分析方向 用户行为分析 1、背景说明 从淘宝随机挑选了将近5W的用户,对其在2017年11月25日至2017年12月3日的一周时间内的所有行为数据进行了采集,希望得出一周内这5W用户的行为分析从而抓好用户留存及营销活动 2、需求/痛点 此业务分析场景应用很多,但多数分析是通过python实现,对于不会代码的业务小白来说很不友好,借FineBI的可视化操作界面,帮助业务能自主的实现分析需求 3、数据来源 数据来源:阿里天池,经自己对源数据进行研究,发现数据量较大,1周内的数据将近5000万的量级,在做分析时,对时间、精力以及硬件要求过高,故压缩数据至将近500多万的量级(这个量级我硬件方面还是有点吃紧),压缩原理对用户数量进行了量级删除。 4、FineBI业务应用 留存率分析,留存率是互联网公司必做的分析,案例主要是提供制作思路和操作方案,熟能生巧,分析的目的也是希望通过用户的活跃度对产品进行优化更新 AAARR模型,淘宝的购买可能存在差异,即AAARR模型有多种路径,不同购买路径有不同的转化率,都需要考虑下 复购率分析,复购主要针对的是用户对产品的喜好及评价,通过复购率可以优化产品结构并做相应的营销策略 顾客RFM分析,定义用户分群,并针对不同的用户做不同的营销策略 5、FineBI亮点功能 地图钻取的应用,能更好更快捷的跟踪具体的用户行为量 AAARR的模型,在此案例里并不固定,利用了FineBI的Tab功能,更方便的展现各AAARR模型可能的数据 6、价值推广 此案例是互联网公司经常分析的案例,涉及的数据分析模型很多: 总体情况:看板展现(包括总uv、总pv、总成交量、人均浏览量) 留存率分析:留存率是互联网企业最常用的分析,留存率分析最主要是监控产品的运营情况,同时也会靠此数据优化产品的功能,留存率越高,用户的黏性也更强。 各省用户活跃情况:能熟练使用FineBI的地图组件和地图钻取,监控各区域的用户行为 各行为类型的日趋:异常监控或跟踪活动效果 AARRR行为漏斗分析:淘宝的购买路径可能存在差异,需要结合Finebi Tab新功能,AARRR模型是著名《黑客增长》里的基础数据分析,此案例主要是借AARRR模型来优化淘宝购买路径中的问题 时段用户行为分析:更清晰的看到商品曝光和下单更好的时间段,并针对性的做相应的营销行为。 商品购买次数排名及复购率:虽然复购中缺少购买数量和购买金额的维度,因此会少一些分析,但数据处理中依然能算出复购率。复购率的分析其实是电商、传统零售企业常用的分析手段,主要用来对电商产品结构的跟踪和改善。 商品类目及商品关注度分析:关注度决定了顾客对哪些商品更有意向,想提高整体销售则再需从商品打磨、促销活动方面再做分析及决策。 RFM用户价值分析:RFM模型应该是大家接触比较多的模型,定义用户分群,并针对不同用户做不同的营销策略。 7、其他维度 关于用户的行为分析,在FineBI的模型介绍中比较零散。该案例主要做个模型的整合,提供思路和操作方案,所以并未对结果形成数据报告,实战的主要目的也是熟悉各种分析模型和思路,帮助不会代码的业务小白能通过FineBI能实现一整个用户行为分析的场景和案例,当然该案例虽然是互联网行业的分析案例,其实一些传统企业的零售/电商也有一些通性,可以借鉴思考。P.S: 我在做分析过程中也发现了FineBI的一些问题,主要是数据量级过大FineBI会考虑宕机问题做的一些限制,希望帆软的程序猿们可以对大数据量的分析再优化优化(“一年内不考虑的”的梗就不要再玩了哈!) 8、成果展示 144059144060144061 编辑于 2021-5-28 08:50  
欢迎来讨论喽!
摸鱼中看到个很有意思的话题: 彩票中500万 与 被鸟屎砸 哪一个更容易? 欢迎大家来讨论! static/image/hrline/5.gif 144017 144018 编辑于 2021-5-24 17:13
【讨论】你所认为的数据敏感度是啥玩意?
最近逛论坛,还蛮惊喜的,主要是发现了一些开放式的话题,比如 辩论数据分析到底是IT的活还是业务的活,刚好前不久也跟朋友聊起一些关系数据敏感度的话题,索性我也来开个非技术性的讨论帖,想看看大家对于数据敏感度的看法,希望各位番薯IT也好,业务也罢,都可以畅所欲言! static/image/hrline/line1.png static/image/hrline/line7.png 142245 static/image/hrline/4.gif 给大家几个角度吧: 你认为的数据敏感度是什么样的? 何为优秀的数据敏感度? 你认为IT的报表设计人员是否需要数据敏感度的能力? 如何培养和提升自身的数据敏感度? P.S:等大家的回帖意见>=10,我会在后面对大家的看法进行一个提炼及总结 static/image/hrline/line6.png 之前说过,超过10个回帖我就来总结关于数据敏感度的内容,因为太忙,一直耽误到现在,以下总结,有网络搬运,有借鉴了大家的发言,也有自己理解,希望能帮助到大家。 static/image/hrline/5.gif 数据敏感度没有一个明确的定义。有人觉得是能快速发现规律,有人觉得是能及时判别异常,也有人觉得是权利和金钱的象征,都没错哈。在人人都是产品经理的《什么是数据敏感度?怎么培养数据敏感度?》这篇文章中,说数据敏感度是:业务理解力、客户理解力、数据理解力的综合结果。我个人觉得业务理解力与客户理解力有一定的重复,所以在我看来的数据敏感度是认知、计算和理解的综合能力: ▶ 认知是啥?大家去玩骰子,最大为6,你在夜店跟别人玩骰子的话,一般是6个骰子,如果你喊出5个7或者7个5,可能就被人笑话了,这就是认知 ▶ 计算又是啥?就是对认知的引申,突然有人说自己一周工作60小时,你的第一反应是啥?一周正常工作5天,每天8小时,实际是一周是40小时,国家劳动法规定的劳动者一周不得超过44个小时,60个小时的概念就是这个人每天要工作12个小时,他真的不怕猝死么? ▶ 理解的意思,举个栗子:我突然说武汉市场每个月肉包有6400,000元的销售,你脑子里能浮现整个武汉市场大概有多少包子店。整个数据链路里,你脑海里能浮现出每月天数、肉包单价、有大概的天气情况印象,是否有促销情况的影响等这些信息,你的数据敏感度就超级厉害了。 所以,会用到数据敏感度的场景就有如下: 能辨别真伪 能评判好坏 能发现数据关联 能定位问题 能提炼规则 能预估未来 其实总结完这些,我们大家都可以对自己的数据敏感度能力有一个评估了。我们的回复里有人聊数据敏感度的天赋,不可否认数据敏感度有一定的天赋关系,但是后天的培养比先天的天赋占比要大很多,而且,你一旦跳出了自己熟悉的领域,可能行业相关的数据敏感度又得重新培养。 static/image/hrline/5.gif 那该说说如何培养数据敏感度了 1、专业知识。专业知识对培养数据敏感度的帮助就是提升效率,二分位,四分位,正态分布、辛普森悖论这些知识都能好的让你了解到看数据的重点 2、留意身边有价值的数据。无论工作还是生活,只要你觉得这个数据对你有价值,就请去记住它吧。(提个小问题:你们谁记得自己省份去年的GDP是多少么?) 3、记住参考值。比如某数值的均值或者范围等。如果是大范围的数据,请参考行业水平,如果是企业内部数据,请参考企业平均值 4、某些异常值。为什么说要记异常值,其实异常值可以帮我们归纳事情的本质和现象,一般异常值的出现必定有大事件,大家可以联想下股票的涨停和跌停。提醒下大家,这里的异常值并不指的仅仅是那些不好看的数据。 5、训练自己的判断思维。如果说没有判断思维,那就不要来谈论数据和敏感度了,男人的直觉和女人的第六感在这里都不适用。任何数据都可以进行怀疑,剩下的就是验证了。 6、结合实践培养的话,我觉得《什么是数据敏感度?怎么培养数据敏感度?》就讲的很好,分别从懂数据和懂业务的角度去告诉大家如何培养。 基本上,我要总结的就这些了,当然我也不是数据敏感度很高的人,写这个帖子的初衷就想学习下大家平时练习培养数据敏感度的方法,现在就拿此贴与君共勉吧。最后,还是要谢谢参与过留言的大家! {:10_286:} 编辑于 2021-4-22 09:29
终于不用馋你们新年礼物的啦~~
之前还眼馋小伙伴们的礼物,不过,我现在也有了。上图上图!顺便对比下20和21的,今年高大尚太多了! 编辑于 2021-1-5 10:24
【2020冬季挑战赛】零售连锁公司促销分析
一、选手简介 1、团队选手版 团队名称:打工人儿 团队组成: 大猫:团长,企业信息化加ERP系统规划出身,有可视化经验,有个人数据分析案例,专业打杂一百年。 秋爽:脑力和颜值担当,财务出身,熟悉业务,逻辑清晰,有不少财务类分析案例,此次分析的核心成员。 又又:脑力和颜值担当,黄成明老师的铁粉,业务熟练,现任运营分析岗位,此次分析提供了不少分析意见。 聪聪:技术和颜值担当,数据库、ETL的主力军,数据源的整理和脱敏均由他一人完成。 每每:美貌与智慧并存的团宠,熟悉业务知识,有生产制作、物流运输方面的数据分析经验,但本次分析偏运营,可惜了其能力。 2、参赛初衷 团队参赛与个人参赛最大的区别,就是思维的碰撞,每个人的眼界、视角不一样,看到的数据也可能也不一样。我们每个人都没有团队可视化分析的作品,哪怕在实际工作中基本上也跳过了头脑风暴这些过程,不懂的地方最多也就咨询下业务部门。团队的小伙伴其实都是朋友、同事、前同事的关系,大家现在在自己的岗位上都做着数据分析的相关工作,对于此次参赛,当大猫提出后大家就一拍即合,觉得这是一次非常好的锻炼,通过这次的比赛也一定能学习到一些之前没有接触过的知识。当然,如果能取得好成绩的话算是锦上添花,也算是对团队每个人的一种认可吧~ 二、场景介绍 1、背景 2020年初受新冠疫情的影响,各大实体经济及行业都受到不小的影响,某食品零售连锁公司也是如此。2020年中旬,该公司的某些门店销售持续走低且产品报废高,经过公司中高层的多次沟通,基于避免浪费食品并回馈顾客,公司选定了6家门店从2020年7月1日开始做了每晚20:00后某类产品买2送1的活动,活动期限为25天。活动到期后,运营部又想申请延长此活动期限,并且希望扩大活动规模。 为此,该公司总经理希望能对此前的活动做一个全面的复盘,通过相关数据分析来看看此活动的效果,是否达到活动前的期许,能否帮助公司提高效益,如果此活动继续,顺便给出一些选店意见。 2、分析思路 分析前大家一起讨论过5W2H、人货场的各种模型,但最后大家选择了按照SWOT的模型思路去做分析,即由外到内,由整体到局部的分析: A、活动前后的对比分析 对比活动前后的整体情况(包括来客数、销量、销售、报损) 活动期内的时段对比分析 B、从门店维度的分析(包括活动前后对比,还有活动期间分析) 各门店活动前后的对比 各门店的销售趋势解读 C、在活动期内从物料维度分析 活动对非活动类别产品的影响(即活动支持度) 晚间入库报损率明细,晚间入库与报损关系 活动物料的支持度分析 3、数据整理 痛苦的数据整理过程。自备数据源,而且从企业真实生产环境去减量脱敏,真的是不容易,整个过程的感觉就和数据治理差不多。 A、做了3张维度表:门店主数据、物料主数据、活动主数据 这里想说下,活动主数据没怎么用到,主要是后面写SQL事实表时,基本把活动了筛了出来 B、写了4个SQL的事实表: 订单明细表 报损明细表 入库明细表 促销订单明细表 C、然后就是各种自助数据集的整合 门店物料销售汇总,按门店、物料、销售日期、日期类型、物料类别、时间段进行了汇总,直接上图吧 139019 门店销售汇总,这个图就不上了,和上述差不多,这个自助数据集的汇总主要是为了合并门店销售/报损汇总表用的 门店销售/报损汇总表,这里要说的是,报损分析时,时间段的维度是没有意义的,门店一天的报损基本上晚间关门前去做,所以在这个汇总表里,是没有时间段这个维度的,所以门店销售汇总时,不要时间段需再汇总次。 139020 晚间入库及报损汇总表和门店晚间入库报损率这两个表需要注意是时间段,是晚间入库,所以需要在入库汇总时过滤到了白天的数据。 139021 139022 活动对非促销商品的支持度(连带率),这块的自助数据集比较简单,按商品类别去统计订单数就好了。这里不上图了 促销商品支持度分析,这块的自助数据集不讲了,基本上就是购物篮分析的步骤,总单,单个商品的单数,A&B商品单数,最后算下三度:支持度、置信度、提升度(给FineBI打个广告,去翻FineBI的文档,购物篮分析-关联规则,链接如下:https://help.fanruan.com/finebi/doc-view-1124.html?source=1 ) 4、完成分析报告 首先,整体的分析选择了指标卡去展示,这样会让阅读者第一时间清晰的掌握活动的前后对比 139023 这里说下图形的选择,因为我们这个主题对比很多,因此选择条形图和柱状图也挺多,当然中间也是可以穿插旋风图,但团队认为旋风图在这个案例中的展现并不是太直观,所以就删掉了。 139024 139025 其次,我们内外对比完成后,就从门店的角度做了活动期的趋势分析,趋势分析基本上就是柱状图和折线图。不废话,就2个字:直观 139026 139027 最后,在结合物料的分析中定位问题并能给出些建议时,这里我们做了表和图的相结合,也根据图表的使用方法丰富了可视化的样子,如下图,要判断两指标的关系就用了波士顿矩阵;在活动支持度上用了仪表盘+词云的展现方式,以及促销商品支持度上用了矩阵块。 139028 139029 最终效果: 1390345、项目总结 小伙伴们都是第一次做团队的可视化分析,所以要总结的东西挺多的,整个过程,能感觉到大家都还是蛮开心的。 首先是选题,组委会给的选题是大家第一轮就PASS掉的,但在自主选题上大家又是各种意见,毕竟小伙伴们各自呆过的岗位不同,都想在自己拿手的业务方面去表现一下,但最后,综合了很多因素,大家从5个备选中选出了一个活动类的主题进行分析 139030 其次是数据源问题。团长本以为数据源很简单很容易搞定的,但因为我们需要自备数据源的原因,中间就出现了各种问题,比如数据量过大,维度缺失,事实表丢失数据等等,就直接导致分析和制作进度缓慢。 然后说说营销主题的分析,我们这次的选题比较行业化,看似简单,其实坑也蛮多的,比如在活动日期的维度上又多了层活动时间段的维度,于是大家在做头脑风暴时,碰撞也十分激烈。先上张大猫的脑图,只是最后团队选择了SWOT的分析模型思路去做的分析。 139031 大家的板书也写了很多,真的,感觉这次活动大家死了无数的脑细胞啊! 139032 在讨论中,有一个很有意思的插曲,如下图,至于这个问题的答案,就留给可爱的小伙伴们。 139033 总的来说,这次团队参赛,应该超出了大家预期的效果,小伙伴们都挺辛苦和努力的,在这里感谢团队里每一个人的付出吧!但愿未来还有更多的机会和舞台能让小伙伴们继续合作~~ 最后,送团队小伙伴们一句话吧,今年帆软智数大会一个嘉宾说的:“如果你无法衡量,你就无法增长”,祝愿大家能在数据分析的道路上越来越顺利! 140361
【2020冬季挑战赛】豆瓣读书数据分析
一、选手简介 1、个人选手版帆软社区名:大猫吖职业简介:现就职于某药企信息部,主要负责数据方面的运维和开发工作,从事和数据相关工作将近6年,兴趣加之自我转型结缘,照片嘛,去年追梦人活动的时候给过的,就不给了 2、参赛初衷之前在论坛里写过感兴趣的分析文章,但实话实说,在工作中基本很少用BI工具去做分析,还是多在用Report做取数工作。在拿了FCBP之后,发现BI越来越少去碰,熟练度也再大大的下降,所以来报个名,参个赛,找找做数据分析的手感,毕竟还是希望自己未来走数据分析的道路而非茶树菇,当然也希望能和一些大神们多多学习。 二、场景介绍 1、背景:武汉城市之声107.8有个悦读读书会,最近在跟读书会的会员解读豆瓣的100本好书,借此机会就有了对豆瓣书单分析的这个事情 2、分析思路拿到数据源的第一件事自己是看了下字段的,包括书名、作者、出版社、出版日期、页数,价钱、评分、评论数于是自己大概整理了下分析思路: 书籍作品出版的趋势 优质高产作者分析 图书出版社的排名 书籍价格占比及书籍的性价比 最值得读的书籍 3、数据整理数据整理的过程其实是数据分析的重头戏,也是数据分析准确性的基础,当然我这份分析较为简单,所涉及的数据源也并不多,但其中也有几个点需要注意下: (1)出版日期,因为我的数据源出版日期的数据并不标准,有年月日完整的,有缺失月份和日期的,还有根本不符合现在日期的,所以我并没有使用日期的格式,直接截取了年份的字段,然后将年份转化成了数字,并对数字进行过滤138900138901 (2)去重过程,数据源里有些数据是有重复的,所以我对书名、作者、出版社及出版年份进行了去重操作138902 (3)脏数据过滤,这个就不详细讲了,基本上就是缺失作者、页数、价格,页数、价格为0的这部分数据进行过滤138903 (4)新增计算字段增加了一个价值评分,主要是对书籍得分和书籍热度(即评论数)的综合评价。计算公式为:价值得分=(((评论数量/(评论数量+50000))*书籍评分)+(50000/(评论数量+50000))),其中50000为进行排行所需的最小评论数 138904 4、完成分析报告作品趋势分析,唯一需要注意是20-21世纪的年份周期过长,我在可视化时将年份进行了过滤,展现了1960-2020的趋势; 138905 优质高产作家排名中,我并没有合并2个维度,我优先了作品的平均得分作为排名,作品平均得分越高越优质,而高产则取了作家的出品数量。在这里我在分析前我就过滤了得分不高和反响不好的作品,同时在可视化呈现中,我没有取相同的图形展现,选了条形图和折线图,方便大家能一眼看出; 138906 在图书出版社的排名中,我使用了和作家排名大同小异的方法,只是这次我将出品数量作为排名的条件,而平均得分作为了次要维度,同时,我将条形图换成了柱状图,出版社平均得分的折线图中加入了所有出版社的平均得分警戒线作为参考,使得数据阅读更为方便。 138907 说说价格段占比,在做占比可视化时,先将指标转化成维度,然后对价格维度进行区间分组,最后才是图形的调整,我在做的过程中,饼状图、玫瑰图和环形图都有试过,我个人加了点小icon后觉得最为理想的呈现方式是环形图,当然玫瑰图也不错,只是我指标对玫瑰图的半径大小影响不大,效果我个人不是很满意,就PASS掉了。 138908 在性价比分析中,我脑子中第一个可视化的结果就是使用象限法,去呈现一种书籍价格与页数的关系,但在后来做的过程中,我觉得页数,价钱的关系对性价比说明稍微弱了点,于是我就又加入了评分高于9分的闪烁动画。当然还有一点,就是这个分析的数据量是超级大的,我在分析前还过滤掉了书籍评论数小于50000的作品,最后结果就是这样的。 138909 关于最值得读的书单,这块可视化的制作我选择了矩形图的呈现,之所以没选择条形图和柱状图,还是考虑到这份报告里的视觉疲劳,至于其他方面的注意事项,和之前的分析差不多吧。 138910 最后,就说说排版布局吧,之前做过一些比较花俏的可视化,类似大屏看板那种的,但是我个人更愿意偏向清爽简洁型,主要还是为了说明可视化后得出的结果。最后呈现结果的话就看我的PDF吧~138932附:可视化解读的视频地址,欢迎大家来交流~https://fanruanbbs.obs.cn-east-2.myhuaweicloud.com/BI%E5%AD%A6%E4%B9%A0%E7%8F%AD/BI%E5%8F%AF%E8%A7%86%E5%8C%96%E7%B2%BE%E9%80%89/BI%E5%8F%AF%E8%A7%86%E5%8C%96%E5%86%AC%E5%AD%A3%E6%8C%91%E6%88%98%E8%B5%9B/%E6%A2%81%E5%BF%97%E8%B6%85-%E8%B1%86%E7%93%A3%E8%AF%BB%E4%B9%A6%E5%88%86%E6%9E%90%E6%8A%A5%E5%91%8A.mp4 5、项目总结最后了,说说做整个作品的个人想法吧,本人在互联网上一直会关注一些大V的文章,比如这次评委中的其中2位:黄成明老师和李启芳老师,当然这些老师多数教大家是怎么样去做数据分析,也就是数据分析方法,至于数据分析报告的写法和呈现,其实不多。当然我自己也会去网站或公众号去看一些数据报告类的文章,所以这次除了做了一份书面报告外,我换了种思路,将纸面化的报告做成了一个短视频,虽然视频内容的创意还不足,但这种展现数据的方式我觉得是可以抓住阅读者的眼球和内心的,就当是一种新的尝试吧~~这次挑战赛的这个作品,我虽然以个人名义报的,但视频中的配音还是靠朋友帮忙录的,非常感谢 耶稣的邻居(昵称)!多的就不说了,很期待未来跟大家有更多的合作可能! 140360
那些年我们玩过的TV-GAME
我作为一名IT农民工,从小就对电子游戏充满了热情,想必论坛里的小伙伴有很多和我一样。伴随我们成长的,都是超级玛丽、冒险岛、魂斗罗等超级经典的Tv-Game。最近看着家里落灰的PS4和Switch,又想调节调节论坛氛围(论坛里学习案例和企业案例太多了,想轻松点~~),于是自己在网上搜刮了点数据,就有了写这个主题的想法。当然因为论坛里有很多大佬都有做过技术贴,帆软也有相应的学习视频,所以我就不过多的讲技术了,单纯从一个兴趣爱好的角度来说说那些年我们玩过的Tv-Game。 135864 ------------------------------------------------------------------------------------ 我是从上世纪90年代开始接触的Tv-Game,接触最早的游戏机是FC(红白机,插卡带那种),不知道大家是不是啊,上手的第一个游戏是魂斗罗,当时真的觉得好厉害好有意思,这个世界上居然有这么有趣的发明。当然,电视游戏的发展史,还是较为年轻的,从上世纪70-80年代到如今,也就40-50年时间。但游戏的开发及发行增长还是很快的。 135858 ------------------------------------------------------------------------------------ 伴随着技术的日新月异,游戏主机的性能也随着时代的发展越来越强,从FC到Wii,再到现在的PS4,Xbox360以及Switch,大猫我基本上都有接触过这些游戏主机(就是喜爱,不是土豪!),各电视游戏主机之间竞争也是变得相当的惨烈,除了性能外,游戏的发行销售也成了各平台的筹码,独占游戏意味你想玩这款游戏必须先入手能支持的游戏主机才行,索尼公司的PS2就是在那个年代因为游戏一军突起,成功占据了所有平台游戏销量的头把交椅。有的时候,我是超级怀念PS2上的游戏的,比如:零系列,最终幻想系列,恶魔城系列…… 135859 ------------------------------------------------------------------------------------ 让我们再来聊聊游戏类型,不知道你们最喜欢玩什么类型的游戏,Tv-Game之前是没有类似LOL、王者荣耀这种MOBA(英文全称:Multiplayer Online Battle Arena,缩写:MOBA,中文翻译:多人在线战术竞技游戏),就连互联网的联机,想都不敢想。所以,动作类游戏,体育类游戏以及角色扮演类游戏就是Tv-Game的主流,我个人最喜欢的玩的这三类游戏分别是,战神、实况足球、以及最终幻想 135860 135861 ------------------------------------------------------------------------------------ 说实话,现在的游戏是越来越多,但经典的游戏,或者说烙印在我们内心的游戏也就那些,总结了一份Tv-Game的大IP销量排行(可能会有遗漏),马里奥、使命召唤、塞尔达这些神作果然排名靠前,但不知道是否PICK到论坛小伙伴们的心目中没,总之,来一波回忆杀就好了。 135862 135863 ▲(P.S:用FineBI做桑基图研究半天,也看了 枫城 大佬的排名桑基图教学,但非数字关联关系的桑基图好像还是实现不了,就用其他办法做的) 135865 ------------------------------------------------------------------------------------ 最近,又发布了好多关于游戏主机及游戏的新闻,先是国行版Switch的健身环大冒险终于登陆中国,接着就是索尼宣布PS5即将于今年年底发售,期待啊!相比于碎片化的手游来说(我是不怎么玩),电视主机游戏给我带来的快乐真的很单纯,当然,现在Tv-Game的游戏质量也在提升,最后生还者,动物森友会等我们也看得到制作厂家满满的诚意。可惜,对我来说,应该是老了,玩不动了,只是心中还存在那曾经的回忆和感动。最后,我还想说,作为一位孩纸的父亲,我不是很care老一辈的看法,现在的孩纸压力那么大,游戏嘛,还是要劳逸结合的,可以玩,适可而止就好! 135866 135871 编辑于 2020-9-4 23:25
从Excel学渣到企业数据规划,成为专业的BI工程师并不难
序言 我从第一次接触BI(Business Intelligence),至今已有5年多的时间了,从Excel的报表制作到数据运维,再到数据规划,自己也算是都有些经验,但要说这些经历让我最感兴趣的,还是数据分析的过程,你要问我为什么,我会告诉你,思维逻辑是我觉得人生最值得学习的一门学问。 135545 1-战略定位之我见 本人是计算机信息管理专业毕业,投身于IT事业的时间也不短了,对于企业信息化发展的看法就是:2020年的今天,如果我们还讨论什么信息化的基础建设就太low了,那IT部门或者作为企业IT的服务者到底在这个时代应该做些什么呢? 我一直跟我的小伙伴们灌输这样的理念:随着大数据时代的发展,IT终会向DT转型,IT需和业务部门合作,把对业务的理解转化成量化的指标,然后再对业务部门进行输出指导,最终才能最大程度的提升部门在企业内的核心价值。应运而生的,就是商业智能,我们口中的BI!而我们的企业,也会随着BI的运用,慢慢地转为精细化的管理,所以数据管理、数据运营等也会变成企业成长的分水岭。 2-我的BI学习成长经历 Excel篇:我觉得我是Excel学渣,在企业内最早接触的数据统计和分析工作,基本都是用Excel做的。比起各个部门的表哥表姐,我会因我的Excel水平仅停留在一些简单的函数上而羞愧,幸好曾经的统计分析工作并不多、数据量不大、时效性也没那么高,索性自己也并没有深入的去学习,但我会偶尔问问大佬透视表、切片器这些工具用法。所以这段经历就讲这么多吧,但是,请别忽视这样一个数据分析工具,大量的数据应用场景中都还是会出现它的身影! FineReport篇:我第一次接触这样一个报表系统,眼前一亮,兴趣使然加之领导施压,我便开始学习并使用它,起初它的优势真的显而易见:直连数据库、多数据库取值、报表人效高,界面也挺高大尚的。 但不得不说,学习它也非一朝一夕的事,FineReport的使用需要一定的技术基础,当时完全是自己摸索着学习,所以有段时间,觉得挺难的,什么数据库,什么SQL,什么JS,哎~~总结了份自学的思维导图笔记,算是见证了自己的成长吧! 135533 FineBI篇:FineBI是我这次分享的一个重点,毕竟我刚刚拿到帆软认证的BI工程师的证书(这里就不放证书图片了)。 关于FineBI,前不久帆软出了篇文章来说明FineBI和FineReport(即报表)的区别,我也想说下我个人的意见,如果你的单位是一个数据应用起步阶段的企业,就请选择报表系统吧,这个阶段,这个软件足够解决你做报表的人效问题,也足够支撑企业高管所想了解的KPI指标。 但如果你所在的单位已进入到数据管理、数据运营的阶段时,如果想要关注长期的战略决策,更着重于商业趋势和业务单元的联系而非具体的数据和精确度本身,BI才是真正的选择,FineBI和报表系统的侧重点真的不一样,一句话概括就是:BI解决企业内部的数据分析问题,而Report则能解决人效及数据意识问题。 135534 说下学习, 我本身就对数据分析很感兴趣,当企业发现问题需要解决时,只有用数据说话才最铿锵有力!我今年的目标本来定的是运营官的学习和认证,误打误撞报了BI工程师实战班,关于FineBI的操作培训,对我一个IT出身的人来讲,真的不难,准备数据集,清洗数据然后对各种维度和指标托拉拽就好了,FineBI对于普通的业务来说其实是很合适的,是一个不需要技术基础就能掌握的分析工具。 但说实话,这门课里除了讲FineBI的操作外,各种分析思路与方法太受用了,老师不光会讲解各种分析模型,还会如实的还原一些数据应用场景让大家能更深入的理解这些模型的意义,比如RFM模型,做了这个模型的分析后,再将它应用于企业的精准营销,不香么?再比如购物篮分析,能有多少零售公司会将它分析的结果用于运营管理并提升商品的销售? 当然,怎么样写一份优秀的数据报告也是我觉得此次课程最有价值的一部分,我有的时候把自己定义为是一个茶树菇,这个自黑或许比表哥表姐感觉高一个档次,但想必所有做数据工作的人内心都应该是拒绝的吧,为什么要查这个数据,这个数据的含义是什么,这个数据能解决什么问题,是我经常在做数据分析中会思考的,当这些思考能总结出语言和文字,便是课程中所学到的商业可视化数据分析报告,也是数据价值的产出。在这方面,以前我是严重不足的,学完了这个课程也深受了很多启发。 我学FineBI的方法就一个字:肝。说实话,我平时学习的时间并不多,但时间这个东西还是要靠挤的,然后就是提升自己的学习效率。以下是我学习BI课程的经验: 认认真真的看遍PPT,课程里的PPT写的还算精炼了,基本上后面的视频讲解,也是跟着PPT的顺序走,所以认认真真的看PPT,我觉得你就能掌握70%-80%的知识; 粗略地过一遍本周作业,在我学习过程中,熟悉作业是我觉得很重要的一步,不看作业有的时候真的不知道学习重点,所以在粗略地看过/做过一遍作业,很快能让我了解课程结构和重点难点; 带着疑问过视频,看视频是我认为比较花费时间的,虽然视频里有倍速播放。所以在这块学习一定是要带着问题去看的,这样可以大大节约学习时间; 查看文档,翻文档是自学必备技能,帆软在文档这块做的还是不错的,无论是FineBI还是FineReport,未来在实战应用中,文档可能就是你最亲密的伙伴; 与小伙伴们多进行沟通交流。交流本身,在正常的工作中都是多多益善的,每个人的岗位不同,角度就不同,看到问题的本质或许就不同,通过思维的碰撞,你会发现另一扇窗外有别具一格的风景。 python篇:我还是一个python的小白,但这里我为什么会Q下python呢,python作为一门编程语言,有它得天独厚的优势,当python的爬虫遇上FineBI的可视化,你的数据分析报告想不专业都不行,当然pandas和numpy等模块也可以学学,绝对能保证你在数据分析领域越来越全面。最后,还有一点,56岁的潘石屹,比你老比你牛逼比你有钱的人都还在学习,你还有什么理由不去努力? 135546 思维逻辑篇:我记得课程里有一个综合可视化应用案例,是分析企业毛利率下降。其实听老师讲这块内容时,就是一个思维逻辑的学习。毛利率下降到底有哪方面的影响,是我们应该全面思考的,然后抽丝剥茧,查到门店明细,最后再找出下降原因,你会觉得特别过瘾,这个就像我跟朋友在一起玩狼人杀,因为某夜某人的死亡找出所有狼的过程一样! 前不久,在知乎上看了篇对数据分析师的评价,我也分享给大家:数据分析的“纯技术”门槛并不高,会有越来越多的人开始使用数据并享受数据带来的价值,更多的区分可能还是在于分析的逻辑思维上,当然这一点还需要数据人无论在什么行业,都一定要拥抱业务,在业务中体现出自己模块的价值。 135544 135543135542 3-案例分享 Lynn小姐姐跟我说,能不能跟我们分享下你现在所处的医疗行业的案例或者曾经做过的零售/生产案例,但因为我目前正逐步转型尝试用FineBI做业务分析,还没有成熟的场景可以分享,就实在不好意思。所以就分享一个我课余玩BI数据分析的思路案例,希望可以启发到大家。 135535 就在前不久,爱奇艺刚刚完结了《隐秘的角落》这部国产犯罪悬疑剧,豆瓣上的评分高达8.9分,那到底这部剧是怎么火的呢?带着这样的疑问开始做BI思路的分享。 趋势分析,是我们最好理解,也最容易接受的一个分析办法,可以清晰直观的展现事态的发展情况,于是我就做了整部剧播放周期的搜索数据趋势,如果套用到我们工作业务分析场景中,这种分析是可以经常做的,主要用于和日期相关的分析。 135536 接着我做了年龄层次和性别占比的分析,可以更全面的了解受众。如果你处于零售或者电商行业,这样的分析完全可以定位住你的目标人群。 135537 顺着上面的思路,就得看本届网友们的讨论了,通过词频分析就可以看到剧里供大家探讨最多的就是几位小演员。其实如果要用FineBI去呈现,我会选择用词云的方式展现,词云的优势还是在于可以在多频次出现的分析目标中找到最突出那几个,比如超多SKU的企业商品销售~~ 135538 看过该剧的朋友应该对每一个角色都有深刻的印象,我从豆瓣上查到这样一个对比,可以说明主线上的几位小演员的演技都是得到了网友们的极度认可。对比分析,这种分析方法在企业里的应用我这里就不过多说明了,这应该是大家用的最多的一种分析方法。 135539 最后,我选择全局来看待这部剧的评价,有两个维度和一个指标,百分比堆积柱形图刚好能直观的看清本届网友客观的评价,所以选择它来分析就对了。我曾经在一个实际案例(集团分市场/类别的分析)中用过这种方法,你们也可以试试~ 135540 看过上面的分析结果,你可以明白这部剧火的原因了吧?上述分析中,我没有剧透,也不掺杂个人的影评色彩,但如果让我写分析报告,我会告诉你们,数据呈现出来的结果与原著、与剧情、与剧中每个角色的个性又息息相关,请问,如果你还没看过这部优秀的国产剧的话,会不会有想看的冲动呢??? 《隐秘的角落》数据分析——FineBI的分析报告如下▼ 135550 4-额外收获 我想把与班级中结识的小伙伴们拿出来单独写,是因为这段时间的共同成长让我了解了不少我没接触过的行业知识。在FineBI学习中的沟通,就如同我之前说的一样,是非常有必要的,我个人的一些数据分析经验也仅限于零售连锁,所以在与芳芳、邪少、浪人、小T、团子他们的接触中,我又学习到不少其他行业的特点,当然大家在一起的交流也不仅限于FineBI的学习,还会有些关于各行业的发展,数据分析职业规划见解,以及个人在工作中碰到的问题等等,所以这段学习经历的体验感也炒鸡nice~~因此,特别想感谢大家! 5-写在最后 之前跟一个朋友交流中,说到任何事情有因必有果,我觉得放在数据的世界里这句话可以延伸下:有因必有果,万物皆可分析。所以当摆脱了思维的束缚,你会发现BI工程师真的不难。最后给帆软打波广告,如果你对数据分析有兴趣,如果你不甘心做一个表哥表姐或者茶树菇,真的可以报下BI工程师的课,保证受益匪浅。 >>点击查看最新开课时间:BI工程师从入门到精通实战班
【数据追梦人】数据分析让我醉生梦死,但,我依旧愿意做数据的追光者
2015年一个偶然机会,我被领导带到了帆软一个交流会。当时我只是负责公司ERP的小小运维人员,我依稀还记得几个不同行业的大咖在台上对自己企业内部数据应用的火热探讨,当时对数据应用一无所知,也不知道为什么要坐在台下听这个。 然后,生活就是喜欢在你毫无准备的时候,给你来一个突然袭击。其实打那之后,我就算开始了自己的数据运维和数据分析生涯。 130305 刚开始接触数据相关工作时,领导给出了充分的理由让我来做,一是我懂业务(零售连锁外加食品制造及物流),二是我懂技术(excel、oracle,sql,linux/windows/maxos,ocp,ccnp),三是我勤奋好学,我尽然无力反驳。好吧,那就干吧!第一次做数据项目时,从服务器搭建到需求调研,再到实施,苦不堪言!比如:和业务部门牛头不对马嘴的数据沟通,数仓中复杂数据结构的表设计,还有就是时间紧迫的做出可视化的呈现……干着干着,我发现,报表制作、数据可视化这种技术问题还不是很难;SQL语句多看多练就好;FineReport也好,bi也好,多参加城市课堂或者翻翻技术文档也都能做出来,所以我当时也总结了自己的一套学习方法,还是蛮适用的,分享给大家。 130302 其实对于数据工作,我觉得真正难的是数据治理、业务的了解和沟通,以及数据应用推广! 数据治理,是我做数据工作这几年,最不喜欢处理的,我基本上碰到过编码不统一、治理逻辑混乱、数据架构过于简单……一系列的问题,但既然路是自己选的,含着泪也要走完啊 T-T 于是我也在不停地总结着数据治理的经验; 业务的了解和沟通,这估计是我最想吐槽的一个工作,我一直从事零售连锁的行业,哪怕现在跳到了医药行业,也在不停的追求零售连锁的探究。但我从业务口中听到的最多的话就是,“这个很简单啊”、“我也不知道我需要分析些什么”、“你看别人公司都有这个分析,我也想点一下按钮就能有各种数据”……此时,我恨不得一口老血喷向他们,后来,我总结了下他们为什么会说出这些问题:一是根本不知道自身企业的数据来源,二是业务专业度真不够,三就是他们对零售连锁的成熟案例根本没借鉴,新零售人货场的模型也根本没搬到自己企业内进行过思考; 至于数据应用的推广,是到目前为止我都一直没有解决的问题:自上而下,多数领导的需求就是看数据展示,数据应用部门得不到企业问题的最优解决方案;自下而上,业务部门确实愿意多来找我解决工作中实际的问题,但又很难得到高层的认可。所以做了这几年的数据工作,真的觉得如醉生梦死一般啊~ 我太"南"了! 130306 回头看看自己这些年走过的路,不说做了多少的项目,也不说项目做的成不成功,真的很想感谢这样几个人,让我走向数据分析和数据展现的臻哥,在我数据项目中提供帮助的帆软华中区的蒋总,以及,现在给予我信任的老陈。我这些年的成长,也许旁人看不出来,可自己知道,FCRA、FCAA都算是脚印吧,当然,在做这些年数据项目工作中,也收获了不少知己朋友,爽爷、敏妹,凡凡、媛媛…… 最近在单位的内训师培训中我又在开发数据分析的课,希望能帮助更多对数据感兴趣的小伙伴。当然我自己也不能停止学习的脚步——梅杰老师数据运营官课程及FCAP就是我下一阶段的目标,希望自己在接下来的发展中能勿忘初心、砥砺前行。帆软在2018年关于生产力的书叫《数据之上,智慧之光》,我觉得数据就是光,做数据的我们都是追光者,愿我们大家能通过数据的点点星光照亮各自企业的前行之路! 130301
个人成就
社区核心粉丝
内容被浏览57,920
加入社区5年115天
贡献:7434

联系社区管理员|联系帆软|《帆软社区协议》|手机版|帆软社区|Copyright © 帆软软件有限公司 ( 苏ICP备18065767号-7 )

GMT+8, 2021-9-17 09:51 , Processed in 1.396762 second(s), 73 queries , Gzip On.

返回顶部