2016年还有2个月即将结束,在这一年里你参加过多少次活动?见到了多少业内大咖?得到了多少满满的干货?如果勤奋好学的你还不满足,2016年底还有这样一场活动,可以弥补你的一切遗憾。
40+行业内知名大咖,30+场次专业干货分享,让再挑剔的你也能得到极大满足!
再说一遍!这可能是年底大咖和干货最多的峰会了!
氧分子网作为支持媒体的第四届中国用户体验峰会由工业和信息化部指导,中国用户体验联盟,中国电子质量管理协会主办,UI中国承办,峰会将于2016年11月25日在京正式拉开大幕,经过6个月的艰苦筹备,大会将主打让科技传递人文关怀的主题,我们坚信越科技越人文,让科技有温度,让产品有灵魂,用户体验就是极致科技的人文呈现。更多用户体验研究:www.yangfenzi.com/tag/yonghutiyan
本次峰会上我们还将邀请到40+以上的行业专家全方位的诠释用户体验各个领域的视角,他们分别来自心理学、人类工效学、社会学、工业设计、界面设计、人机交互、管理学,营销学等领域,涵盖用户体验学科实践的各个方向。如果你是这些领域的从业者和爱好者本次峰会一定会让你收获多多。
我们还将邀请您参加我们20+场次专业分享活动,覆盖金融、虚拟现实、家电、汽车、医疗等各领域的专家深入探讨用户体验对热点行业的支撑作用。
部分分享嘉宾:(排名不分先后)
傅小兰 中国科学院心理研究所所长
袁小伟 中国用户体验联盟专家委员会主席
陈妍 腾讯用户研究与体验设计部总经理
寺尾玄 日本巴幕达创始人兼CEO
吴卓浩 INWAY Design创始人 创新工场用户体验总监
原雪梅 奇虎360设计总监 360设计学院院长
邢昊 东道品牌创意集团COO
董景博 UI中国创始人
明伟 方正字库产品经理
蒋颢 用友用户体验总监
申健 闪银用户体验设计总监
吕彬 洛可可UED事业部设计总监
颜红燕 中国移动研究院用户与市场研究所所长
这样的大咖还有30个….
用户体验与品牌价值的融合
中国移动和体验指数分析
大数据时代下的用户研究
用户体验对医疗行业的支撑作用
体验创新的产品设计路径
“互联网+”遇上“设计+”
这样有趣的主题还有20个…..
好了,剩下的内容就等你到现场亲身体验了,我们11月25日在北京不见不散!
·氧分子网(http://www.yangfenzi.com)原创文章,转载请联系授权注明出处。
·氧分子网(http://www.yangfenzi.com)延伸阅读:
竞品之间越做越像,咋看之下没有什么区别?为何两款核心需求几乎一致的产品,在用户指标上却有不小的差异,除了运营之外,用户体验可能是最重要的因素?
写在前面的话:
用户体验是一个比较大的话题,可以展开很多篇幅的讨论,很赞同AllenZhang在知乎上提到的,用户体验的目标就是做到“自然”。下面个人结合一些参考书籍与自身的经验,提炼出几点关于做好用户体验的方法论。
一
别让我思考(Don’t make me think)
1.借助习惯与映射
在没有更好的创新时,请借助习惯的力量。我更喜欢将它分为现实映射与文化映射。
现实映射
如京东等购物商城中,针对商品进行的分层,与现实的商场的映射度很高。
文化映射
入乡随俗,固有的文化经过漫长的沉淀,比如国人喜爱红色,在很多购物应用、相亲应用里面都可以看到红色为主色调。
2.易学习
做到用户最低的学习成本,在当前位置,用户该如何开始?它能给用户带来什么?所以在新的交互体验上线或者应用上线时,一般都会有必要的提示,来让用户最简单的学习。如果可以,请做到无须学习(最自然)。苹果的解锁就足够的自然,触摸是人的天性加上箭头的指引,很容易明白是什么意思。
3.保持一致性
保持一致性有助于提高用户的体验,同时一致性也可以增强用户的记忆,也就是可记忆性,用户下一次使用的成本更低,过程更流畅。
视觉层面
比如界面风格的一致性,在移动应用中这点尤为重要,如果风格不一致,或者前后交互方式相差太大,很容易让用户有茫然的感觉。
听觉层面
巧用听觉的一致性来提高用户的记忆能力,刺激听觉神经元,比如滴滴打车司机接单、抢单时的"滴—滴"声音提醒,这个很能挑动神经元。
二
少即是多
在《简约至上》里面有比较全面的介绍,这里提几点感触比较深的。
1.有限的选择与聪明的默认值
如何判断一个选项是否有必要?关键在于提供这个选项能让用户感觉有意思、有价值、或者心情舒畅吗?
聪明的默认值可以减少用户的选择。电商购物用户浏览的类似商品、使用你之前填写过的收货地址自动填写表单、用户记住登陆等等
2.降低视觉噪音
用户只是在扫描,没有耐心,通常是选择合适的,满意即可。那么就要避免文字与图片让用户眼花缭乱、让用户烦。极端点的例子比如广告,在视频应用或者不少应用中都可以看到广告,想必广告是让大家非常头痛的,然而看了杜蕾斯的广告往往会让人会笑一笑,能将广告做成一个漂亮的创意文案,而不令人烦闷,确实值得学习。
三
可控可预见
控制欲是人类的天性,来满足更大的安全感,那么可控可预见就极为重要
1.可控性
即使在满足需求的情况下,用户依然不会有足够的耐心来体验糟糕的设计,用户只是在扫描,选择合适的。比如在页面加载时,从技术角度尽可能的将速度提高,从用户展现层面,需要告知用户的加载大致时间或者一个进度圈,用户是相对可控的,而不是一个半天不响应,不知所措;从这个层面来说,微信发朋友圈只有好友之间才能相互看到,既是私密性也是可控性。
2.可预见
比如在美团/大众点评网在每家店的底下都会写上人均消费金额,而这可以让用户更加放心的选择;滴滴打车会根据起点与终点大致估算多少钱以及路线规划图,这些都是可预见的例子。
四
友好的反馈
没有良好的反馈是一件很糟糕的事情
1.用户触发的反馈
别让反馈给用户造成压力
在用户输入错误或者登陆出错时,给予的反馈请不要给用户造成压力
别让页面看起来那么单调
页面无数据时,不要留一个空白给用户,比如淘宝,还加入了一点默认值(通过数据的统计分析)
2.系统设定的反馈
错误反馈
系统崩溃、错误的反馈
消息/升级反馈
比如Appstore的应用升级,系统升级,系统消息等
五
用户超预期
预期更多的往往是对人性本能、需求背后的深挖,在满足核心需求之外的小惊喜
下面举三个例子:
懒惰
京东快递送货上门时,快递短信会额外提示“如您家中有生活垃圾,在我给你送货时可以帮你带下楼”
怀旧
网易云音乐切换歌曲时,可以出现老式留声机的效果
新鲜
探探的左pass,右滑是like,这个玩法对于用户来说也是蛮新鲜的,超出了一点小预期
六
可用性测试
可用性测试是一个持续的过程
本文不展开叙述可用性测试,待后面有时间将可用性测试案例附上。
小结:
用户体验是一门需要用心观察的艺术生活,生活艺术化、艺术生活化,且行且珍惜。
当你想要改变一个固有用户操作习惯时,只针对一个点在设计上做出改变是不明智的,需要让产品的整个生态系统对这种改变提供有力支撑,这才是一个「更合理」的设计。
用户体验不是情怀的挡箭牌
用户体验在使用层面是一个感情的解释,但是在产品设计的专业领域,这是一个具象且拥有层次感的专业领域。当一个产品进入市场后,“产品如何与外界发生联系并发挥作用”,也就是人们如何“接触”和“使用”它。这就是用户体验的回馈。不妨把用户体验具象到如下几个层次:
1. 表现层——用户的感官体验,呈现给用户视听上的体验,强调舒适性,一般在色彩、声音、图像等呈现。
2. 框架层——交互体验,呈现给用户操作上的体验,强调易用性,一般在点击、输入、输出等呈现。
3. 结构层——交互设计关注于描述“可能的用户行为“,同时定义”系统如何配合与响应“这些用户行为,并强调用户在浏览上的体验。
4. 范围层——定义项目范围同时在做两件事情:这是一个有价值的过程;同时能产生有价值的产品。
对功能型产品而言,范围层要确定的是功能规格;对信息型产品而言,范围层要确定的是内容需求。大部分时候,当人们说到某种需求的时候,他们想的是产品必须拥有的、某种特性的一句简短描述。
确定需求优先级。有时一个战略目标将产生多个需求。另一方面,一个需求也可以实现多个战略目标。
5. 战略层:
我们要通过这个产品得到什么?(产品目标)
我们的用户要通过这个产品得到什么?(用户需求)
用户细分将全部的用户划分成较小的、有共同需求的小组,依次来帮助我们更好地了解用户的需求。
在用户体验设计的过程中,人物角色是从用户研究中提取出的、可成为样例的虚拟人物(俗称用户画像)
当我们把类似于“情怀”的用户体验具象到产品设计中的每一个层次时,用户体验将不在成为任何一个借口的挡箭牌。
如何平衡用户体验和用户习惯的关系?
在互联网产品中,用户总要保持原来的使用习惯不变或者什么也不做,直到给他们的好处或者规则迫使他们改变这种使用习惯为止,这是用户行为的惯性定律。
目前市面上很多APP,用户在使用产品时,所依靠的经验或者时候习惯都来自于以往使用过的产品,该怎么用,不该怎么用,看到什么样的标识会联想到什么,这些都基于过往的经验。今天,我们在拿到一台新电视、使用一个新冰箱,或者使用一个智能手机,没有多少人会再认真阅读说明书?这是为什么?因为我们已经有了足够的固有经验,不再需要依靠学习就能掌握如何使用,并且,我们也懒得再看关于这里的新的东西。
从艾瑞咨询最近一份关于用户使用APP的轨迹报告来看,大多数人都不喜欢改变,喜欢保持现有的、已熟悉的行为模式和习惯。有时候,这还意味着不做事情,尽管我们希望用户去尝试某个功能,但是用户并没有往前走一步。并不是因为用户不需要,而仅仅就是因为懒得尝试,不想弄清楚,或者,对于未知事物本能的拒绝。
用户不喜欢改变,除非我们诱惑他们,或者强迫他们改变。对于前者我们得给用户足够的好处,对于后者,我们得有强大的能量。
用户习惯和更好的设计之间的权衡
所以要在用户习惯和更好的设计之间做出权衡时,不妨考虑:
1. 这个设计带来的价值有多大,值不值得让老用户付出学习成本
如果这个设计能够给用户起到巨大的帮助,例如能够加快他们的工作效率,能够避免更大量的新用户犯错,等等,就值得一试。
2. 设计本身和行业惯例/标准之间的关系
如果一个设计细节并不是很理想,但是整个行业的主流已经是这个方式,而用户已经习惯了,例如QQ的发送按钮,快捷键等等,我们不一定要冒险去改掉它。
3. 新老用户群的比重
设计的改动会影响老用户,但会造福新用户,这时就需要衡量对老用户和新用户价值的影响;你的产品是已经比较稳定的产品,老用户占的比重较大?还是像知乎这样,是一个仍在测试期的产品,未来会有大量的新用户进来?如果是后者,那么一个正确改动的必要性就很大。
4. 你的产品在行业内的影响力
微软的Office是个最好的例子,在推出Office 2007时,骂声一片,很多用户习惯了Office 2003及之前版本的界面,对于Office 2007新的Ribbon界面完全不能忍受,总是找不到命令在哪里。
实际上2007的界面从设计的角度很不错,就是完全颠覆了用户的固有习惯。但是由于微软在这里有足够的影响力,他们能够强推这个设计,最终让用户适应和接受。
5. 产品设计没有最优,只有权衡
很多时候,好的产品设计不就是符合用户习惯的设计么?这两者的界限本来就比较模糊,只有在具体问题中去权衡,看看哪个收益高,哪个损失小,再做决定。
结语
用户体验是个中性概念。它本身是没有价值的。一个产品好用是用户体验,难用也是用户体验。这是对用户体验的描述,但是不能等同于用户体验。
用户体验设计是通过设计产品去影响用户的主观体验(进而影响用户的决策而达到商业目的)。
当你想要改变一个固有用户操作习惯时,只针对一个点在设计上做出改变是不明智的,需要让产品的整个生态系统对这种改变提供有力支撑,这才是一个「更合理」的设计。
19世纪初琼斯在《装饰的基本原理》中表达了用户体验思想:“任何适用于目的形式都是美的,而勉强的形式既不合适也不美”;作为早期的装饰设计师,琼斯表达了形式追随于功能的用户体验意识,这点在后来Hassenzahl(2010)的UX构面研究中已经得到了应证。
19世纪中叶作为拉斯金的信徒,莫里斯试图通过一场运动来反思机器化带来的粗制滥造问题,这场运动就是影响整个欧洲的工艺美术运动(The Arts & Crafts Movement),映射到今天就是所谓的“情怀”、“工匠精神”追求。
20世纪初格罗皮乌斯成立了包豪斯大学,其在设计理论的贡献一直影响至今,主要包含三个观点:
艺术与技术的新统一,即向死的机械注入灵魂,其本质与今天的“情感化思想”相似;
设计的目的是人,而不是产品,即UCD思想;
设计必须遵循自然与客观的法则进行,即今天强调UX设计师应当注重UX方法的积累与内化,以便针对产品不同症状能够对症下药。
二战及二战以后,设计开始出现跨界趋势,设计开始与商业管理和科学方法论的新理论相结合,设计研究和设计理论又开始从其他新兴学科中受益匪浅。
90年代,设计理论开始出现多元化发展,唯一共同的目标是将设计尽可能放在最为广阔的社会背景去研究,类似于今天的“服务设计”物质形态。
其实你会发现无论是琼斯还是包豪斯,他们都在依据当时现状探讨用户体验在当下物质形态中所能产出的价值到底是什么。
关于用户体验师的价值
那么对于今天的互联网产品(物质形态),用户体验的价值又应该是什么呢?
前些日子看了一个关于Meerkat的产品研究,其将产品分成三个阶段:Want–Need–Utility。
图1:产品经历的三个阶段
Want:提出一个非常独特并且让用户感到新颖的核心价值主张;
Need:用户开始离不开它,经常回到应用;
Utility:它开始成为其他产品的特征
透过这三个阶段,我们可以更清晰地明确当前产品所处的阶段,接下来就是该考虑如何输出对应的用户体验价值。
1.1 Want
产品初创期或寻求新业务转型期,该阶段目的是提出一个非常独特并且让用户感到新颖的价值主张。
包豪斯其中一个对于设计师的职能定义就是:设计的目的是人,而不是产品;如何从用户身上发掘产品的机会点便成为设计师应当在Want阶段应当具备的价值。
如何发掘?
如果你本身就是产品用户之一,完全可以通过同理心,凭借Brain storming找到产品的机会点;但如果你和用户存在较大的差异,这时的角色切换通常是很困难的;为什么我们会讨厌别人给我们贴一个XXX标签,因为他/她缺乏我们的经历,只会从结果表象去判断你,角色切换也是如此,缺乏真实用户的经历,你很容易去给他们贴标签,当然用户也会讨厌你,映射到产品,就是没人Care你做的鬼父神器;为了避免这样的错误,我们需要真正理解用户,理解他们所做、所思、所想以及对应的期望;那么具体该怎么做呢?大致可以分为以下三步:
首先理解用户与业务互动的这样Scenario下,用户需要经历那些Stages;
通过问卷或者访谈的形式收集每个Stages下用户在做什么?在想什么?在思考什么?他有什么期望?他的实际体验如何?
针对以上问题,有何解决策略?(可以采用Brain storming)
今年做了一个智能牙刷的项目,产品定位于牙健康关注者,为其提供科学有趣的牙健康护理体验。
我们知道在Brushing这样的Scenario下,用户主要经历了“选择牙护理产品”、“刷牙”、“效果评价”三个阶段;通过对问卷、访谈我们获取了用户在这三个Stages下的所做、所思以及所想,并推导出相应的痛点,结合用户的期望,生成我们产品的策略或画像,如图2所示。
图2:Want分析
1.2 Need
产品成长期,需求方向已趋于稳定,寻求体验上大幅优化,提升用户粘性。用户为什么要Keep coming back for more?一定是用户对产品产生了期望,启动APP就是期待Find这样的期望。
对于婚恋产品,我们习惯性地认为衡量婚恋社交成功的标志即是否促成用户A与用户B结识,于是为了这个目标,我们设置了很多信用认证(房产、汽车)以帮助用户之间的择偶筛选;然而现实是用户A与用户B的结识并非平台所能解决的,因为情感的多样性无法标准化,更别谈一个认证;正好一次机会和一位正在做垂直社交朋友聊天,突然想通了一件事:或许衡量陌生社交成功的标准并非是促成用户AB的结识(这不是平台需要解决的问题抑或是一种无意义的KPI),而是是否营造出婚恋价值的期待或美好憧憬,带着这份期待和憧憬去体验爱转角的美妙邂逅,这或许才是实现用户转化以及留存的关键VP(价值主张)。
带着这样一种理念,我为一家中型品牌咖啡O2O体验模式做了相应的优化。
传统的中小型咖啡O2O体验:从“用户线上下单”到“等待”再到“喝咖啡”最后“扔掉”,意味着这样一个模式的结束。该模式主要存在两个问题:1)导流问题、2)用户留存问题。
导流问题
传统咖啡没有星巴克那样的品牌号召力,因此在用户获取过程中会非常被动;其次咖啡本身的品质,用户无法感知,即从仅从品质入手,很可能就是杯水车薪。
用户留存问题
导流问题中已经提到咖啡品质不足以驱动用户再次体验该咖啡;由于是O2O性质,即线下的服务所起的作用也非常局限,再者“送达快、服务好”仅是基本性需求(KANO模型告诉我们基本性需求的提升并不会带来用户满意度的上升,然一旦基本性需求降低,满意度则会随之大幅下降)。
图3:传统中型品牌咖啡O2O体验模式
策略分析
针对以上两个问题我们进行了策略分析,最终找到了优化的关键点——咖啡社交。在导流阶段,通过提供一种新颖的价值主张来连带用户体验咖啡,即喝咖啡的同时还能结识一些新的朋友,这种新颖的价值主张会起到较好的“连带效应”(销售术语)。在留存阶段,通过一种“社交期望”来闭环整个体验,即喝咖啡结识咖友,这种爱转角邂逅的社交期望会大概率地、持久地Trigger用户Repeat这样的“咖啡Culture”。
图4:中型品牌咖啡O2O体验关键点分析
1.3 Utility
相比于前两者,功能稍显抽象,其定义如下:
“一旦消费类产品变成一个功能,用户也会从其他产品看到类似的功能,产品本身所倡导的方式俨然成为一种文化,让人感到习以为常了”。
2008年在天涯论坛搜索Facebook是什么?其解释为:一个针对高校学生开放的花名册。到今天Facebook已经成为社会福利(Social utility)。之所以Facebook能够贯穿到Utility阶段主要归结于其一直以来的平台化战略,允许开发者将Facebook的特性和功能整合到他们自己产品上。
与Facebook类似的是,今日头条已经完全实现了“想要”到“需要”的超进化!至于“京条计划”也好还是柳甄的加入都是为了实现“Utility”的究极进化!一步步将当初的价值主张(基于数据挖掘的推荐引擎为用户推荐有价值的、个性化信息,提供连接人与信息的新型服务)演变成一种Culture!
在Utility阶段用户体验师需要将设计尽可能放在最为广阔的社会背景去研究,为产品的究极进化提供坚实的进化基础。不要陷入一些数据报表,这样会让你反应迟钝、格局狭隘、坐井观天、乐不思蜀、自我标签,而这些正是你衰落的开始,容易被斩首,生于忧患,死于安乐,Utility就像产品的护城河,有了这样的防御,我们完全不用惧怕大军压境!设计师的价值就是在于护城河的建造;看到太多关于交互设计抑或用户体验的狭隘理解;我们的价值在于整合与集成,不是最后一道工序,所以不要以为掌握了一些产品流程、细节、规范就够了,进阶的路还很远,护城河才是你真正意义上的终点。
总结
入门级交互一般会关注一些体验结果,如界面的细节,情感化之类的探索;初级交互会由体验结果转向体验规划,即如何运用一些UX方法去发现和定义产品中的体验问题,并给出相应的解决策略;而高级交互设计会由体验直接过度到业务规划,即产品Sense,没有这样的Sense你就没有护城河意识;当然有了护城河意识之后,还得负责去建造它,即对应业务结果,以业务结果为导向驱动体验规划与设计!
消费金融服务机构主要是银行信用卡中心、持牌的消费金融公司、涉及消费金融业务的互联网巨头(阿里、京东)、新兴的互联网消费金融公司等。消费金融是指为消费者提供消费贷款的现代金融服务方式,特点:
单笔授信额度小,一般在10万元以下,多数贷款金额为5000-50000元;
无需抵押担保 ;
贷款期限短,账期一般在24个月以内。
在征信方面,中国人民银行花了数年时间,接入了商业银行、农村信用社、信托公司、财务公司、汽车金融公司、小额贷款公司等各类放贷机构的数据,构建了一个全国集中、统一并可联网查询的征信系统。征信系统收录的自然人达8.6亿, 其中有信贷记录的达一亿多人,这就是央行个人征信记录。金融机构给贷款申请者放款审批时,通常会参考申请者在央行的个人征信记录,从而判断是否放款。
对应地,央行无征信人群,指在央行没有信贷记录或者没有具备参考价值的信用记录的群体,主要有三大类:
● 在校学生 (全国3500万)
● 蓝领 (2.7亿,其中包含了农村户籍的务工人员)
● 大多数农村户籍群体(约5.5-6亿)
一、这类创业公司为什么选择央行无征信人群作为切入点
1.此用户群基数大,其消费信贷需求未被充分满足
央行无征信人群基数大,且不是银行等主流金融机构的目标客户;而传统消费金融公司的线下模式偏重、行业集中度低,使得该群体的消费信贷需求难以被满足;因而这类创业公司仿佛找到了看似蓝海的市场。
金融机构在个人信贷领域,按照贷款用户的质量分为三大层级:分别是Super Prime(优质客户)、Prime (符合标准客户)、Sub-Prime(次级客户);不同层级的客户,获批的贷款类型不同,金融机构的风险定价也不同。
Super-Prime不是这类创业公司的目标人群,一方面要面临与银行信用卡中心的正面交锋,另一方面该群体中的大多数选择到期按时还款,这意味着即使银行信用卡中心也难以从他们身上赚到可观的利息收入,而往往通过交易环节从线下商户那里赚取支付通道的手续费。
Prime和Sub-Prime是这类创业公司正在努力渗透的人群,首先它们避开了与银行的正面竞争,其次这类公司的创始人认为它们的业务模式在获客、风控方面均优于传统消费金融公司,有望改造传统领域。
2.该类群体的坏账率虽然偏高,但可承受的实际利率更高
无央行征信人群,其坏账率明显高于行业平均水平。一方面,这个人群属性决定了逾期率偏高,以无征信人群客户占比较高的某大型传统消费金融公司为例,它M3+的逾期率为7-8%;而2015全国消费金融平均不良率为2.85%. 另一方面,互联网消费金融公司在业务在开展初期,风控模型一般要经过试错,试错期间容易遭遇多个欺诈组织的诈骗,导致产生了逾期率的异常值,提高了整体坏账率水平。
该类群体借款渠道有限,负债比例不高;加上他们对年化利率的计算并不敏感(尤其是蓝领、农民),他们有意或无意地承担了25~60%年化利率。这意味着,放贷机构不仅可覆盖高于行业平均水平的坏账率,更可以赚取远高于平均水平的息差。
举例来说:某互联网消费金融公司给某蓝领人士贷款1000元,账期为一年,约定还款方式为等额本息按月还款,一年后本金加利息共计还款1354元。客户或销售会误导该名蓝领,告诉他一年相当于只支付了35.4%的年利率,每天只还款不到1元钱而已。误导认知的计算方式为:(1354-1000)/1000=35.4%. 然而,这是一年期贷款在到期后一次性支付的计算方式。实际上,该蓝领人士每个月都在以等额本息的方式还款,折算成实际贷款年化利率为60%。
二、主攻无央行征信人群的互联网消费金融公司代表
1.校园消费分期
1)校园消费金融的发展机遇
此前银监会叫停银行信用卡中心进驻校园市场,而传统消费金融公司在校园市场的渗透率低,使得校园消费金融公司在2013-2015迎来了较好的发展机遇。
2) 校园消费金融市场规模不够大,不足以产生高市值公司
通常数千亿规模的市场才可诞生出百亿级别的高市值公司。校园消费金融的市场规模的上限并不高,单一校园业务不足以支撑一家高市值的消费金融公司;市场规模的测算如下:
3) 细分领域的竞争格局已定
2013-2014多家以校园分期金融为切入点的创业公司涌入,随着一轮轮价格战,以及资本格局的确立,行业Top 3为:分期乐、趣分期和爱学贷,前两家成为了行业领导者。
处于领先地位的互联网校园金融公司有着以下共同特征:
资产端:过电商或校园周边商户的消费场景获得信贷资产;
资金端:上线自有P2P作为资金端之一,获取投资人资金;并发行了不同形式的ABS(资产证券化)以获得更低的资金成本;
地推团队承担获客与部分风控的双重职能:采用全职城市经理、校园地推+校园兼职人员的业务体系,构建了万人规模的线下地推团队,各自均覆盖了3000余所各大高校;地推团队同时兼职着学生信息核实的风控功能,比如:学生真实身份核实、面签等。
业务发展:三家也都意识到校园金融市场天花板不够高,以不同的方式拓展校园外的市场。
4)校园消费金融模式分析
Top3不一一列出,以分期乐的业务模式示意图为例
Top 3的业务模式对比:
分期乐与趣分期这两家公司行业领导者随着在校园市场的地位巩固,以及在校外人群的延伸,其贷款规模与贷款余额已经超过部分银行系控股的消费金融公司,接近中银这样的持牌老公司。
2.蓝领消费分期
1) 蓝领人群的消费金融市场保守估计在5000亿以上,信用卡渗透率不超过15%
• 蓝领群体随着中国经济形态的发展而发生了变化,随着新蓝领阶层的崛起,我国蓝领阶层人数达到2.7亿人,年龄段分布在16-40岁;
• 赶集网新蓝领阶层报告调查显示,蓝领2015年平均月收入3163元,年收入增长率14-15%;蓝领月光族比例在2015年达到52.5%,每月开销中的非固定花销占比约为53.6%
2) 蓝领消费分期的公司代表
70%蓝领群体没有央行个人征信,因而信用卡中心等传统金融机构的渗透率不高于15%;互联网消费金融公司认为这是一蓝海机遇,代表公司有买单侠、即有分期、拍分期等,其中买单侠与拍分期的业务模式差别最为明显,以这两者为例:
哪种模式孰优孰劣,需要更长的时间验证期,三家代表公司的发展规模如下:
买单侠:目前服务了100多万用户,以不到300人团队覆盖157座城市,单月放贷规模3亿,逾期率控制在相对理想范围内,接近行业领导者的风控水平;
即有分期:目前服务了200万用户,覆盖100余座城市,未披露放贷规模;
拍分期:成立时间尚短,业务发展快速,逾期与坏账需要更长的观察周期才能下结论;其业务数据未公开披露。
3.农村消费分期
1)村镇消费金融的市场机会好
村镇消费金融存量市场规模保守估计超3000亿(估算方法:16609亿×20%=3300亿),尽管在县级市及以下设有多个金融机构网点(邮储银行、小贷公司等),但多数为乡镇企业服务;农村户口的人群中有大量的消费信贷需求未被现有的金融机构所满足。
2)锁定该领域的创业公司少,代表为农分期与什马金融
目前新型的农村消费金融以农分期、什马金融为代表。二者有类似之处,都为农民户口的经商或务工人员提供购买生产工具的消费分金融服务,农分期针对买农机的分期消费,什马金融针对电动车的分期消费。两家公司都在消费金融业务基础上,延伸了供应链金融业务。区别在于:
l 农分期:为自建销售渠道,销售人员下乡寻找合适的农户推销分期服务,并自主风控推荐相应的品牌农机,并最后承担贷中贷后催收等环节,农机销售商只负责销售环节,不介入风控环节。
l 什马金融:对电动车经销商有一定的依赖性,将大型经销商升级为什马金融的金融事业合伙人;经销商与公司催收员一起承担了风控的角色。
虽然村镇消费金融市场机会看似美好,但笔者从行业内部人士了解,农村分期类消费金融公司的放贷规模明显低于校园分期和蓝领分期这类公司,市场需要进一步培训。
三、互联网消费金融蓝海市场已开始泛红
1. 来自大公司的压力
十余家银行系 + 产业系的消费金融公司资本实力雄厚,其中持牌公司捷信与类似对手佰仟正在深耕蓝领与村镇消费金融市场:
1)捷信——主攻无央行征信人群的传统消费金融的代表
银监会批准设立的首批4家试点消费金融公司中唯一的外资独资企业,其母公司PPF集团是捷克一家大型投资公司,旗下捷信集团的消费金融业务覆盖中欧和东欧,在消费金融领域具有丰富市场经验。捷信中国区60%以上的客户为蓝领群体,因而它是主打无央行征信群体的传统消费金融公司的代表。
捷信与迪信通,苏宁和国美等知名全国电子家电零售商建立合作关系,目前已在超过 260 个城市设置超过4万个POS货款点,主攻二三线城市外来务工人员对耐用品消费的需求;在集中管理、高效的运营体系基础上,建立全流程自动审批系统和反欺诈数据库,60分钟即可批核放款。
捷信在2013-2014开始了网点的新增与人数的增加,中国区的员工数增加至3万人。与业界流传的捷信亏损说法不同,捷信从2012年已开始盈利,由于网点数与员工数的增加捷信带来了大额的运营成本,这使得2014的利润增速较2012-2013年有所放缓;但2015年捷信集团中国地区业务仍盈利1.27亿欧元(折合大约9亿人民币),同比实现翻番增长;总资产从2012年的4.1亿欧元增长到2015年的27.0亿欧元。
3.1.2佰仟
2)佰仟
佰仟在运营模式上与捷信相类似,但在扩张期,给予线下商户更多的返点来激励合作,从而抢占了一部分原本属于捷信的商户。佰仟在北方市场的市场份额与捷信相接近,但就全国而言,捷信仍然是处于领先地位。
捷信和佰仟虽然受线下模式的制约发展多年,但其业务规模已颇具影响力。另外,处于盈利状态的捷信,将缩减人员,提高人效,并推出线上业务形成O2O闭环;这将对互联网消费金融公司产生进一步的空间挤压。与此同时,捷信、佰仟也在面临业务增长率下降的难题,因为它们过去赖以合作的连锁零售商们将推出自有的消费金融业务,并陆续中断与捷信、佰仟的合作,关联的消费场景将可能丢失,这对于互联网消费金融公司来说是一个后来者追赶的机会。
2.互联网金融对创业公司的威胁不容小觑
互联网巨头自身关联用户的消费场景,且自身已积累较多的用户数。
单从消费金融的产品设计对比而言,分期乐相较于互联网巨头没有优势,因为巨头获取的资金成本更低,且资金实力更雄厚。
从多元金融的业务布局与风控的角度,以蚂蚁金服和京东金融为代表的巨头,具备中小互联网消费金融创业公司不可比拟的竞争优势。
四、 北美消费金融公司可借鉴的经验
从北美历史经验中可以总结出,消费金融的后来者能够实现弯道超车,在于它们敢于采用与传统金融机构不一样的体系筛选客户,重视数据的积累与挖掘;在建立智能化风控模型时,愿意足够耐心地完成试错;最终打造出独特的信用评分体系与风控模型,实现个体差异化贷款利率。不管是20世纪90年代靠数据科技驱动崛起的Capital One,还是近年来新型消费金融公司ZestFinance和 Grouplend都有类似特点。
中国消费金融领域的创业公司,面临持牌消费金融公司与互联网巨头双重挤压的竞争环境;然而这些较有威胁的传统大牌公司,也在暴露弱点,创新公司在金融科技的浪潮下有弯道超车的机遇。北银消费这家老持牌消费金融公司今年7月1日被北京银监局予以150万行政处罚,中银消费等其他老牌消金公司也有类似的问题,事件背后暴露的是传统消金公司对中介的依赖及其风控体系的弱点。今年也有多家媒体爆料花呗套现的产业链,京东金融也有类似现象,这背后暴露的是巨头的风控漏洞。创新公司既要挖掘出差异化的价值客户群,更需要在金融科技的浪潮下在数据积累与挖掘方面实现突破。
1. Capital One
● 早于竞争对手挖掘出核心价值客户群体
上世纪80年代末至90年代初,Capital One率先定义价值客户群。它把过度借贷产生坏账与高收入却很少产生利息收入的客户都判定为非价值客户,并试图从传统金融机构的信用卡中心去夺取那些稳定保持欠款额且年度贡献1000美元以上利息收入的客户。为了挖掘这类客户,Capital One设计了成百上千的差异化利率产品,用直邮的形式定向推送到特定的客户组群那里,每个测试组背后还有几十个子测试,包含利率产品的接受度、转化率、用户生命周期价值的净现值、坏账率等指标的回归统计。
后来,面临传统金融机构以低价利率抢客户时,Capital One再次选择了差异化价值群体:留学生、技术蓝领,他们也是早期的次级贷款客户。
● 有足够的耐心优化风控模型
服务所定义的价值客户群,需要经过长时期的筛选与试错。那是个计算机不发达的年代,Capital One早期风控的坏账率达到行业相应平均水平的2-3倍。随着数据的沉淀,风控模型逐步完善,到1992-1993这一情况有了实质性的改善。
● 成功实施了个性化利率与风险定价
那时期的美国,大多数信用卡中心采用统一的19.8%年化利率来服务客户。Capital One针对价值客户群推出了最低利率9.8%的竞品,结果这类群体中不少人纷纷从旧体系的金融机构中将额度转移。个性化利率的策略吸引了越来越多的中产阶层用户,虽然花旗等公司也效仿这样的做法,但Capital One当时已具备的数据优势是花旗等旧体系金融机构在短时间难以超越的。因为数据本身的存量越大,它的精度就会越高,每一次犯错,都会让数据产生记忆并不再掉进同一个陷阱;后续计算机的发展,持续地提升了机器的运作能力,算法也更加智能,这让Capital One形成了良性循环。与之相反,同时期的大多数就体系金融信用卡中心的风控模型依赖于第三方外包服务商,原本可以积累的数据仿佛进入了黑盒,这意味着很长一段时间内他们很难实现动态的用户分析引擎。
2. Zestfinance
2009年成立于洛杉矶,是一家通过机器学习和大数据技术进行个人信用评分的金融科技公司,服务于个人征信分数不达标的用户。截止2015年底,Zestfinance已经服务了10万名客户,主要分为两大类:一类是因FICO(美国通用的一种个人信用评级法)评分接近或低于500而基本信贷需求无法得到满足的人群;另一类则是信用分数不高而借贷成本高的人群。
ZestFinance 通过三大步骤完成对这类群体的金融服务,分别是:搜集数据→ 输入多维变量、建立模型→ 获取评估结果并对结果核实修正。
它首先通过用户自身数据(住址、银行卡信息)、第三方专有数据(专业第三方机构)、公共数据、社交网络数据进行系统自动多维度收集,而后通过机器自动学习将 3500 个数据项转换为 70,000 个维度输入变量,再利用 10 个预测分析模型,如欺诈模型、身份验证模型、预付能力模型、还款能力模型、还款意愿模型以及稳定性模型,进行集成学习或者多角度学习,并得到最终的消费者信用评分。
持续迭代的能力:ZestFinance 的评分模型更新并细化的速度很快,从2012年至今,几乎每个季度都会推出以开发者命名的新信用评估模型。最早,ZestFinance 只有信贷审批评分模型,目前已经开发出八类信用评估模型,包括市场营销、助学贷款收债、法律收债、次级汽车抵押贷款,等等,用于不同信用风险评估服务。
从一个侧面来看ZestFiance的牛B之处,它于去年6月和今年7月相继获得京东和百度的投资,其中京东的投资金额达到1.5亿美元;正是因为它能有效地补充国内消费金融贷款者个人信用评估的不足,有助于京东和百度在拿到个人征信牌照之后在中国消费金融的布局。
3. Grouplend
Grouplend于2014年在加拿大温哥华成立,主要为加拿大中产阶级提供消费信贷服务,其服务特色在于:Grouplend会参照贷款用户的社交信息数据,做出是否放贷、放贷利率高低的决策;社交信息包括社交活跃度、社交关系、好友的平均信用等级等。举例而言:如果贷款者好友的平均信用等级没能达到其规定的最低信用分要求,或者贷款者的好友违约率过高,都会使得Grouplend拒绝该名申请者的贷款请求或将贷款的利息相应提高。
数据其实并不能完全真实反映一个产品用户体验的好坏,因为产品存在很多除用户体验以外的东西。比如:市场价值。
一句话是:一个好的产品,并不一定是一个挣钱的产品。
不过,数据是可以体现产品某些问题是可以做到的。
比如:
知乎这个产品,评估他的数据应该是:在线时间、跳出率、平均访问页数、用户活跃度(登陆次数)、每个用户的内容贡献率(包括:被赞成或没有价值内容)、搜索次数;不过,运营团队需要把这些数据抽出来,哪些是属于产品数据,哪些是属于运营数据,把这些数据进行汇总并在某一时段赋予一些权重,来评估产品和运营的效果。
数据驱动未来,但,不是未来。
漏斗我们在生活中都见过,是通过漏斗将液体或粉末引入入口较小的容器中。而工作以后才发现漏斗图很火也很重要,那原理应该类似吧,从大-小,从多-少的过程,不想整天“漏”用户的赶紧一起来认识下漏斗图的真面目吧!
一、何为漏斗图
1、概念
漏斗图在Google Analytics的报告里代表“目标和渠道”,在Web Trends里叫做“场景分析”,在Omniture的SiteCatalyst里被称为“产品转换漏斗”。虽然漏斗图称呼不一样,但它都是用来衡量网站中业务流程表现,并适用于电商等各个行业。漏斗图可以非常直观地看出网站业务流程中的问题所在,从而加以完善。
2、适用场景
漏斗图适用于业务流程比较规范、周期长、环节多的流程分析,通过漏斗各环节业务数据的比较,能够直观地发现和说明问题所在。最常见的分析场景有:
1)以电商为代表的网站(APP):通过转化率比较能充分展示用户从进入网站到实现购买的最终转化率,漏斗图是评判产品健康程度的图表,由网站的每一个设计步骤的数据转化反馈得到结论,然后通过各阶段的转化分析去改善设计,提升用户体验的同时也提高网站的最终转化率。
一个产品的用户体验,我觉得是没有什么什么界定规则的。
对于视觉系动物,不优秀的界面和交互,已经让这款产品在他们心里 “死亡”。
而偏理性的动物,可能会更加关注产品的功能。
但这些功能和体验的落实,都取决于做产品的人对产品价值的判断。
滴滴和 Uber
Uber 总结自己最核心关注的数据是:乘客打车时手按下去后,专车到乘客面前的时间。
而滴滴关心的只是定单量的多少。
这两个完全不同的数据方向,就很能说明一个问题:
到底做这个产品的人在乎什么?
于是有了Uber和滴滴完全不同的设计思路和交互体验。
或许能稍微升华一些,Uber 通过优化这一点,实现了自己的产品价值:优步让交通效率提高了。基于这个「价值」,优步对自己定位更准,对产品体验把握也更准。
不知道现在滴滴和 Uber拉锯战打的如何?
人们到底更喜欢哪家?
到底谁赚到了更多的钱?
这些不得而知。
但我们可以认识到,数据并不是衡量一个产品好坏的标准。
引用上面 @丁利 的话:
一个好的产品,并不一定是一个挣钱的产品。
数据只是反应产品某个方面的问题。
分割线后回答第二个问题:
产品的设计与创新与数据分析如何进行深层次的结合?
重视数据的人一定认可这件事情,产品设计和新功能的开发,一定不是天马行空的创意能解决的。让新用户用的更好停的更久,推荐更多人的方法,一定藏在数据里面。
关于数据指导产品设计的问题,可以参考这个回答:
怎样通过数据分析指导移动产品设计? – 彭砰砰的回答
里面有详细的解释和案例。
这边我们重点说说,数据里的意外惊喜:
数据告诉 Teambition 书签功能保存项目
Teambition 的 Growth 团队会关注用户使用产品的频度,因此会特别关注用户在界面上停留的时间。
有一次 Growth 的数据分析师在看用户数据的时候发现了一个有趣的现象:
用户在访问 Teambition 官网:Teambition | Tour 时,有很大比例的用户通过某个链接直接进到了项目页面,并且这些用户停留的时间都相对更长。
后来我们发现这些用户直接把常用页面收藏到了浏览器,点开书签就能直接进入项目页面,并且这些人往往是深度用户,活跃度也相对较高。
因此,我们便引导用户去收藏他的项目页面,在通过A/B测试后,我们在产品里增加了「收藏项目」的书签。
这个做法,让我们一批用户在 Teambition 上的停留时间长达 30 分钟以上,即使看 Facebook 的停留数据都没有这么长的时间。
这就是数据带给 Teambition 的一个小小惊喜,落实到功能上,可以说是创新。
再一个分割线后,我们谈谈题主说的:模型
把数据结合产品往后发展,一定要有适合自己的模型。
不管是叫 Growth Model 也好,还是产品开发 Model 也好
这些模型都是指 积累出大量的洞见来支撑产品的迭代,之后 经过验证的假说 或者 所有决定的汇总。
而这些可以通过下面的漏斗模型来体现:(也有人叫这个为 海盗模型-AARRR)
上面的每一步,不同企业不同时间,都有自己的目标和取舍。
比如在用户注册的过程中,是尽可能让用户少填信息提升注册转化率,还是让用户完善信息方便销售部门后期跟进呢?初创公司可能比较注重转化率,成熟型企业就更关注销售线索。
把实际业务所关注的每一点与上面的模型合起来,成就自己的 开发Model 或者 Growth Model ,一直是行业当中比较稀缺的技能,更应该是每个产品人应该形成的连续性思维。
嗯……
又到了最后,让我带出自己万年懒得变的结尾:
不同的公司,不同的产品,不同的数据模型,不同的评估方法;这个问题很难搞,很多公司都是产品有了一定积累之后,从新设计和建立自己的数据模型分析方法,因为每个公司的产品,用户和市场环境等因素综合起来都不大能够完全一致,所以各自的指标也都不太一样
除了一些不同公司不同产品的具体kpi外,我想有些是共通的,当然工具性和社交性的产品标准不同,游戏和互联网服务也不同,这里只提一些我的经验
转化率:推广过来的点击/下载,有多少转化成了用户,如果你的产品/服务鼓励用户注册使用的话
留存率:每天增长的新注册用户,有多少是真的留下来的
日启动次数/用户:当需求产生的时候,他是否会第一时间想起你
日均使用时长:他们是否流连忘返
这几个月在一家为客户在Facebook上做广告的加拿大公司工作。简单说说他们对于数据的态度吧。这是一家小型Startup公司,总共不到20个人。其中4个人(包括我)是技术,剩下的除了CEO都是Account Manager。当然CEO很多时候也在做Account Manager的事情。
刚到这个公司的时候,觉得他们的code很烂,他们的数据库设计也很烂。后来才知道,当初startup的时候,是找了印度公司做外包的,他们对这个外包很不满意,所以一期项目搞定之后,就全部拿过来自己搞了。但是后遗症也留下了。
这个公司的数据模型很清楚,只要通过低于广告主给出的CPA价格能赚到钱,就想办法增加广告覆盖率。但是常识大家都明白,增加覆盖率很可能导致转化率下降。但是如果接受这个假设,那么就没有什么赚钱的机会了。恰恰是因为他们相信,除了常识之外,还有一些事情是经验之外的。
比如说关键词……有些关键词对某些人有用,对另外一些人没用。如果不做数据挖掘,生想广告词或者关键词的组合,累死了也赚不到什么钱。
所以……这个公司在代码中设计了几个基本核心算法:
1. 一种止损的trigger,对于任何亏钱的广告,自动停止。
2. 一个自动发布广告的cron,程序一直在扫描。一旦发现一些广告能赚钱,就自由组合这些广告元素再自动发布到广告系统里面。这样,就能出乎意料的发现一些更加赚钱的广告形式。
3. 做了很多广告更新的算法,搞了一个自动化的A/B测试策略来针对Facebook广告价格的浮动,来更新广告的价格。
通过阅读这些算法让我感受很深。所谓的数据分析,不是一个产品经理跑到运维,数据库管理员或者工程师那里说:我现在要跟踪什么什么数据,你帮我出一下吧。然后再对着跑出来的数据琢磨这些数据是否合理。
在这个公司里,只要发现一个数据模式对收入有影响,就会直接编码到系统里,变成自动执行的代码。基于这样的数据导向原则,代码面临无穷多次的重构,因为谁也不知道,下一个数据模式会发生在哪个层面,哪几个数据之间会发生关系。
我觉得国内的不少公司,还在以daily report分析数据,还在说数据只是为了验证产品经理想法的阶段。这动作是不是太慢了?
接下来的话,随便说说,不一定有参考价值:
1. 对于大多数网站,如果你想用数据为导向,必须建立系统级的A/B测试机制。对于界面层面的重构,一个产品经理+一个工程师,一天用这个系统一天至少能做3-4个。系统级别的A/B测试要能够保证快速上线,第一时间看到数据,一旦超过临界值直接结束测试、保留数据并生成报告(直接邮件发送,而不是让产品经理想起来跑到后台再查)
2. 对于做社交网站,或者有复杂用户数据模型的公司,要在界面呈现和用户数据之间建立匹配系统。这样产品经理可以设计几种呈现模式,丢到匹配系统中,过不了多久,就能发现用户对不同呈现的数据反映的不同,然后系统性地固化这种机制。
3. 通过cookie或者用户登录信息,建立针对不同用户的内部tag系统,看这些tag在系统2里有没有明显差异。如果有就可以固化下来,用来提高关键指标。
所以,我现在对于数据分析的感觉是:
1.要提高一个数据指标,盯着它是没有用的。必须找到影响这个数据的另几个可操作性更强的数据指标,调整它们。
2.分析数据的可能性要充分,充分分析的基础是测试充分多的可能性。如果你想测试图标的颜色从绿色变成红色会不会更好。那为什么不测试一下蓝色,紫色和黄色呢?
3. 如果小规模数据已经可以说明问题,就没有必要延长测试时间,也没有必要扩大测试范围。
4. 要充分利用计算机来帮你做数据采集和分析,缩短数据分析的周期,降低数据分析的成本。
5. 有必要的时候,可以让计算机帮你找pattern,因为计算机没有偏见。
数据分析是一种靠谱的产品研究方法, 这玩意有很多误区, 也不能迷信, 最终到头来还是要人来做决策
忽略沉默的用户
二战时英国空军为了降低飞机的损失,决定给飞机的机身进行装甲加固。由于当时条件所限,只能用装甲加固飞机上的少数部位。他们对执行完轰炸任务返航的飞机进行仔细的观察、分析、统计。发现大多数的弹孔,都集中在飞机的机翼上;只有少数弹孔位于驾驶舱。从数据上说, 加固机翼的性价比最高. 但实际情况缺恰恰相反, 驾驶舱才是最应加固的地方, 因为驾驶舱被击中的飞机几乎都没飞回来.
"发声"的数据是最好获取的, 但如果没把这些沉默的数据考虑进来, 那么这种数据分析是不靠谱的. 所以除了数据的结果, 还得尝试解读这些数据. 而解读数据就完全依赖人了.
把沉默用户当做支持和反对的中间态
2家网站A和B,都经营类似的业务,都有稳定的用户群。它们都进行了类似的网站界面改版。改版之后,网站A没有得到用户的赞扬,反而遭到很多用户的臭骂;而网站B既没有用户夸它,也没有用户骂它。如果从数据来看, 应该是网站B的改版相对更成功, 因为没有用户表达不满。但事实并非如此。网站A虽然遭到很多用户痛骂,但说明还有很多用户在乎它;对于网站B,用户对它已经不关心它了.
网站A指的是Facebook,网站B是微软旗下的Live Space。
把数据作为决策的唯一标准
通常认为数据分析指导工作是一种高性价比的做法, 不容易犯错, 对于代表资方的管理层来说, 比起依赖于人的决策, 依赖于数据的决策似乎更稳健.
这种决策在从0.5向0.8的产品改进上, 可能是有效的. 因为一个已有的产品, 数据就摆在那. 100个用户50个访问超时, 解决了这个问题, 就提升了50%的效果.
但对于从0到0.1的新产品上, 由于数据很难获取, 需要花大力气在获取模拟数据上. 往往是用一周时间去想明白一个做两个小时的产品该不该做的问题. 而且模拟的结果还和最终实际相差很远.
A/B test或是原型系统, 先做出来, 再去验证, 在一些场合下比先拿数据要有效的多.
认为数据是绝对客观的
为了减少内耗, 往往依赖于数据来做决断. 我一直认为数据本身是带有主观性的, 完全客观的数据是没有的. 数据的获取方法, 数据的解读方法, 数据的统计方法, 都是人的决策. 一份数据拿出两个相反的结论来也不是没有可能. 即使主观上没有偏向性, 也受限于方法和视野.
决策上最终起作用的还是人不是数据. 虽然人有那么多的不确定性, 还可能出现争论, 扯皮, 不敢承担责任.
毁掉分析数据态度的三个常见原因
首先,大环境不尊重数据,尤其是老板的态度。如果数据分析师只要随便给一个报告就行,数字多一点和少一点,大家也是一笑而过,并不会追根到底,那么很难让数据分析师以严谨的态度对待数据。
例如,国内这几家数据分析机构,基本都在着急扩张行业,争着占领行业,对于其推出的数据有多精准却不那么在意,所以艾瑞的数据最近才会经常被人说“不靠谱”。
数据分析,今天做得不准,明天再改是没有用的。比如艾瑞,如果数据不稳固,抢着做很多行业,这是不靠谱的做法,指不定哪天砸了自己的牌子。
有人和我提过FACEBOOK数据分析师为什么那么牛,因为他们不觉得数据分析是一个苦事,十几个人在一个房子里把数据分析当做一件很开心的事情来做,数据分析对于他们来说是在追求科学。
第二,好的数据分析师需要一点天分,同时也需要高人点拨,但是电子商务这个圈子,真正懂数据分析的人不会超过10个,所以一般人很难取得真经。这和信仰一样,没有师傅领进门,难度也会大很多。
我回顾自己从微软到易趣,再从敦煌到支付宝,在数据分析上有一次长足的进步,得益于从两位老师的身上得到了许多启发。一位是亚马逊的首席科学家韦思康,曾经,我告诉韦思康,KPI报告显示敦煌网需要4秒钟,他立马让我叫来做技术的同事(他要听到一线同学的反应),问这个4秒钟怎么测算出来,是美国人打开用4秒钟,还是英国人打开用4秒钟,用的是甚么Browser等等。这个4秒钟和商业价值(例如交易量)有关系吗?我当时很触动,连这么一个很基础的数据,他都是以求证的心态来分析的。更令我印象深刻的是,只请他当敦煌网顾问半天,按照他的工作经历来说,随便忽悠我半天是很容易的事情,但是韦思康非常严谨,先是以一个普通人的身份花了半个小时在敦煌网买东西(坚决要真实付钱),切身体会敦煌网的用户体验,然后也不先看数据,而是先问很多能更了解敦煌网的生意形态的问题。讲真他的问题比很多投资分析师来得专业。而现在许多数据分析师,包括当时我自己,只看数据就开口说问题,不深入去体会公司的商业形态。
韦思康告诉我数据是一种态度,让我明白做数据的人就是要全身心投入,好像一种信仰一样,中间有许多路要走;而且,数据与商业密切相关,不能局限在数据的死角里。
另一位是清华大学的教授谢劲红,有一个夏天碰巧去旁听他的课,拿一堆的数据给他看,他一边看一边给我演绎他的思维,他可以很快在一堆数据找到他们之间的关系。后来我带着团队常常去清华找他聊,他教我如何看网络数据,用联动的思维来看网络数据。可以说是他启蒙了我用 “关系”的思维看数据。一听完就回到敦煌跑到敦煌看很多数据,发现了新世界。
第三,数据分析师感叹落不了地,只能谈数据,而不懂商业。如果不懂商业,而单纯看数据,不仅很难有创意的思维,而且是没有意义的(曾经谈过这个问题,不懂商业就别谈数据:http://blog.sina.com.cn/s/blog_5025e3880100kwn1.html)。
而对于一般的数据分析师来说,大部分人没有系统思维,而且也只能看一部分数据,无法从大面儿上了解整个公司的运营数据,这样就令数据分析师难以形成全面的思考方式。
以我自己的工作经历来举例,为什么我在敦煌的时候数据分析能力会突飞猛进,也是因为我在前两家公司只能看到一部分数据,而到了敦煌之后我爱看什么就看什么,受谢教授启发之后我更是天马行空地把营销数据、市场数据、财务数据、产品数据、卖家和买家数据等等联动起来看,这大大改变了我对数据的运用方式。
。
继竞品分析之后,“数据分析能力”也是产品经理的重要基本功之一。
先回答题主困惑,数据分析必是有理有据的逻辑过程,通用数据指标甚至都是业内统一定义如DAU,留存。个性化指标确定必须是公司相关人员都同意且认可的统计方式。所以题主举的产品经理使用数据情况属于错误使用(错误点:1个性化指标没有被认可;2分析过程存在漏洞),不是真是数据分析方法。因此根据个人经验,总结下产品经理使用数据的姿势如下:
写在开篇的声明:
1)这里写的是产品经理(不是数据建模工程师)工作中所需的数据分析能力。因此并不涉及复杂的数理统计和数据挖掘知识。
2)用户画像和市场数据也是数据的一部分,但个人习惯将其归为用户和市场研究部分。后续用户和市场分析会详细展开。
3)很难追求数据的绝对准确,而要追求数据的相对准确。所以如果感觉数据有问题,不要在没有论证的情况下冲到工程师面前质疑一番,一是没有确定问题存在的时候很难查证,二是会让工程师反感。
产品数据的作用:
主要作用就是监控产品设计、运营效果、营收是否正常或达标。并判断业务发展阶段,为后续推进提供参考。
数据能力的核心:
数据的核心主要就是数据打点,数据使用,数据预估。
________________________
1)数据打点:
数据打点,也叫埋点。其原理就像在路上安放监控探头,一旦有符合记录条件的车通过,探头就会按照设定上报相关信息。
步骤一:
在打点前先弄清楚是客户端打点还是前端打点。
客户端打点要尽可能全面并具有扩展性。因为客户端只有升级才会更新新的打点代码。并且还有升级覆盖率问题。所以一定要把数据框架打好,否则后续进行数据分析会非常困难。
如果是前端打点就方便很多。根据需求随时调整,随时上线,而且用户刷新一次页面代码就能被升级上来。不过经常变动也会让工程师重复工作,影响工程师情绪。
步骤二:
提供打点需求,就是明确在什么情况下要什么数据,最终为什么分析做准备。
并且一定要弄清楚指标的正确定义
比如,次日留存,30日留存,月留存,新用户次日留存,都是什么意思,有什么区别。
问题:产品经理应如何提供打点需求?尤其是当产品经手一个不熟悉的项目时。
个人习惯先跟相关同事沟通,然后穷举,之后筛选出核心指标,重要指标,次要指标,检测指标。有条件的话可以再请资深人士评估下。虽然耗时,但稳妥。
穷举的过程从每个入口和页面逐一列举开始:比如对一个手机软件,起点应该从应用商店下载开始,终点是用户卸载。然后是每个地方的入口pv,uv,按钮点击及对应uv,内容曝光及对应点击、对应uv,时长及对应uv,输入内容及对应uv,以及特殊信息如购物类的客单价等。
并且可以按照新老用户,或者分级用户,按渠道切分对比。预留好各个渠道ref接口。如果有AB试验,则需要支持试验对比。
释义:
核心指标:一般都会包括DAU,MAU,平均时长,人均启动,日新增,关键转化(比如订单转化,阅读转化)日卸载。新老用户留存(日周月)。如果有内容则会增加曝光量,曝光点击,曝光点击率,人均曝光等(ps 其他KPI的相关指标都应该列为核心指标 )
重要指标:一般是核心操作,重要内容,关键路径的相关打点数据。流量分布,漏斗或者也叫流失模型。如视频播放vv,客单价,搜索量等等。
检测指标:一般就是错误提示或者性能参数,失败反馈等信息上报。能有效反馈设计质量和工程质量。
其他指标:可以归结为次要指标,一般是辅助性或验证性。或者某些功能上线之初效果评估。
注意事项
a 数据项要能完成关键路径的漏斗模型。
漏斗模型示意图:
b 打点数据最好能带着用户参数,渠道参数,入口参数,从而能有效追述用户路径,评估渠道,评估入口,分析新老对比等。
举例,上一个之前做过的“资讯详情页面”统计需求
ps 表中关于曝光的统计就是需要特殊说明的,产品经理不能简单的四个字“统计曝光”就提给工程师,如果有特殊需求要标注清楚给工程师。
________________________
2)数据使用:
数据分析包括后台呈现、分析、汇报三部分。
2.1 后台呈现:
数据呈现是为了方便快捷直观的观察数据情况,分为表格和图表两种形式。表格需要支持导出,从而方便深入计算。图表最常用的就是折线图(看趋势),柱状图(看关系),饼图(看比例)。
但是过于复杂的后台呈现会导致过多工程资源消耗,因此建议初期以基本数据能正常呈现和导出为标准即可。然后手动分析数据走势和之间的逻辑关系,经过人工的分析充分掌握数据规律,然后再优化后台呈现,这样更方便高效,并且在项目初期数据变化较大随时可能面临调整。
同时关于筛选条件一定要制定好,并能方便的多维度进行对比。如:按新老用户,按渠道,按版本,按入口,按时间粒度。
当然对于已经成熟的项目和呈现后台则另当别论。
(ps miui有很多数据分析后台,防止泄密这里就不上示例参考了)
2.2 数据分析
数据分析首先要具备一定的数理统计知识。这个是必须学习的功课了。
比如如何区分平均数和中位数的作用?什么情况下看平均,什么情况下看中位数。
个人看过的统计相关书单:
《爱上统计学》(美)尼尔.J.萨尔金德 重庆大学出版社
《统计学原理》 张瞳光 中国商务出版社
《统计学导论》 李 勇 人民邮电出版社
《应用统计学》 朱建平 清华大学出版社
《数据挖掘概念与技术》 韩家炜等 机械工业出版社(可以不看)
其次熟练掌握excel。
比如是否能够使用分列、分级、透视等几个功能。(筛选,排序等功能太小儿科了)
比如是否能够使用IF、COUNTIF等公式(SUM太小儿科了)
再进阶的话就是使用VB语言进行分析。
个人的学习excel经验是在实践中摸索,对于这种基础软件没有必要专门买教程学习,每次根据需求百度,然后做好笔记即可。
本人也使用过spss,不过作为产品经理excel足够用了。
最后数据分析工作重点:
a 日常监控相关数据的变化和波动,并总结规律,比如对于时钟应用可以看到每周会呈现相对规律的变动。对于出现异常波动的数据要及时跟进。
实操举例:
图中圆圈处数据,断崖式,断崖时间1天,很有可能是数据统计变更或后端or前端打点出现问题。
图中方框处数据,呈现明显周期性规律,并且微微上扬。能够直观体现用户使用行为和高峰,从而确定产品优化点和关键运营时间。微微上扬则能表现出入口流量增长或流失减少,又或者留存提高。
b 关键漏斗模型的建立和监测。对于流失率较高的环节及时跟进和优化。
c 对于功能改进,运营效果,商业变动的数据总结和分析,有问题需及时进行调整。
2.3 数据汇报:
数据汇报太偏重技术表现不再展开说明,核心重点:区分不同的汇报场景选取关键数据,针对有效数据选择恰当的表现方式即可。说明问题即可,不用面面俱到使得汇报冗余。
________________________
3)数据预估:
相对于数据打点和数据使用,数据预估是更重要的能力,其需要建立在丰富的数据经验和统计知识的基础之上,也是产品经理对自己项目把控力的重要体现。
当一个产品能够相对准确的预估项目数据变化及相关优化后的数据波动,就能够有效的根据项目情况和资源情况安排产品重点和进度。做到进退有度。如假设产品经理要将产品日活从年初100w年底提升至500w。首先要能够准确预估期间有哪些手段能影响用户量提升,各自提升效果有多少,资源投入有多少,见效周期是多少。从而安排工作重心和节奏。这个时候对数据预估的准确性则会直接影响产品的发展速度。
对于高级产品或者背负KPI的产品,必须具备数据预估能力。从而合理安排工作计划,带领团队有效的推动项目发展。
这里总结下个人经验,首先要拆解某项数据指标,比如营收数据,要根据项目的营收结构逐项拆解,其次了解每一项的波动规律。如某些同活跃用户波动相关、某些同时间或节日波动相关、某些同大盘数据波动相关。同时要了解历史上相关波动幅度。以及用户潜力,比如浏览器搜索用户占比可以提升到40%以上。
如果有工程资源,最好能针对某些重要的改进提前进行抽样测试,从而推断全局后的数据变化情况。比如我们建立起版本灰度机制,一方面更好的发现bug,另一方面能及时评估版本全量后的数据变化,从而判断是否对当前版本进行全量。
(ps 这个地方的工作成果太过涉密,就不上示例了。)
________________________
结尾的注意事项:
1)数据不能代表一切,不能盲目的相信数据,但是更不能的是不看数据、不懂数据。
2)很难追求数据的绝对准确,而要追求数据的相对准确。
3)不要感觉数据有问题就冲到工程师面前,要切实分析出问题。秉持谁提议谁举证的原则。
4) 一定要弄清楚指标的定义,不能似是而非。
5)数据分析是一个严谨的逻辑过程,要保证推断的客观性,不能为了证明某结论而证明。
6)数据分析是随着产品发展而不断细化和迭代的,不要在开始阶段就投入大量资源进行数据分析。
随着项目的日益发展,数据分析也会更加精细和复杂,因此慢慢的出现了数据产品经理,对于数据产品经理还是应该学些基础的Python、SQL、VBA技能。
说些题外话,数据是简单、直接的,也是饱受争议的。
但当真正看到庞大的数据所表现出的特征后,你会震撼于从未感知过的世界的另一面。
无论如何必须要感激当前的科技进步能够让我们有机会直面数以亿计的人产生的成百上千亿的行为。就像一粒水终于可以看到整个大洋的流动,就像上帝打开一扇窗让我们从他的角度俯视大地。
你会真正纠结于是否要为满足几千万人的需求放弃其他几十万人。这不再是课本上的哲学命题。
你会兴奋于几千万人按照你的设定向预期的结果发展。这有一种替上帝做决定的成就感。
你会深思低俗文章的点击率难以让正规文章望其项背。必须一遍遍权衡其中的利弊做出让步。
最后再说一点互联网圈外人特别关心的数据隐私的事情,拥有这些大数据的公司不会八卦你到底是谁干过啥。它们只关心人群的趋势和方向,从而怎么更好的服务用户产生价值。
只有政府、变态和骗子才会关心和利用你个人的信息。而且骗子会通过各种渠道手段获取你的信息,所以对待自己身份信息和财务密码信息一定要谨慎。
一个产品的用户体验,我觉得是没有什么什么界定规则的。
对于视觉系动物,不优秀的界面和交互,已经让这款产品在他们心里 “死亡”。
而偏理性的动物,可能会更加关注产品的功能。
但这些功能和体验的落实,都取决于做产品的人对产品价值的判断。
滴滴和 Uber
Uber 总结自己最核心关注的数据是:乘客打车时手按下去后,专车到乘客面前的时间。
而滴滴关心的只是定单量的多少。
这两个完全不同的数据方向,就很能说明一个问题:
到底做这个产品的人在乎什么?
于是有了Uber和滴滴完全不同的设计思路和交互体验。
或许能稍微升华一些,Uber 通过优化这一点,实现了自己的产品价值:优步让交通效率提高了。基于这个「价值」,优步对自己定位更准,对产品体验把握也更准。
不知道现在滴滴和 Uber拉锯战打的如何?
人们到底更喜欢哪家?
到底谁赚到了更多的钱?
这些不得而知。
但我们可以认识到,数据并不是衡量一个产品好坏的标准。
引用上面 @丁利 的话:
一个好的产品,并不一定是一个挣钱的产品。
数据只是反应产品某个方面的问题。
分割线后回答第二个问题:
产品的设计与创新与数据分析如何进行深层次的结合?
重视数据的人一定认可这件事情,产品设计和新功能的开发,一定不是天马行空的创意能解决的。让新用户用的更好停的更久,推荐更多人的方法,一定藏在数据里面。
关于数据指导产品设计的问题,可以参考这个回答:
怎样通过数据分析指导移动产品设计? – 彭砰砰的回答
里面有详细的解释和案例。
这边我们重点说说,数据里的意外惊喜:
数据告诉 Teambition 书签功能保存项目
Teambition 的 Growth 团队会关注用户使用产品的频度,因此会特别关注用户在界面上停留的时间。
有一次 Growth 的数据分析师在看用户数据的时候发现了一个有趣的现象:
用户在访问 Teambition 官网:Teambition | Tour 时,有很大比例的用户通过某个链接直接进到了项目页面,并且这些用户停留的时间都相对更长。
后来我们发现这些用户直接把常用页面收藏到了浏览器,点开书签就能直接进入项目页面,并且这些人往往是深度用户,活跃度也相对较高。
因此,我们便引导用户去收藏他的项目页面,在通过A/B测试后,我们在产品里增加了「收藏项目」的书签。
这个做法,让我们一批用户在 Teambition 上的停留时间长达 30 分钟以上,即使看 Facebook 的停留数据都没有这么长的时间。
这就是数据带给 Teambition 的一个小小惊喜,落实到功能上,可以说是创新。
再一个分割线后,我们谈谈题主说的:模型
把数据结合产品往后发展,一定要有适合自己的模型。
不管是叫 Growth Model 也好,还是产品开发 Model 也好
这些模型都是指 积累出大量的洞见来支撑产品的迭代,之后 经过验证的假说 或者 所有决定的汇总。
而这些可以通过下面的漏斗模型来体现:(也有人叫这个为 海盗模型-AARRR)
上面的每一步,不同企业不同时间,都有自己的目标和取舍。
比如在用户注册的过程中,是尽可能让用户少填信息提升注册转化率,还是让用户完善信息方便销售部门后期跟进呢?初创公司可能比较注重转化率,成熟型企业就更关注销售线索。
把实际业务所关注的每一点与上面的模型合起来,成就自己的 开发Model 或者 Growth Model ,一直是行业当中比较稀缺的技能,更应该是每个产品人应该形成的连续性思维。
嗯……
又到了最后,让我带出自己万年懒得变的结尾:
不同的公司,不同的产品,不同的数据模型,不同的评估方法;这个问题很难搞,很多公司都是产品有了一定积累之后,从新设计和建立自己的数据模型分析方法,因为每个公司的产品,用户和市场环境等因素综合起来都不大能够完全一致,所以各自的指标也都不太一样
除了一些不同公司不同产品的具体kpi外,我想有些是共通的,当然工具性和社交性的产品标准不同,游戏和互联网服务也不同,这里只提一些我的经验
转化率:推广过来的点击/下载,有多少转化成了用户,如果你的产品/服务鼓励用户注册使用的话
留存率:每天增长的新注册用户,有多少是真的留下来的
日启动次数/用户:当需求产生的时候,他是否会第一时间想起你
日均使用时长:他们是否流连忘返
这几个月在一家为客户在Facebook上做广告的加拿大公司工作。简单说说他们对于数据的态度吧。这是一家小型Startup公司,总共不到20个人。其中4个人(包括我)是技术,剩下的除了CEO都是Account Manager。当然CEO很多时候也在做Account Manager的事情。
刚到这个公司的时候,觉得他们的code很烂,他们的数据库设计也很烂。后来才知道,当初startup的时候,是找了印度公司做外包的,他们对这个外包很不满意,所以一期项目搞定之后,就全部拿过来自己搞了。但是后遗症也留下了。
这个公司的数据模型很清楚,只要通过低于广告主给出的CPA价格能赚到钱,就想办法增加广告覆盖率。但是常识大家都明白,增加覆盖率很可能导致转化率下降。但是如果接受这个假设,那么就没有什么赚钱的机会了。恰恰是因为他们相信,除了常识之外,还有一些事情是经验之外的。
比如说关键词……有些关键词对某些人有用,对另外一些人没用。如果不做数据挖掘,生想广告词或者关键词的组合,累死了也赚不到什么钱。
所以……这个公司在代码中设计了几个基本核心算法:
1. 一种止损的trigger,对于任何亏钱的广告,自动停止。
2. 一个自动发布广告的cron,程序一直在扫描。一旦发现一些广告能赚钱,就自由组合这些广告元素再自动发布到广告系统里面。这样,就能出乎意料的发现一些更加赚钱的广告形式。
3. 做了很多广告更新的算法,搞了一个自动化的A/B测试策略来针对Facebook广告价格的浮动,来更新广告的价格。
通过阅读这些算法让我感受很深。所谓的数据分析,不是一个产品经理跑到运维,数据库管理员或者工程师那里说:我现在要跟踪什么什么数据,你帮我出一下吧。然后再对着跑出来的数据琢磨这些数据是否合理。
在这个公司里,只要发现一个数据模式对收入有影响,就会直接编码到系统里,变成自动执行的代码。基于这样的数据导向原则,代码面临无穷多次的重构,因为谁也不知道,下一个数据模式会发生在哪个层面,哪几个数据之间会发生关系。
我觉得国内的不少公司,还在以daily report分析数据,还在说数据只是为了验证产品经理想法的阶段。这动作是不是太慢了?
接下来的话,随便说说,不一定有参考价值:
1. 对于大多数网站,如果你想用数据为导向,必须建立系统级的A/B测试机制。对于界面层面的重构,一个产品经理+一个工程师,一天用这个系统一天至少能做3-4个。系统级别的A/B测试要能够保证快速上线,第一时间看到数据,一旦超过临界值直接结束测试、保留数据并生成报告(直接邮件发送,而不是让产品经理想起来跑到后台再查)
2. 对于做社交网站,或者有复杂用户数据模型的公司,要在界面呈现和用户数据之间建立匹配系统。这样产品经理可以设计几种呈现模式,丢到匹配系统中,过不了多久,就能发现用户对不同呈现的数据反映的不同,然后系统性地固化这种机制。
3. 通过cookie或者用户登录信息,建立针对不同用户的内部tag系统,看这些tag在系统2里有没有明显差异。如果有就可以固化下来,用来提高关键指标。
所以,我现在对于数据分析的感觉是:
1.要提高一个数据指标,盯着它是没有用的。必须找到影响这个数据的另几个可操作性更强的数据指标,调整它们。
2.分析数据的可能性要充分,充分分析的基础是测试充分多的可能性。如果你想测试图标的颜色从绿色变成红色会不会更好。那为什么不测试一下蓝色,紫色和黄色呢?
3. 如果小规模数据已经可以说明问题,就没有必要延长测试时间,也没有必要扩大测试范围。
4. 要充分利用计算机来帮你做数据采集和分析,缩短数据分析的周期,降低数据分析的成本。
5. 有必要的时候,可以让计算机帮你找pattern,因为计算机没有偏见。
数据分析是一种靠谱的产品研究方法, 这玩意有很多误区, 也不能迷信, 最终到头来还是要人来做决策
忽略沉默的用户
二战时英国空军为了降低飞机的损失,决定给飞机的机身进行装甲加固。由于当时条件所限,只能用装甲加固飞机上的少数部位。他们对执行完轰炸任务返航的飞机进行仔细的观察、分析、统计。发现大多数的弹孔,都集中在飞机的机翼上;只有少数弹孔位于驾驶舱。从数据上说, 加固机翼的性价比最高. 但实际情况缺恰恰相反, 驾驶舱才是最应加固的地方, 因为驾驶舱被击中的飞机几乎都没飞回来.
"发声"的数据是最好获取的, 但如果没把这些沉默的数据考虑进来, 那么这种数据分析是不靠谱的. 所以除了数据的结果, 还得尝试解读这些数据. 而解读数据就完全依赖人了.
把沉默用户当做支持和反对的中间态
2家网站A和B,都经营类似的业务,都有稳定的用户群。它们都进行了类似的网站界面改版。改版之后,网站A没有得到用户的赞扬,反而遭到很多用户的臭骂;而网站B既没有用户夸它,也没有用户骂它。如果从数据来看, 应该是网站B的改版相对更成功, 因为没有用户表达不满。但事实并非如此。网站A虽然遭到很多用户痛骂,但说明还有很多用户在乎它;对于网站B,用户对它已经不关心它了.
网站A指的是Facebook,网站B是微软旗下的Live Space。
把数据作为决策的唯一标准
通常认为数据分析指导工作是一种高性价比的做法, 不容易犯错, 对于代表资方的管理层来说, 比起依赖于人的决策, 依赖于数据的决策似乎更稳健.
这种决策在从0.5向0.8的产品改进上, 可能是有效的. 因为一个已有的产品, 数据就摆在那. 100个用户50个访问超时, 解决了这个问题, 就提升了50%的效果.
但对于从0到0.1的新产品上, 由于数据很难获取, 需要花大力气在获取模拟数据上. 往往是用一周时间去想明白一个做两个小时的产品该不该做的问题. 而且模拟的结果还和最终实际相差很远.
A/B test或是原型系统, 先做出来, 再去验证, 在一些场合下比先拿数据要有效的多.
认为数据是绝对客观的
为了减少内耗, 往往依赖于数据来做决断. 我一直认为数据本身是带有主观性的, 完全客观的数据是没有的. 数据的获取方法, 数据的解读方法, 数据的统计方法, 都是人的决策. 一份数据拿出两个相反的结论来也不是没有可能. 即使主观上没有偏向性, 也受限于方法和视野.
决策上最终起作用的还是人不是数据. 虽然人有那么多的不确定性, 还可能出现争论, 扯皮, 不敢承担责任.
毁掉分析数据态度的三个常见原因
首先,大环境不尊重数据,尤其是老板的态度。如果数据分析师只要随便给一个报告就行,数字多一点和少一点,大家也是一笑而过,并不会追根到底,那么很难让数据分析师以严谨的态度对待数据。
例如,国内这几家数据分析机构,基本都在着急扩张行业,争着占领行业,对于其推出的数据有多精准却不那么在意,所以艾瑞的数据最近才会经常被人说“不靠谱”。
数据分析,今天做得不准,明天再改是没有用的。比如艾瑞,如果数据不稳固,抢着做很多行业,这是不靠谱的做法,指不定哪天砸了自己的牌子。
有人和我提过FACEBOOK数据分析师为什么那么牛,因为他们不觉得数据分析是一个苦事,十几个人在一个房子里把数据分析当做一件很开心的事情来做,数据分析对于他们来说是在追求科学。
第二,好的数据分析师需要一点天分,同时也需要高人点拨,但是电子商务这个圈子,真正懂数据分析的人不会超过10个,所以一般人很难取得真经。这和信仰一样,没有师傅领进门,难度也会大很多。
我回顾自己从微软到易趣,再从敦煌到支付宝,在数据分析上有一次长足的进步,得益于从两位老师的身上得到了许多启发。一位是亚马逊的首席科学家韦思康,曾经,我告诉韦思康,KPI报告显示敦煌网需要4秒钟,他立马让我叫来做技术的同事(他要听到一线同学的反应),问这个4秒钟怎么测算出来,是美国人打开用4秒钟,还是英国人打开用4秒钟,用的是甚么Browser等等。这个4秒钟和商业价值(例如交易量)有关系吗?我当时很触动,连这么一个很基础的数据,他都是以求证的心态来分析的。更令我印象深刻的是,只请他当敦煌网顾问半天,按照他的工作经历来说,随便忽悠我半天是很容易的事情,但是韦思康非常严谨,先是以一个普通人的身份花了半个小时在敦煌网买东西(坚决要真实付钱),切身体会敦煌网的用户体验,然后也不先看数据,而是先问很多能更了解敦煌网的生意形态的问题。讲真他的问题比很多投资分析师来得专业。而现在许多数据分析师,包括当时我自己,只看数据就开口说问题,不深入去体会公司的商业形态。
韦思康告诉我数据是一种态度,让我明白做数据的人就是要全身心投入,好像一种信仰一样,中间有许多路要走;而且,数据与商业密切相关,不能局限在数据的死角里。
另一位是清华大学的教授谢劲红,有一个夏天碰巧去旁听他的课,拿一堆的数据给他看,他一边看一边给我演绎他的思维,他可以很快在一堆数据找到他们之间的关系。后来我带着团队常常去清华找他聊,他教我如何看网络数据,用联动的思维来看网络数据。可以说是他启蒙了我用 “关系”的思维看数据。一听完就回到敦煌跑到敦煌看很多数据,发现了新世界。
第三,数据分析师感叹落不了地,只能谈数据,而不懂商业。如果不懂商业,而单纯看数据,不仅很难有创意的思维,而且是没有意义的(曾经谈过这个问题,不懂商业就别谈数据:http://blog.sina.com.cn/s/blog_5025e3880100kwn1.html)。
而对于一般的数据分析师来说,大部分人没有系统思维,而且也只能看一部分数据,无法从大面儿上了解整个公司的运营数据,这样就令数据分析师难以形成全面的思考方式。
以我自己的工作经历来举例,为什么我在敦煌的时候数据分析能力会突飞猛进,也是因为我在前两家公司只能看到一部分数据,而到了敦煌之后我爱看什么就看什么,受谢教授启发之后我更是天马行空地把营销数据、市场数据、财务数据、产品数据、卖家和买家数据等等联动起来看,这大大改变了我对数据的运用方式。
。
继竞品分析之后,“数据分析能力”也是产品经理的重要基本功之一。
先回答题主困惑,数据分析必是有理有据的逻辑过程,通用数据指标甚至都是业内统一定义如DAU,留存。个性化指标确定必须是公司相关人员都同意且认可的统计方式。所以题主举的产品经理使用数据情况属于错误使用(错误点:1个性化指标没有被认可;2分析过程存在漏洞),不是真是数据分析方法。因此根据个人经验,总结下产品经理使用数据的姿势如下:
写在开篇的声明:
1)这里写的是产品经理(不是数据建模工程师)工作中所需的数据分析能力。因此并不涉及复杂的数理统计和数据挖掘知识。
2)用户画像和市场数据也是数据的一部分,但个人习惯将其归为用户和市场研究部分。后续用户和市场分析会详细展开。
3)很难追求数据的绝对准确,而要追求数据的相对准确。所以如果感觉数据有问题,不要在没有论证的情况下冲到工程师面前质疑一番,一是没有确定问题存在的时候很难查证,二是会让工程师反感。
产品数据的作用:
主要作用就是监控产品设计、运营效果、营收是否正常或达标。并判断业务发展阶段,为后续推进提供参考。
数据能力的核心:
数据的核心主要就是数据打点,数据使用,数据预估。
________________________
1)数据打点:
数据打点,也叫埋点。其原理就像在路上安放监控探头,一旦有符合记录条件的车通过,探头就会按照设定上报相关信息。
步骤一:
在打点前先弄清楚是客户端打点还是前端打点。
客户端打点要尽可能全面并具有扩展性。因为客户端只有升级才会更新新的打点代码。并且还有升级覆盖率问题。所以一定要把数据框架打好,否则后续进行数据分析会非常困难。
如果是前端打点就方便很多。根据需求随时调整,随时上线,而且用户刷新一次页面代码就能被升级上来。不过经常变动也会让工程师重复工作,影响工程师情绪。
步骤二:
提供打点需求,就是明确在什么情况下要什么数据,最终为什么分析做准备。
并且一定要弄清楚指标的正确定义
比如,次日留存,30日留存,月留存,新用户次日留存,都是什么意思,有什么区别。
问题:产品经理应如何提供打点需求?尤其是当产品经手一个不熟悉的项目时。
个人习惯先跟相关同事沟通,然后穷举,之后筛选出核心指标,重要指标,次要指标,检测指标。有条件的话可以再请资深人士评估下。虽然耗时,但稳妥。
穷举的过程从每个入口和页面逐一列举开始:比如对一个手机软件,起点应该从应用商店下载开始,终点是用户卸载。然后是每个地方的入口pv,uv,按钮点击及对应uv,内容曝光及对应点击、对应uv,时长及对应uv,输入内容及对应uv,以及特殊信息如购物类的客单价等。
并且可以按照新老用户,或者分级用户,按渠道切分对比。预留好各个渠道ref接口。如果有AB试验,则需要支持试验对比。
释义:
核心指标:一般都会包括DAU,MAU,平均时长,人均启动,日新增,关键转化(比如订单转化,阅读转化)日卸载。新老用户留存(日周月)。如果有内容则会增加曝光量,曝光点击,曝光点击率,人均曝光等(ps 其他KPI的相关指标都应该列为核心指标 )
重要指标:一般是核心操作,重要内容,关键路径的相关打点数据。流量分布,漏斗或者也叫流失模型。如视频播放vv,客单价,搜索量等等。
检测指标:一般就是错误提示或者性能参数,失败反馈等信息上报。能有效反馈设计质量和工程质量。
其他指标:可以归结为次要指标,一般是辅助性或验证性。或者某些功能上线之初效果评估。
注意事项
a 数据项要能完成关键路径的漏斗模型。
漏斗模型示意图:
b 打点数据最好能带着用户参数,渠道参数,入口参数,从而能有效追述用户路径,评估渠道,评估入口,分析新老对比等。
举例,上一个之前做过的“资讯详情页面”统计需求
ps 表中关于曝光的统计就是需要特殊说明的,产品经理不能简单的四个字“统计曝光”就提给工程师,如果有特殊需求要标注清楚给工程师。
________________________
2)数据使用:
数据分析包括后台呈现、分析、汇报三部分。
2.1 后台呈现:
数据呈现是为了方便快捷直观的观察数据情况,分为表格和图表两种形式。表格需要支持导出,从而方便深入计算。图表最常用的就是折线图(看趋势),柱状图(看关系),饼图(看比例)。
但是过于复杂的后台呈现会导致过多工程资源消耗,因此建议初期以基本数据能正常呈现和导出为标准即可。然后手动分析数据走势和之间的逻辑关系,经过人工的分析充分掌握数据规律,然后再优化后台呈现,这样更方便高效,并且在项目初期数据变化较大随时可能面临调整。
同时关于筛选条件一定要制定好,并能方便的多维度进行对比。如:按新老用户,按渠道,按版本,按入口,按时间粒度。
当然对于已经成熟的项目和呈现后台则另当别论。
(ps miui有很多数据分析后台,防止泄密这里就不上示例参考了)
2.2 数据分析
数据分析首先要具备一定的数理统计知识。这个是必须学习的功课了。
比如如何区分平均数和中位数的作用?什么情况下看平均,什么情况下看中位数。
个人看过的统计相关书单:
《爱上统计学》(美)尼尔.J.萨尔金德 重庆大学出版社
《统计学原理》 张瞳光 中国商务出版社
《统计学导论》 李 勇 人民邮电出版社
《应用统计学》 朱建平 清华大学出版社
《数据挖掘概念与技术》 韩家炜等 机械工业出版社(可以不看)
其次熟练掌握excel。
比如是否能够使用分列、分级、透视等几个功能。(筛选,排序等功能太小儿科了)
比如是否能够使用IF、COUNTIF等公式(SUM太小儿科了)
再进阶的话就是使用VB语言进行分析。
个人的学习excel经验是在实践中摸索,对于这种基础软件没有必要专门买教程学习,每次根据需求百度,然后做好笔记即可。
本人也使用过spss,不过作为产品经理excel足够用了。
最后数据分析工作重点:
a 日常监控相关数据的变化和波动,并总结规律,比如对于时钟应用可以看到每周会呈现相对规律的变动。对于出现异常波动的数据要及时跟进。
实操举例:
图中圆圈处数据,断崖式,断崖时间1天,很有可能是数据统计变更或后端or前端打点出现问题。
图中方框处数据,呈现明显周期性规律,并且微微上扬。能够直观体现用户使用行为和高峰,从而确定产品优化点和关键运营时间。微微上扬则能表现出入口流量增长或流失减少,又或者留存提高。
b 关键漏斗模型的建立和监测。对于流失率较高的环节及时跟进和优化。
c 对于功能改进,运营效果,商业变动的数据总结和分析,有问题需及时进行调整。
2.3 数据汇报:
数据汇报太偏重技术表现不再展开说明,核心重点:区分不同的汇报场景选取关键数据,针对有效数据选择恰当的表现方式即可。说明问题即可,不用面面俱到使得汇报冗余。
________________________
3)数据预估:
相对于数据打点和数据使用,数据预估是更重要的能力,其需要建立在丰富的数据经验和统计知识的基础之上,也是产品经理对自己项目把控力的重要体现。
当一个产品能够相对准确的预估项目数据变化及相关优化后的数据波动,就能够有效的根据项目情况和资源情况安排产品重点和进度。做到进退有度。如假设产品经理要将产品日活从年初100w年底提升至500w。首先要能够准确预估期间有哪些手段能影响用户量提升,各自提升效果有多少,资源投入有多少,见效周期是多少。从而安排工作重心和节奏。这个时候对数据预估的准确性则会直接影响产品的发展速度。
对于高级产品或者背负KPI的产品,必须具备数据预估能力。从而合理安排工作计划,带领团队有效的推动项目发展。
这里总结下个人经验,首先要拆解某项数据指标,比如营收数据,要根据项目的营收结构逐项拆解,其次了解每一项的波动规律。如某些同活跃用户波动相关、某些同时间或节日波动相关、某些同大盘数据波动相关。同时要了解历史上相关波动幅度。以及用户潜力,比如浏览器搜索用户占比可以提升到40%以上。
如果有工程资源,最好能针对某些重要的改进提前进行抽样测试,从而推断全局后的数据变化情况。比如我们建立起版本灰度机制,一方面更好的发现bug,另一方面能及时评估版本全量后的数据变化,从而判断是否对当前版本进行全量。
(ps 这个地方的工作成果太过涉密,就不上示例了。)
________________________
结尾的注意事项:
1)数据不能代表一切,不能盲目的相信数据,但是更不能的是不看数据、不懂数据。
2)很难追求数据的绝对准确,而要追求数据的相对准确。
3)不要感觉数据有问题就冲到工程师面前,要切实分析出问题。秉持谁提议谁举证的原则。
4) 一定要弄清楚指标的定义,不能似是而非。
5)数据分析是一个严谨的逻辑过程,要保证推断的客观性,不能为了证明某结论而证明。
6)数据分析是随着产品发展而不断细化和迭代的,不要在开始阶段就投入大量资源进行数据分析。
随着项目的日益发展,数据分析也会更加精细和复杂,因此慢慢的出现了数据产品经理,对于数据产品经理还是应该学些基础的Python、SQL、VBA技能。
说些题外话,数据是简单、直接的,也是饱受争议的。
但当真正看到庞大的数据所表现出的特征后,你会震撼于从未感知过的世界的另一面。
无论如何必须要感激当前的科技进步能够让我们有机会直面数以亿计的人产生的成百上千亿的行为。就像一粒水终于可以看到整个大洋的流动,就像上帝打开一扇窗让我们从他的角度俯视大地。
你会真正纠结于是否要为满足几千万人的需求放弃其他几十万人。这不再是课本上的哲学命题。
你会兴奋于几千万人按照你的设定向预期的结果发展。这有一种替上帝做决定的成就感。
你会深思低俗文章的点击率难以让正规文章望其项背。必须一遍遍权衡其中的利弊做出让步。
最后再说一点互联网圈外人特别关心的数据隐私的事情,拥有这些大数据的公司不会八卦你到底是谁干过啥。它们只关心人群的趋势和方向,从而怎么更好的服务用户产生价值。
只有政府、变态和骗子才会关心和利用你个人的信息。而且骗子会通过各种渠道手段获取你的信息,所以对待自己身份信息和财务密码信息一定要谨慎。
一、假设导向(Hypothesis Driven)
之前做战略咨询,非常强调假设导向(Hypothesis Driven),这是识别一个好顾问的重要维度。差顾问往往是穷举法和做无用功(Boil the ocean),搞出一堆堆价值不高的数据和PPT,以一副卖疲劳和晒苦劳的姿势博取客户的同情,然而整个团队却被自己搞得疲惫不堪,客户傲娇得也不买单。
换到产品经理这个职位上,道理相通。产品经理很容易为了数据而数据,亦或是为了应对老板的需求,各种埋点各种需求,大量且高频度得要求程序员配合提取及处理数据,然而数据是否有卵用,并没人知道。所以,像题主这样的程序员有如此困惑,并不奇怪。好的产品经理在数据分析上不应该盲目,在产品发布之前就应该思考清楚需要验证的假设,功能或者交互或者变现,比如:左右划的新交互方式,是否增加了人均PV却增加了用户误操作带来的体验下降;新功能是否提升了留存率等等。然后设计数据的收集方式以及证明或证伪的方法。类似于高手下棋,总是要多想几步。
而最差的方式就是盲目打扰程序员而不断抽取数据,发现数据并没有卵用,又提取更多的数据,最终形成人仰马翻而产品并无进展的恶性循环。
二、提高数据处理能力
编程的产品经理非常少见,哪怕是用SQL。于是就大大限制了产品经理的数据处理和分析能力,和提高了其与程序员的耦合度,即使有了原始数据,产品经理还是需要程序员去清理数据和预分析数据。在做投行、行研、咨询等金融岗位,有没有什么好用的找数据技巧呢? – 何明科的回答和Excel 到底有多厉害? – 何明科的回答两个回答中,很好地诠释了有一定编程能力的产品经理,可以如何提高效率和提高数据处理能力。因此建议产品经理学会基础的SQL、Python、VBA及高阶的Excel技能,尽量实现小闭环,有活儿自己干,有数据自己分析。
当然程序员也不是只能坐以待毙。在数据分析中,从日志到干净的数据,从海量数据到产品经理能分析的数据,往往需要程序员深度接入开发和整理。这往往是程序员最不愿意介入的活儿,而产品经理又无能为力。于是最终的结果,就是一堆堆的日志文件堆在那里无人搭理。幸好后来出现了Splunk等工具,不仅能够轻易得利用其强大的数据库引擎将纷繁芜杂的日志文件进行索引和存储以及数据提取,为程序员省去不少功夫。
而且还提供简单的类似于JSON的查询语句,实现基本实时的数据收集和分析,让产品经理可以直接操作和分析日志文件,对功能和用户行为直接进行分析。
三、善用系统
非常同意@丁士正 所举出的例子,真正的数据分析是融入在系统中的,即系统性得使用AB Testing,在产品上线之前就设计和开发好数据监测、评估及反馈的机制,根据上线后的实际情况,进行实时的分析、调整和优化。我与小伙伴们就曾经用Splunk开发过类似的系统,大致步骤如下:
同时发布n个版本,或者版本上含有A/B页面
上线后根据Splunk返回实时的数据及分析结果
根据数据及分析结果,选择最优的版本或者页面作为正式版固定并上线
整个过程看不到数据分析或者提取数据,然而处处是数据,数据分析及以分析结果作为指导来改善产品,已经完全融入到产品之中。
两年之前,那时我刚开始做产品,当需要做数据分析时,我总是一头雾水,完全不知道该如何下手。我想做好,我真的非常想做好,可我却真的不知道该怎么做。经过这两年大大小小项目的不断锤炼,摸索、尝试、碰壁、复盘、再尝试,终于能够根据数据分析的结果,做出成功的产品设计,最终呈现出良好的结果。现在呢,每天到公司第一件事就是看数据,对昨天各平台的流量、各页面的转化、各品类各入口各目的地的销量,心中有数。从数据中发现问题,进行进一步的分析,及时调整优化。
我在网上曾不断的找有关“数据如何指导产品设计”的文章,一直没有找到有含金量的东西,所以,我决定自己写一篇,把自己认为有价值且能迅速用于实战的东西分享出来:
以“手机淘宝”App为例,打开淘宝App,选择阿里旅行:
由于我是一直做旅游产品的缘故,所以还是拿旅游App做为案例。通过对这个App的观察,可以把影响数据的因素概括如下:
好了,先说明一下:
1、数据分析的过程:
2、先把因素罗列出来是为了方便大家理解。在实际工作中,遇到一个数据呈现出来的问题,你自然而然就能联想到由哪些因素造成的,然后去查询分析相应的数据,找出具体原因。
3、电商类产品普遍以GMV为目标(不要说为什么不是用户体验,电商类和其他类产品在这点真的很不一样)。
4、大中型公司普遍都有自己的数据平台及相应的数据团队。每天早上看数据也是产品经理的日常工作。小型公司的话,建议自学SQL,自己在数据库中查询数据。其实我在去哪儿网也自学了SQL,因为这样更方便。先在我们的数据平台上看数据,发现异常,就自己在SQL里查询更详细的数据。不用去麻烦数据团队,因为大家手里的活都挺多的,自己查的话效率还更高。
5、日常需要分析的数据纬度有:页面转化;商户/商品;用户纬度;市场环境;渠道推广;客诉纬度;财务纬度
6、数据分析的利器是Execl,重点要学会用“数据透视图”,这会对你的工作帮助极大。(以后我会专门写一个关于数据透视图的文章)
7、推荐看《谁说菜鸟不会数据分析》,这算是数据分析的入门书了。
案例解析
案例1——产品第一版本上线后,发现首页向下转化率极低,才25%。需要紧急提高首页的转化率
思考过程:先查询首页每一个入口的向下转化率。发现数据集中在首页的“搜索”模块,而其他模块,比如“热销低价商品推荐”,点击率都极低。基于对我们产品业务的了解来进行分析,我们产品属于旅游环节中的中下流。用户到我们的界面上来时,基本已选好目的地了。那么他们主要就使用搜索来查询他们想要的目的地,然后再筛选他们感兴趣的旅游商品。而“热销低价产品推荐”由于只命中了单一目的地,且商品不一定是用户感兴趣的,它击中用户需求的几率较低,所以点击率极低。
解决方案:1)、在首页增加了更多热门目的地的入口,并且设计了一个成本极低“运营管理后台”,对目的地进行人工运营配置。2)、把商品分类提到首页,方便用户选择目的地时同时选择商品类型,进行更精准的搜索,同时让用户在首页了解到我们有哪些类型的商品。3)、删除了“热销低价商品推荐”模块,增加了“主题游”作为尝试
后评估:最终首页向下转化率提高至68%。措施1提高了约25%的转化率(每两周查询一遍所有目的地的点击数据,把点击率低的目的地更换为近期较热门的目的,反复替换,最终达到较高的点击率为止。);措施2提高了约10%的转化率;措施3提高了约8%的转化率
案例2——发现某一个渠道带来的流量的转化率极高,从进来的流量到下单付款,转化率能有约10%,而我们一般的转化率才2%~3%。
思考过程:分析这个渠道的流量质量,发现与其他渠道差别不大,都是对旅游有需求的普通用户,且各自的商品类型都差别不大。然后横向对比所有渠道的流量、转化率、设计、所在位置、用户在此处的需求,发现主要原因是这个渠道入口的“设计”与别的渠道不同,这一种设计形式带来的转化率要明显高于其他的设计形式。
解决方案:根据实际情况,把这种设计移植到其他渠道
后评估:此平台(web端)的订单提高了约15%
案例3——在参与一个独立App时,发现一个功能的入口点击率很高(90%),但使用率不高(60%)
思考过程:查询与之相关的数据,从入口进来的用户流量都分布在什么位置,然后发现用户进来后都集中在新手引导上,反复的左右翻看新手引导(滑动操作的数据是UV的4倍),且停留时长能有20多秒,发现用户的注意力都集中到了新手引导上面。
解决方案:在新手引导的最后一页,增加一个“使用功能”的按钮
后评估:此功能的使用率从60%提高到了80%
案例4——公司攻略部门愿意与我们导流量的合作
思考过程:攻略每天有10万多UV,若能给我们的商品导流量,一定会促进我们商品的销售。我们平台(Web端)每天才6000的UV,若能有10万级的流量入口,对我们商品销售的帮助一定是极大的。然后考虑到数据越是在下游,就越精准,转化率也就越高。
解决方案:在搜索结果页、攻略详情页,增加相应目的地的我们商品的入口。推荐每个目的地销量最好的商品。保证用户在攻略的界面看到的会是他们需要的商品。
后评估:上线一周后评估,一周仅成一个订单,远远没有达到预期的一天至少5个订单。后来经过与攻略产品经理的沟通,分析,发现主要原因是攻略的用户主要是出行前15天至两个月的用户,属于旅行前期的规划阶段,看攻略是为了选择去哪里玩,而去哪儿玩都没有确定,怎么会在此时就购买旅游商品呢?而我们的用户普遍集中在出行前的三天至七天,是用户确定了目的地、机票酒店都已经订好了。才会在我们这里提前3~7天预订出境WiFi、包车、导游翻译…
最后,数据分析是需要不断的实践总结,成功都是靠失败的经验教训堆积而成的。在这个过程中,除了学习产品设计、数据分析的方法以外,更重要的是:了解业务,沉浸到业务当中去,成为自己业务的骨灰用户,知晓业务的方方面面,产品经理一定要做到比团队中的任何人都更了解业务!这样才能够做出成功的产品设计。
我的初衷是希望你看了之后能够有所收获,能够对你的工作和专业水平的提高,有那怕一点点的帮助。不然我就白写了 。
1,OkCupid很依赖数据,这些都是做A/Btest的结果
2,数据显示,如果在首页放置最近来访,这个功能会和背景融为一体,用户会更少的点击,而且进入个人资料后,发消息也少了。反而,将入口藏起来,用户会更严肃的对待这个功能,点击率和消息率都增加了。
我又追问了2个问题,这哥们的答案能看出他们做事的方式:
Q:怎么证明这不是一个短期效应,比如用户对改变敏感,时间长了这个行为又变回去了。
A:测试会持续足够长的时间。同时,对新用户进行测试,这部分用户没见过之前的形式。这两个措施保证了可以提高测试的可信度。
Q:最近来访看起来是个常规功能,而且看上去很不错,怎么想到对这个功能进行A/B test。
A:我们的原则是怀疑一切,有些功能看起来不错,但是不是说他不能做的更好。所以,我们经常性的对一些功能进行测试,确保他们是不是真的最好。
最后介绍下OkCupid这个交友网站,创始人是哈佛几个学数学的人,通过各种测试帮你找到合适的人。
有意义的数据极其有必要,这里的有意义指a.精度有意义,精度太高很不必要代价太大精度低了那和没有数据也是一样。b 指向有意义,这个就需要丰富的经验来把握,哪里去获得数据?和谁去比较?能说明什么?这一系列问题能把握住才能称为数据指向有意义。
2、不赞成先有结论再去用数据求证。提出这中说法的人基本上都是用来凑数据的。稍微了解统计思想的就知道,统计的证明是建立在拒绝基础上的,而不是承认假设。不知道有多少人想过没有这是为什么?不展开了。
3、PM的黄埔军校是快消行业(鄙人是搞通讯的,水平差很多),快消行业不用数据说话那简直。。。这里肯定有人说我是搞IT的通讯的B2B的,和快消差很多,我们行业关注的是决策链等等。我要说这都是扯淡,举个例子微软现在的CEO原来就是在宝洁干PM的,所以洗发水和软件本质没啥区别
4、在中国的传统里理数被认为是奇技淫巧之类因此是欠缺的,所以中国人的严谨性群体缺失我敢说坚持数据无用论中90%以上是懒得去搞数据,或者看见的垃圾数据太多已经失去对数据的信赖,但我相信一旦一份逻辑严密数据严谨的数据放在你面前你一定无法忽视。
5、人的辨别能力是有限的,很多数据工作是为了研展你的辩识能力,比如数据挖掘。一堆杂乱的数据对你是毫无用处的,但通过处理就可能告诉你很多你忽略的信息。因此数据挖掘我认为是PM必须具备的职业技能。
补充6、最近看到了一篇讲数据统计方法的文章全文如下,很纠结转不转有点长,但想想来知乎的应该都不怕长的,就转了吧。如果你能搞明白“因果网络”这个关键点那么数据分析就有极有意义的,如果你搞岔了那么数据分析会误入歧途。当然任何项目的展开都受制于资源,但这个思维方式在数据分析前必须具备的
在去年10月份的数学文化节期间,我去听了好几次讲座,其中有一些讲的相当精彩。时间过得好快,转眼间又是一年了,如果不是Wind牛发短信问我去不去听讲座,我估计今年数学文化节过了都还想不起这档子事。于是和Wind牛跑去二教309,听了一场叫做《从数据中挖掘因果关系》的讲座。这个题目是很有趣的:数据本身并不说谎,难就难在我们如何从中挖掘出正确的信息。当我们讨论数据时,我们讲的最多的是数据的相关性,而我们希望得到的则是事件之间的因果联系;但事实往往是复杂的,统计数据有相关性并不意味着两个事件具有因果联系,而具有因果联系的两件事从统计数据上看有时也并不相关。
对于前者,最简单的例子就是公鸡打鸣与太阳升起:公鸡打鸣与太阳升起总是同时发生,但这并不表示把全世界所有的公鸡都杀光了后太阳就升不起来了。统计发现,手指头越黄的人,得肺癌的比例越大。但事实上,手指的颜色和得肺癌的几率之间显然没有直接的因果联系。那么为什么统计数据会显示出相关性呢?这是因为手指黄和肺癌都是由吸烟造成的,由此造成了这两者之间产生了虚假的相关性。我们还可以质疑:根据同样的道理,我们又如何能从统计数据中得出吸烟会致癌的结论呢?要想知道吸烟与癌症之间究竟是否有因果联系的话,方法很简单:找一群人随机分成两组,规定一组抽烟一组不抽烟,过它十几年再把这一拨人找回来,数一数看是不是抽烟的那一组人患肺癌的更多一些。这个实验方法本身是无可挑剔的,但它太不道德了,因此我们只能考虑用自然观察法:选择一些本来都不吸烟的健康人进行跟踪观察,然后呢,过段时间这一拨人里总会出现一些失意了堕落了犯上烟瘾的人,于是随着时间的流逝这帮人自然而然地分成了可供统计观察的两组人。注意,这里“是否吸烟”这一变量并不是随机化得来的,它并没有经过人为的干预,而是自然区分出来的。这是一个致命的缺陷!统计结果表明,犯上烟瘾的那些人得肺癌的几率远远高于其他人。这真的能够说明吸烟致癌吗?仔细想想你会发现这当然不能!原因恰似黄手指与肺癌一例:完全有可能是某个第三方变量同时对“爱吸烟”和“患肺癌”产生影响。1957年,Fisher提出了两个备选理论:癌症引起吸烟(烟瘾是癌症早期的一个症状),或者存在某种基因能够同时引起癌症和烟瘾。
有虚假的相关性数据,就有虚假的独立性数据。“健康工人效应”是一个特别有意思的理论。调查发现,在铀矿工作的工人居然与其它人的寿命一样长(有时甚至更长)。这表明在铀矿工作对身体无害么?当然不是!其实,是因为去铀矿工作的工人都是经过精心挑选的身强体壮的人,他们的寿命本来就该长一些,正是因为去了铀矿工作才把他们的寿命拉低到了平均水平。这一有趣的细节导致了数据的伪独立性。类似地,有数据表明打太极拳的人和不打太极拳的人平均寿命相同。事实上呢,太极拳确实可以强身健体、延长寿命,但打太极拳的人往往是体弱多病的人,这一事实也给统计数据带来了虚假的独立性。
现实中的统计数据往往会表现出一些更加诡异复杂的反常现象。Simpson悖论是统计学中最有名的悖论:各个局部表现都很好,合起来一看反而更差。统计学在药物实验中的应用相当广泛,每次推出一种新药,我们都需要非常谨慎地进行临床测试。但有时候,药物实验的结果会让人匪夷所思。假设现在我们有一种可以代替安慰剂的新药。统计数据表明,这种新药的效果并不比安慰剂好:
有效 无效 总人数
新药 80 120 200
安慰剂 100 100 200
简单算算就能看出,新药只对40%的人有效,而安慰剂则对50%的人有效。新药按理说应该更好啊,那问题出在哪里呢?是否是因为这种新药对某一类人有副作用?于是研究人员把性别因素考虑进来,将男女分开来统计:
男性有效 男性无效 女性有效 女性无效
新药 35 15 45 105
安慰剂 90 60 10 40
大家不妨实际计算一下:对于男性来说,新药对高达70%的人都有效,而安慰剂则只对60%的人有效;对于女性来说,新药对30%的人都有效,而安慰剂则只对20%的人有效。滑稽的一幕出现了:我们惊奇地发现,新药对男性更加有效,对女性也更加有效,但对整个人类则无效!
这种怪异的事屡见不鲜。前几个月一个高中的师弟给我发短信,给了我两个大学的名字,问该填报哪个好。鉴于我目前的悲惨境遇,我非常认真地帮他查了一下两所大学的男女比例,并且很细致地将表格精确到了各个院系。然后呢,怪事出现了:A学校的每个院系的女生比例都比B学校的同院系要高,但合起来一看就比B学校的低。当然,进错了大学找不到MM是小事,大不了像我一样20岁了连初吻都还没有,拿出去丢丢人让别人笑话笑话就完事了;但医药研究需要的是极其精细的统计实验,稍微出点差错的话害死的可就不是一两个人了。上面的例子再次告诉我们,统计实验的“随机干预”有多么重要。从上面的数据里我们直接看到,这个实验的操作本身就有问题:新药几乎全是女的在用,男的则大都在用安慰剂。被试者的分组根本没有实现完全的随机化,这才导致了如此混乱的统计结果;不难设想,如果每种药物的使用者都是男女各占一半,上述的悖论也就不会产生了。当然,研究人员也不都是傻子,这么重大的失误一般还是不会发生的。问题很可能出在一些没人注意到的小细节上。比如说,实验的时候用粉色的瓶子装新药,用蓝色的瓶子装安慰剂,然后让被试人从中随机选一个来用。结果呢,MM喜欢粉色,选的都是新药;男的呢则大多选择了蓝瓶子,用的都是安慰剂。最后,新药和安慰剂都发完了,因此直到结果出来之前没有人会注意到这个微小的性别差异所带来的统计失误。
当然,上面这个药物实验的例子并不是真实的,一看就知道那个数据是凑出来方便大家计算的。不过,永远不要以为这种戏剧性的事件不会发生。一本叫做《致命的药物》的书详细披露了20世纪美国的一次重大药害事件,其原因可以归结到药物实验上去。药物实验的时间是有限的,如果用死亡率作为唯一标准的话,估计每个药物实验都得观察个十几二十年才行。为此,科学家们想到了利用各种“中间变量”来替代死亡率这一指标。
统计数据表明,抑制心律失常能够减少死亡率,而当时的药物实验明确表明该药物能有效地抑制心律失常。这些药物得到了FDA批准并成功上市,当时每年有20多万人服用这些药品,超过5万人因为服用这种药物而死亡。这个药物实验中蕴含的逻辑推理看似无懈可击,到底什么地方出错了呢?人们推测很可能是某个第三方变量的问题。我们不妨称这种情况为“中间变量悖论”。
抑制心律失常 死亡率
对照组 实验组 未抑制 抑制
无缺陷(70%) 0.02 0.99 0.02 0.01
有缺陷(30%) 0.98 0.79 1.00 0.02
—————————————————
期望值 0.38 0.93 0.314 0.013
让我们假设存在一个第三方因素,例如基因问题。我们不妨暂时管它叫做“先天缺陷”。从上表中我们可以看到,实验组(使用新药的人)中有93%的人成功抑制了心律失常,远远高于什么都不做的人(38%);同时,心律失常确实会导致31.4%的人心脏骤停而死,但抑制心律失常则把这个比率下降到1.3%。这似乎确实可以说明,新药能够有效降低死亡率。但引入第三方因素后,情况有了很大的改变。有先天缺陷的人,心律往往很正常,恐怖的是一旦无法抑制心律失常则必死无疑。真正要命的就是,这种药物会使那些有先天缺陷的人心律变得更差。在没有缺陷的那70%的人当中,用药后有99%的人能抑制心律失常,而这里面只有1%的人会死;同时,另外1%的人则无法抑制,其中又有2%的人会死亡;有先天缺陷的那30%的人就惨了,用药后抑制住心律失常的人反而下降到79%,其中有2%的人会死,而对于另外21%的人则必死无疑。计算表明,使用药物后死亡的人数竟然三倍于不使用药物时的情况!
(0.7*0.99*0.01 + 0.7*0.01*0.02 + 0.3*0.79*0.02 + 0.3*0.21*1.00)
/ (0.7*0.02*0.01 + 0.7*0.98*0.02 + 0.3*0.98*0.02 + 0.3*0.02*1.00)
≈ 2.91
可以看到,从数据中挖掘因果关系并不是那么简单的事。如何确定影响目标的事件,如何从数据中获取相关关系,怎样用最少的实验次数(控制最少的变量)为因果关系定向,这都是建立一个因果网络所需要考虑的因素。因果网络是一个很复杂的学问,前天的讲座里还提到了很多确定因果网络的算法,在这里我就不再多说了。
数学上,关于“风险性决策的最优方案”模型的逻辑用来说明这个问题会比较简单。
(一)样本的采集与处理。
第一类,采集的样本量的问题。
主要是样本量不够全面(包括样本数量不够大以及样本不具备足够的代表性),导致数据不可信。这种情况,我把其分为两种相对“极端”的理论:
其一是黑天鹅理论,其理论的基本依据即是:我们所有的结论都是基于先前已有的经验,这样很容易让人忽略之前没有出现过的现象。即无论样本量多大,考虑到时间空间的无限性,样本量总归是相对不够的。这个理论的例子可以用哲学上比较有名的那句话:“你不知道明天太阳是否还会照常升起”来加以说明。
另外一种,我称之为伯格森理论,他认为科学对生命的描述是分裂的,比如我们会描述性格、描述外形、描述智商,当时一切的描述都是片面的属性,而人是整体的,所以所有对生命的描述都是旁观的,不全面不准确的。另外,生命是变化的,而理性的描述是静止的,所以生命无法描述。
出生于尼日利亚的小说家Chimamanda Adichie在TED上有一个讲座,题目就是《单一故事的危害性》,她讲到自己从小读国外的书籍,发现里面的主人公都是白皮肤蓝眼睛,以至于她一度认为只有描写外国人以及那些她不曾亲身体会的生活才算得上是写作,直到她接触到了非洲文学,才发现原来像她一样拥有卷发的巧克力肤色的人物也能成为小说中的存在
她刚去到美国的时候,她的室友惊讶于她标准的英文发音,却不知道尼日利亚的官方语言就是英语;她的室友想听她们的部落音乐,所以当她拿出流行歌手CD的时候对方感到无比震惊;她的导师说她写的论文没有非洲的真实性,仅仅因为里面的人物没有面临饥荒,而且还会开车。
正如她所说的那样,单一故事通常不是不对,而是不全面,因为它让单一的故事代表了一群人。同样,数据采集也面临这样的问题,采集的数据通常不是不对,而是不全面。而人类本能地过多看中容易获取的数字,而低估难以获取数据的价值,也通常会造成样本量不全面的问题。
第二类是数据预处理的问题:
1、简化或者扭曲某系相关因素。
关于简化,最常见的经济学上的“不考虑交易成本的完全竞争理论”;而关于扭曲,最常见的就是将“相关性”与“因果关系”混淆,得出类似"拥有自己独立办公大楼的公司更容易成功"的结论。
2、相关因素难以量化的问题。
比如一个公司“创新能力”“人力资源管理”对公司业绩的贡献度问题。
(二)模型的构建与评估
第一步:考虑一个涉及风险性决策的问题时,我们首先需要一个效益函数,简化起见,我们用线性的函数来大致的描述:
这就引出3个重要的内容:
1、我们的目标Y是什么
2、影响目标Y的各种因素是什么
3、各类因素对Y的影响权重是多少
在进行到这一步的时候,人们如果仅凭经验,就会有很多人犯错了:
1、他们只看到了某一个影响因素,而忽略了其它因素的影响。(人类总是会有意无意忽略一些影响因素,而刻意留下对自己观点有利的因素)
2、他们给予某一个影响因素过多的权重。(人类的记忆倾向于给最近发生的事情、印象最深刻的事情赋予过大的权重,上面有人提到的给“飞机机舱加固”的案例其实就是权重问题)
3、目标Y的确认也是会存在出错的可能,因为现实生活中,我们的目标通常不是唯一的,比如把“用户体验”当做目标的时候,通常还需要考虑我们的预期盈利情况、市场定位的情况。这一类的错误非常常见,只见树木不见森林。
具体到您这个例子中,您提到的“对于某项目,PM凭经验可说4级以上的用户可xxx,这时候会有人跳出来问,为什么不是3级、5级?拿出数据来。 实际上真看了数据又能看出什么呢?看完后无非是再次验证了4级。”
如果您不“全面”地看数据,那么您就可能只去寻找对自己有利的数据,或者过多看重自己的偏好数据,以及可能忽视了与其他目标存在冲突的情况,也就是上述的3个错误。
进一步的,通过数据分析,即便与您最初预想结果一致,您也会更加清楚地明白每一个影响因素是什么,每一个影响因素的实际贡献是多少,这样的过程才能让您的逻辑更加无懈可击。
第二步:考虑风险因素,也就是概率问题。
为了避免引入过多的数学公式,在此不展开概率矩阵,大致说明一下:
我们可以把:看成一种概率下的函数;同样的,在其它的概率条件下还存在着很多的的函数。
进行到这一步的时候,又会有很多人不经意间犯错:
1、人们通常会选择性地只看到对自己有利的概率事件,忽略对自己不利的概率事件。
具体到您这个案例上,您提到的“ 再比如有的功能是肯定要上的,但领导会说,调研一下有没有必要,评估数据搞半个月,评估的结果是:可做。 实际上,该功能整个平台的用户都希望做,是没有必要耗费人力评估的,只要做就可以了。”
那么,您非常可能就犯了上面的错误,忽略了增加该功能所可能带来的不利的情况。而要客观评估这种情况,就需要考虑到风险因素。
进一步的,通过数据分析,即便与您最初预想结果一致,您也会更加清楚地知道改动之后所面对的最大的损失会是如何,令您的决策更加有备无患。
第三步:考虑可执行性。
这一问题在简化的数学模型上通常不会被提到,但是在现实世界中,我们需要从技术上、经济上、心理上三个层面的数据支撑,确保项目的可执行性。
回到效益函数上来:
假设我们确定了需要调整因素,那么我们需要针对因素构建一个模型,确保因素在技术上、经济上、消费者心理上是可以被接受的。
您提到的“ 再比如有的功能是肯定要上的,但领导会说,调研一下有没有必要,评估数据搞半个月,评估的结果是:可做。 实际上,该功能整个平台的用户都希望做,是没有必要耗费人力评估的,只要做就可以了。”
那么实际上增加这个功能,也同样需要进行这样的评估,确保其起到的积极作用大于消极作用;带来的收益要高于其风险;所耗费的精力时间是值得优先处理的。
案例:
最近在指导一个电商团队做推广,其运营的成员在极力推广自己两款的独创产品,原因是:
1、这两款产品是原创的,本身具备一定吸引力,转化率相对高;
2、这两款产品是原创的,可以推动消费者对店铺的好感度;
3、这两款产品库存深,需要清理。
但如果电商的运营成员分析一下产品的利润率是否足以支撑产品的推广费用的话,就会发现整个ROI做下来不到0.3(投出1块钱,收入3毛钱),其利润率决定了这两款产品不适合做这种成本的推广。
所以,有些事情看起来是非做不可,在某些角度看也是可行的,但通过数据分析,我们可以更本质地、更全面地评估事情的可执行性。
最后,数据分析还有一点好处,那就是让非专业的人士,也可以直观地明白事情是否可行,毕竟“经验”的东西往往难以用来说服老板。
一、假设导向(Hypothesis Driven)
之前做战略咨询,非常强调假设导向(Hypothesis Driven),这是识别一个好顾问的重要维度。差顾问往往是穷举法和做无用功(Boil the ocean),搞出一堆堆价值不高的数据和PPT,以一副卖疲劳和晒苦劳的姿势博取客户的同情,然而整个团队却被自己搞得疲惫不堪,客户傲娇得也不买单。
换到产品经理这个职位上,道理相通。产品经理很容易为了数据而数据,亦或是为了应对老板的需求,各种埋点各种需求,大量且高频度得要求程序员配合提取及处理数据,然而数据是否有卵用,并没人知道。所以,像题主这样的程序员有如此困惑,并不奇怪。好的产品经理在数据分析上不应该盲目,在产品发布之前就应该思考清楚需要验证的假设,功能或者交互或者变现,比如:左右划的新交互方式,是否增加了人均PV却增加了用户误操作带来的体验下降;新功能是否提升了留存率等等。然后设计数据的收集方式以及证明或证伪的方法。类似于高手下棋,总是要多想几步。
而最差的方式就是盲目打扰程序员而不断抽取数据,发现数据并没有卵用,又提取更多的数据,最终形成人仰马翻而产品并无进展的恶性循环。
二、提高数据处理能力
编程的产品经理非常少见,哪怕是用SQL。于是就大大限制了产品经理的数据处理和分析能力,和提高了其与程序员的耦合度,即使有了原始数据,产品经理还是需要程序员去清理数据和预分析数据。在做投行、行研、咨询等金融岗位,有没有什么好用的找数据技巧呢? – 何明科的回答和Excel 到底有多厉害? – 何明科的回答两个回答中,很好地诠释了有一定编程能力的产品经理,可以如何提高效率和提高数据处理能力。因此建议产品经理学会基础的SQL、Python、VBA及高阶的Excel技能,尽量实现小闭环,有活儿自己干,有数据自己分析。
当然程序员也不是只能坐以待毙。在数据分析中,从日志到干净的数据,从海量数据到产品经理能分析的数据,往往需要程序员深度接入开发和整理。这往往是程序员最不愿意介入的活儿,而产品经理又无能为力。于是最终的结果,就是一堆堆的日志文件堆在那里无人搭理。幸好后来出现了Splunk等工具,不仅能够轻易得利用其强大的数据库引擎将纷繁芜杂的日志文件进行索引和存储以及数据提取,为程序员省去不少功夫。
而且还提供简单的类似于JSON的查询语句,实现基本实时的数据收集和分析,让产品经理可以直接操作和分析日志文件,对功能和用户行为直接进行分析。
三、善用系统
非常同意@丁士正 所举出的例子,真正的数据分析是融入在系统中的,即系统性得使用AB Testing,在产品上线之前就设计和开发好数据监测、评估及反馈的机制,根据上线后的实际情况,进行实时的分析、调整和优化。我与小伙伴们就曾经用Splunk开发过类似的系统,大致步骤如下:
同时发布n个版本,或者版本上含有A/B页面
上线后根据Splunk返回实时的数据及分析结果
根据数据及分析结果,选择最优的版本或者页面作为正式版固定并上线
整个过程看不到数据分析或者提取数据,然而处处是数据,数据分析及以分析结果作为指导来改善产品,已经完全融入到产品之中。
两年之前,那时我刚开始做产品,当需要做数据分析时,我总是一头雾水,完全不知道该如何下手。我想做好,我真的非常想做好,可我却真的不知道该怎么做。经过这两年大大小小项目的不断锤炼,摸索、尝试、碰壁、复盘、再尝试,终于能够根据数据分析的结果,做出成功的产品设计,最终呈现出良好的结果。现在呢,每天到公司第一件事就是看数据,对昨天各平台的流量、各页面的转化、各品类各入口各目的地的销量,心中有数。从数据中发现问题,进行进一步的分析,及时调整优化。
我在网上曾不断的找有关“数据如何指导产品设计”的文章,一直没有找到有含金量的东西,所以,我决定自己写一篇,把自己认为有价值且能迅速用于实战的东西分享出来:
以“手机淘宝”App为例,打开淘宝App,选择阿里旅行:
由于我是一直做旅游产品的缘故,所以还是拿旅游App做为案例。通过对这个App的观察,可以把影响数据的因素概括如下:
好了,先说明一下:
1、数据分析的过程:
2、先把因素罗列出来是为了方便大家理解。在实际工作中,遇到一个数据呈现出来的问题,你自然而然就能联想到由哪些因素造成的,然后去查询分析相应的数据,找出具体原因。
3、电商类产品普遍以GMV为目标(不要说为什么不是用户体验,电商类和其他类产品在这点真的很不一样)。
4、大中型公司普遍都有自己的数据平台及相应的数据团队。每天早上看数据也是产品经理的日常工作。小型公司的话,建议自学SQL,自己在数据库中查询数据。其实我在去哪儿网也自学了SQL,因为这样更方便。先在我们的数据平台上看数据,发现异常,就自己在SQL里查询更详细的数据。不用去麻烦数据团队,因为大家手里的活都挺多的,自己查的话效率还更高。
5、日常需要分析的数据纬度有:页面转化;商户/商品;用户纬度;市场环境;渠道推广;客诉纬度;财务纬度
6、数据分析的利器是Execl,重点要学会用“数据透视图”,这会对你的工作帮助极大。(以后我会专门写一个关于数据透视图的文章)
7、推荐看《谁说菜鸟不会数据分析》,这算是数据分析的入门书了。
案例解析
案例1——产品第一版本上线后,发现首页向下转化率极低,才25%。需要紧急提高首页的转化率
思考过程:先查询首页每一个入口的向下转化率。发现数据集中在首页的“搜索”模块,而其他模块,比如“热销低价商品推荐”,点击率都极低。基于对我们产品业务的了解来进行分析,我们产品属于旅游环节中的中下流。用户到我们的界面上来时,基本已选好目的地了。那么他们主要就使用搜索来查询他们想要的目的地,然后再筛选他们感兴趣的旅游商品。而“热销低价产品推荐”由于只命中了单一目的地,且商品不一定是用户感兴趣的,它击中用户需求的几率较低,所以点击率极低。
解决方案:1)、在首页增加了更多热门目的地的入口,并且设计了一个成本极低“运营管理后台”,对目的地进行人工运营配置。2)、把商品分类提到首页,方便用户选择目的地时同时选择商品类型,进行更精准的搜索,同时让用户在首页了解到我们有哪些类型的商品。3)、删除了“热销低价商品推荐”模块,增加了“主题游”作为尝试
后评估:最终首页向下转化率提高至68%。措施1提高了约25%的转化率(每两周查询一遍所有目的地的点击数据,把点击率低的目的地更换为近期较热门的目的,反复替换,最终达到较高的点击率为止。);措施2提高了约10%的转化率;措施3提高了约8%的转化率
案例2——发现某一个渠道带来的流量的转化率极高,从进来的流量到下单付款,转化率能有约10%,而我们一般的转化率才2%~3%。
思考过程:分析这个渠道的流量质量,发现与其他渠道差别不大,都是对旅游有需求的普通用户,且各自的商品类型都差别不大。然后横向对比所有渠道的流量、转化率、设计、所在位置、用户在此处的需求,发现主要原因是这个渠道入口的“设计”与别的渠道不同,这一种设计形式带来的转化率要明显高于其他的设计形式。
解决方案:根据实际情况,把这种设计移植到其他渠道
后评估:此平台(web端)的订单提高了约15%
案例3——在参与一个独立App时,发现一个功能的入口点击率很高(90%),但使用率不高(60%)
思考过程:查询与之相关的数据,从入口进来的用户流量都分布在什么位置,然后发现用户进来后都集中在新手引导上,反复的左右翻看新手引导(滑动操作的数据是UV的4倍),且停留时长能有20多秒,发现用户的注意力都集中到了新手引导上面。
解决方案:在新手引导的最后一页,增加一个“使用功能”的按钮
后评估:此功能的使用率从60%提高到了80%
案例4——公司攻略部门愿意与我们导流量的合作
思考过程:攻略每天有10万多UV,若能给我们的商品导流量,一定会促进我们商品的销售。我们平台(Web端)每天才6000的UV,若能有10万级的流量入口,对我们商品销售的帮助一定是极大的。然后考虑到数据越是在下游,就越精准,转化率也就越高。
解决方案:在搜索结果页、攻略详情页,增加相应目的地的我们商品的入口。推荐每个目的地销量最好的商品。保证用户在攻略的界面看到的会是他们需要的商品。
后评估:上线一周后评估,一周仅成一个订单,远远没有达到预期的一天至少5个订单。后来经过与攻略产品经理的沟通,分析,发现主要原因是攻略的用户主要是出行前15天至两个月的用户,属于旅行前期的规划阶段,看攻略是为了选择去哪里玩,而去哪儿玩都没有确定,怎么会在此时就购买旅游商品呢?而我们的用户普遍集中在出行前的三天至七天,是用户确定了目的地、机票酒店都已经订好了。才会在我们这里提前3~7天预订出境WiFi、包车、导游翻译…
最后,数据分析是需要不断的实践总结,成功都是靠失败的经验教训堆积而成的。在这个过程中,除了学习产品设计、数据分析的方法以外,更重要的是:了解业务,沉浸到业务当中去,成为自己业务的骨灰用户,知晓业务的方方面面,产品经理一定要做到比团队中的任何人都更了解业务!这样才能够做出成功的产品设计。
我的初衷是希望你看了之后能够有所收获,能够对你的工作和专业水平的提高,有那怕一点点的帮助。不然我就白写了 。
1,OkCupid很依赖数据,这些都是做A/Btest的结果
2,数据显示,如果在首页放置最近来访,这个功能会和背景融为一体,用户会更少的点击,而且进入个人资料后,发消息也少了。反而,将入口藏起来,用户会更严肃的对待这个功能,点击率和消息率都增加了。
我又追问了2个问题,这哥们的答案能看出他们做事的方式:
Q:怎么证明这不是一个短期效应,比如用户对改变敏感,时间长了这个行为又变回去了。
A:测试会持续足够长的时间。同时,对新用户进行测试,这部分用户没见过之前的形式。这两个措施保证了可以提高测试的可信度。
Q:最近来访看起来是个常规功能,而且看上去很不错,怎么想到对这个功能进行A/B test。
A:我们的原则是怀疑一切,有些功能看起来不错,但是不是说他不能做的更好。所以,我们经常性的对一些功能进行测试,确保他们是不是真的最好。
最后介绍下OkCupid这个交友网站,创始人是哈佛几个学数学的人,通过各种测试帮你找到合适的人。
有意义的数据极其有必要,这里的有意义指a.精度有意义,精度太高很不必要代价太大精度低了那和没有数据也是一样。b 指向有意义,这个就需要丰富的经验来把握,哪里去获得数据?和谁去比较?能说明什么?这一系列问题能把握住才能称为数据指向有意义。
2、不赞成先有结论再去用数据求证。提出这中说法的人基本上都是用来凑数据的。稍微了解统计思想的就知道,统计的证明是建立在拒绝基础上的,而不是承认假设。不知道有多少人想过没有这是为什么?不展开了。
3、PM的黄埔军校是快消行业(鄙人是搞通讯的,水平差很多),快消行业不用数据说话那简直。。。这里肯定有人说我是搞IT的通讯的B2B的,和快消差很多,我们行业关注的是决策链等等。我要说这都是扯淡,举个例子微软现在的CEO原来就是在宝洁干PM的,所以洗发水和软件本质没啥区别
4、在中国的传统里理数被认为是奇技淫巧之类因此是欠缺的,所以中国人的严谨性群体缺失我敢说坚持数据无用论中90%以上是懒得去搞数据,或者看见的垃圾数据太多已经失去对数据的信赖,但我相信一旦一份逻辑严密数据严谨的数据放在你面前你一定无法忽视。
5、人的辨别能力是有限的,很多数据工作是为了研展你的辩识能力,比如数据挖掘。一堆杂乱的数据对你是毫无用处的,但通过处理就可能告诉你很多你忽略的信息。因此数据挖掘我认为是PM必须具备的职业技能。
补充6、最近看到了一篇讲数据统计方法的文章全文如下,很纠结转不转有点长,但想想来知乎的应该都不怕长的,就转了吧。如果你能搞明白“因果网络”这个关键点那么数据分析就有极有意义的,如果你搞岔了那么数据分析会误入歧途。当然任何项目的展开都受制于资源,但这个思维方式在数据分析前必须具备的
在去年10月份的数学文化节期间,我去听了好几次讲座,其中有一些讲的相当精彩。时间过得好快,转眼间又是一年了,如果不是Wind牛发短信问我去不去听讲座,我估计今年数学文化节过了都还想不起这档子事。于是和Wind牛跑去二教309,听了一场叫做《从数据中挖掘因果关系》的讲座。这个题目是很有趣的:数据本身并不说谎,难就难在我们如何从中挖掘出正确的信息。当我们讨论数据时,我们讲的最多的是数据的相关性,而我们希望得到的则是事件之间的因果联系;但事实往往是复杂的,统计数据有相关性并不意味着两个事件具有因果联系,而具有因果联系的两件事从统计数据上看有时也并不相关。
对于前者,最简单的例子就是公鸡打鸣与太阳升起:公鸡打鸣与太阳升起总是同时发生,但这并不表示把全世界所有的公鸡都杀光了后太阳就升不起来了。统计发现,手指头越黄的人,得肺癌的比例越大。但事实上,手指的颜色和得肺癌的几率之间显然没有直接的因果联系。那么为什么统计数据会显示出相关性呢?这是因为手指黄和肺癌都是由吸烟造成的,由此造成了这两者之间产生了虚假的相关性。我们还可以质疑:根据同样的道理,我们又如何能从统计数据中得出吸烟会致癌的结论呢?要想知道吸烟与癌症之间究竟是否有因果联系的话,方法很简单:找一群人随机分成两组,规定一组抽烟一组不抽烟,过它十几年再把这一拨人找回来,数一数看是不是抽烟的那一组人患肺癌的更多一些。这个实验方法本身是无可挑剔的,但它太不道德了,因此我们只能考虑用自然观察法:选择一些本来都不吸烟的健康人进行跟踪观察,然后呢,过段时间这一拨人里总会出现一些失意了堕落了犯上烟瘾的人,于是随着时间的流逝这帮人自然而然地分成了可供统计观察的两组人。注意,这里“是否吸烟”这一变量并不是随机化得来的,它并没有经过人为的干预,而是自然区分出来的。这是一个致命的缺陷!统计结果表明,犯上烟瘾的那些人得肺癌的几率远远高于其他人。这真的能够说明吸烟致癌吗?仔细想想你会发现这当然不能!原因恰似黄手指与肺癌一例:完全有可能是某个第三方变量同时对“爱吸烟”和“患肺癌”产生影响。1957年,Fisher提出了两个备选理论:癌症引起吸烟(烟瘾是癌症早期的一个症状),或者存在某种基因能够同时引起癌症和烟瘾。
有虚假的相关性数据,就有虚假的独立性数据。“健康工人效应”是一个特别有意思的理论。调查发现,在铀矿工作的工人居然与其它人的寿命一样长(有时甚至更长)。这表明在铀矿工作对身体无害么?当然不是!其实,是因为去铀矿工作的工人都是经过精心挑选的身强体壮的人,他们的寿命本来就该长一些,正是因为去了铀矿工作才把他们的寿命拉低到了平均水平。这一有趣的细节导致了数据的伪独立性。类似地,有数据表明打太极拳的人和不打太极拳的人平均寿命相同。事实上呢,太极拳确实可以强身健体、延长寿命,但打太极拳的人往往是体弱多病的人,这一事实也给统计数据带来了虚假的独立性。
现实中的统计数据往往会表现出一些更加诡异复杂的反常现象。Simpson悖论是统计学中最有名的悖论:各个局部表现都很好,合起来一看反而更差。统计学在药物实验中的应用相当广泛,每次推出一种新药,我们都需要非常谨慎地进行临床测试。但有时候,药物实验的结果会让人匪夷所思。假设现在我们有一种可以代替安慰剂的新药。统计数据表明,这种新药的效果并不比安慰剂好:
有效 无效 总人数
新药 80 120 200
安慰剂 100 100 200
简单算算就能看出,新药只对40%的人有效,而安慰剂则对50%的人有效。新药按理说应该更好啊,那问题出在哪里呢?是否是因为这种新药对某一类人有副作用?于是研究人员把性别因素考虑进来,将男女分开来统计:
男性有效 男性无效 女性有效 女性无效
新药 35 15 45 105
安慰剂 90 60 10 40
大家不妨实际计算一下:对于男性来说,新药对高达70%的人都有效,而安慰剂则只对60%的人有效;对于女性来说,新药对30%的人都有效,而安慰剂则只对20%的人有效。滑稽的一幕出现了:我们惊奇地发现,新药对男性更加有效,对女性也更加有效,但对整个人类则无效!
这种怪异的事屡见不鲜。前几个月一个高中的师弟给我发短信,给了我两个大学的名字,问该填报哪个好。鉴于我目前的悲惨境遇,我非常认真地帮他查了一下两所大学的男女比例,并且很细致地将表格精确到了各个院系。然后呢,怪事出现了:A学校的每个院系的女生比例都比B学校的同院系要高,但合起来一看就比B学校的低。当然,进错了大学找不到MM是小事,大不了像我一样20岁了连初吻都还没有,拿出去丢丢人让别人笑话笑话就完事了;但医药研究需要的是极其精细的统计实验,稍微出点差错的话害死的可就不是一两个人了。上面的例子再次告诉我们,统计实验的“随机干预”有多么重要。从上面的数据里我们直接看到,这个实验的操作本身就有问题:新药几乎全是女的在用,男的则大都在用安慰剂。被试者的分组根本没有实现完全的随机化,这才导致了如此混乱的统计结果;不难设想,如果每种药物的使用者都是男女各占一半,上述的悖论也就不会产生了。当然,研究人员也不都是傻子,这么重大的失误一般还是不会发生的。问题很可能出在一些没人注意到的小细节上。比如说,实验的时候用粉色的瓶子装新药,用蓝色的瓶子装安慰剂,然后让被试人从中随机选一个来用。结果呢,MM喜欢粉色,选的都是新药;男的呢则大多选择了蓝瓶子,用的都是安慰剂。最后,新药和安慰剂都发完了,因此直到结果出来之前没有人会注意到这个微小的性别差异所带来的统计失误。
当然,上面这个药物实验的例子并不是真实的,一看就知道那个数据是凑出来方便大家计算的。不过,永远不要以为这种戏剧性的事件不会发生。一本叫做《致命的药物》的书详细披露了20世纪美国的一次重大药害事件,其原因可以归结到药物实验上去。药物实验的时间是有限的,如果用死亡率作为唯一标准的话,估计每个药物实验都得观察个十几二十年才行。为此,科学家们想到了利用各种“中间变量”来替代死亡率这一指标。
统计数据表明,抑制心律失常能够减少死亡率,而当时的药物实验明确表明该药物能有效地抑制心律失常。这些药物得到了FDA批准并成功上市,当时每年有20多万人服用这些药品,超过5万人因为服用这种药物而死亡。这个药物实验中蕴含的逻辑推理看似无懈可击,到底什么地方出错了呢?人们推测很可能是某个第三方变量的问题。我们不妨称这种情况为“中间变量悖论”。
抑制心律失常 死亡率
对照组 实验组 未抑制 抑制
无缺陷(70%) 0.02 0.99 0.02 0.01
有缺陷(30%) 0.98 0.79 1.00 0.02
—————————————————
期望值 0.38 0.93 0.314 0.013
让我们假设存在一个第三方因素,例如基因问题。我们不妨暂时管它叫做“先天缺陷”。从上表中我们可以看到,实验组(使用新药的人)中有93%的人成功抑制了心律失常,远远高于什么都不做的人(38%);同时,心律失常确实会导致31.4%的人心脏骤停而死,但抑制心律失常则把这个比率下降到1.3%。这似乎确实可以说明,新药能够有效降低死亡率。但引入第三方因素后,情况有了很大的改变。有先天缺陷的人,心律往往很正常,恐怖的是一旦无法抑制心律失常则必死无疑。真正要命的就是,这种药物会使那些有先天缺陷的人心律变得更差。在没有缺陷的那70%的人当中,用药后有99%的人能抑制心律失常,而这里面只有1%的人会死;同时,另外1%的人则无法抑制,其中又有2%的人会死亡;有先天缺陷的那30%的人就惨了,用药后抑制住心律失常的人反而下降到79%,其中有2%的人会死,而对于另外21%的人则必死无疑。计算表明,使用药物后死亡的人数竟然三倍于不使用药物时的情况!
(0.7*0.99*0.01 + 0.7*0.01*0.02 + 0.3*0.79*0.02 + 0.3*0.21*1.00)
/ (0.7*0.02*0.01 + 0.7*0.98*0.02 + 0.3*0.98*0.02 + 0.3*0.02*1.00)
≈ 2.91
可以看到,从数据中挖掘因果关系并不是那么简单的事。如何确定影响目标的事件,如何从数据中获取相关关系,怎样用最少的实验次数(控制最少的变量)为因果关系定向,这都是建立一个因果网络所需要考虑的因素。因果网络是一个很复杂的学问,前天的讲座里还提到了很多确定因果网络的算法,在这里我就不再多说了。
数学上,关于“风险性决策的最优方案”模型的逻辑用来说明这个问题会比较简单。
(一)样本的采集与处理。
第一类,采集的样本量的问题。
主要是样本量不够全面(包括样本数量不够大以及样本不具备足够的代表性),导致数据不可信。这种情况,我把其分为两种相对“极端”的理论:
其一是黑天鹅理论,其理论的基本依据即是:我们所有的结论都是基于先前已有的经验,这样很容易让人忽略之前没有出现过的现象。即无论样本量多大,考虑到时间空间的无限性,样本量总归是相对不够的。这个理论的例子可以用哲学上比较有名的那句话:“你不知道明天太阳是否还会照常升起”来加以说明。
另外一种,我称之为伯格森理论,他认为科学对生命的描述是分裂的,比如我们会描述性格、描述外形、描述智商,当时一切的描述都是片面的属性,而人是整体的,所以所有对生命的描述都是旁观的,不全面不准确的。另外,生命是变化的,而理性的描述是静止的,所以生命无法描述。
出生于尼日利亚的小说家Chimamanda Adichie在TED上有一个讲座,题目就是《单一故事的危害性》,她讲到自己从小读国外的书籍,发现里面的主人公都是白皮肤蓝眼睛,以至于她一度认为只有描写外国人以及那些她不曾亲身体会的生活才算得上是写作,直到她接触到了非洲文学,才发现原来像她一样拥有卷发的巧克力肤色的人物也能成为小说中的存在
她刚去到美国的时候,她的室友惊讶于她标准的英文发音,却不知道尼日利亚的官方语言就是英语;她的室友想听她们的部落音乐,所以当她拿出流行歌手CD的时候对方感到无比震惊;她的导师说她写的论文没有非洲的真实性,仅仅因为里面的人物没有面临饥荒,而且还会开车。
正如她所说的那样,单一故事通常不是不对,而是不全面,因为它让单一的故事代表了一群人。同样,数据采集也面临这样的问题,采集的数据通常不是不对,而是不全面。而人类本能地过多看中容易获取的数字,而低估难以获取数据的价值,也通常会造成样本量不全面的问题。
第二类是数据预处理的问题:
1、简化或者扭曲某系相关因素。
关于简化,最常见的经济学上的“不考虑交易成本的完全竞争理论”;而关于扭曲,最常见的就是将“相关性”与“因果关系”混淆,得出类似"拥有自己独立办公大楼的公司更容易成功"的结论。
2、相关因素难以量化的问题。
比如一个公司“创新能力”“人力资源管理”对公司业绩的贡献度问题。
(二)模型的构建与评估
第一步:考虑一个涉及风险性决策的问题时,我们首先需要一个效益函数,简化起见,我们用线性的函数来大致的描述:
这就引出3个重要的内容:
1、我们的目标Y是什么
2、影响目标Y的各种因素是什么
3、各类因素对Y的影响权重是多少
在进行到这一步的时候,人们如果仅凭经验,就会有很多人犯错了:
1、他们只看到了某一个影响因素,而忽略了其它因素的影响。(人类总是会有意无意忽略一些影响因素,而刻意留下对自己观点有利的因素)
2、他们给予某一个影响因素过多的权重。(人类的记忆倾向于给最近发生的事情、印象最深刻的事情赋予过大的权重,上面有人提到的给“飞机机舱加固”的案例其实就是权重问题)
3、目标Y的确认也是会存在出错的可能,因为现实生活中,我们的目标通常不是唯一的,比如把“用户体验”当做目标的时候,通常还需要考虑我们的预期盈利情况、市场定位的情况。这一类的错误非常常见,只见树木不见森林。
具体到您这个例子中,您提到的“对于某项目,PM凭经验可说4级以上的用户可xxx,这时候会有人跳出来问,为什么不是3级、5级?拿出数据来。 实际上真看了数据又能看出什么呢?看完后无非是再次验证了4级。”
如果您不“全面”地看数据,那么您就可能只去寻找对自己有利的数据,或者过多看重自己的偏好数据,以及可能忽视了与其他目标存在冲突的情况,也就是上述的3个错误。
进一步的,通过数据分析,即便与您最初预想结果一致,您也会更加清楚地明白每一个影响因素是什么,每一个影响因素的实际贡献是多少,这样的过程才能让您的逻辑更加无懈可击。
第二步:考虑风险因素,也就是概率问题。
为了避免引入过多的数学公式,在此不展开概率矩阵,大致说明一下:
我们可以把:看成一种概率下的函数;同样的,在其它的概率条件下还存在着很多的的函数。
进行到这一步的时候,又会有很多人不经意间犯错:
1、人们通常会选择性地只看到对自己有利的概率事件,忽略对自己不利的概率事件。
具体到您这个案例上,您提到的“ 再比如有的功能是肯定要上的,但领导会说,调研一下有没有必要,评估数据搞半个月,评估的结果是:可做。 实际上,该功能整个平台的用户都希望做,是没有必要耗费人力评估的,只要做就可以了。”
那么,您非常可能就犯了上面的错误,忽略了增加该功能所可能带来的不利的情况。而要客观评估这种情况,就需要考虑到风险因素。
进一步的,通过数据分析,即便与您最初预想结果一致,您也会更加清楚地知道改动之后所面对的最大的损失会是如何,令您的决策更加有备无患。
第三步:考虑可执行性。
这一问题在简化的数学模型上通常不会被提到,但是在现实世界中,我们需要从技术上、经济上、心理上三个层面的数据支撑,确保项目的可执行性。
回到效益函数上来:
假设我们确定了需要调整因素,那么我们需要针对因素构建一个模型,确保因素在技术上、经济上、消费者心理上是可以被接受的。
您提到的“ 再比如有的功能是肯定要上的,但领导会说,调研一下有没有必要,评估数据搞半个月,评估的结果是:可做。 实际上,该功能整个平台的用户都希望做,是没有必要耗费人力评估的,只要做就可以了。”
那么实际上增加这个功能,也同样需要进行这样的评估,确保其起到的积极作用大于消极作用;带来的收益要高于其风险;所耗费的精力时间是值得优先处理的。
案例:
最近在指导一个电商团队做推广,其运营的成员在极力推广自己两款的独创产品,原因是:
1、这两款产品是原创的,本身具备一定吸引力,转化率相对高;
2、这两款产品是原创的,可以推动消费者对店铺的好感度;
3、这两款产品库存深,需要清理。
但如果电商的运营成员分析一下产品的利润率是否足以支撑产品的推广费用的话,就会发现整个ROI做下来不到0.3(投出1块钱,收入3毛钱),其利润率决定了这两款产品不适合做这种成本的推广。
所以,有些事情看起来是非做不可,在某些角度看也是可行的,但通过数据分析,我们可以更本质地、更全面地评估事情的可执行性。
最后,数据分析还有一点好处,那就是让非专业的人士,也可以直观地明白事情是否可行,毕竟“经验”的东西往往难以用来说服老板。
对数据的使用程度,取决于你的产品所处的阶段。
当你的产品当前处于初级阶段时,你的产品其实是“一切皆有可能”套用一些数据分析方法,反而束缚了产品可能发挥的空间。这个阶段更依赖初期做这个产品的冲动和对用户需求的感性把握。
当你的产品当前处于用户基数很大且成熟期时,你的产品已经确确实实满足了用户的某种需求,这个需求的满足是立足点,不能轻易动摇,而且需要进一步完善和改进,这个时候数据的分析很重要,也更加客观。
关于数据分析和用户反馈,一篇社交游戏设计的文章中提到的观点很有借鉴意义,以下为引用请参考:
很多人社交游戏公司是依赖数据分析来判断用户喜好并不断进行修正,但事实上类似Zynga这种拥有超级用户数据分析能力的公司并不多见,大部分公司根据用户行为调整游戏方案一直停留在纯理论阶段,我见过部分公司对市场反馈不理想的游戏直接做法是回炉重新打造。对于缺乏资本和资源支持的公司,最好的做法是预判用户需求而不是试图实现用户的想法。
数据分析是一个很传神的说法,但是这个更多只限于细节方面的调整,就连Zynga在制作Cityville的时候也有类似的困扰,他们刚开始并不清楚Cityville会不会只是Farmville的简单翻版,甚至还打算让Challenge Games来接手这个项目,但最后在团队的磨合下才形成现在的游戏样式和超级影响力。Cityville的最终成型和用户的反馈关联不大,最核心的部分还是在于开发者层面的自我调整。
It Girl设计师Brice Morrison认为数据分析是根据用户反馈来反推游戏设置合理性,比如每个等级的玩家数量、体验时间和消费金额。还有另外一个重要层面是玩家的游戏进程中所处的量级并不一样,开发者利用了玩家的时间差,以少部分领先者为体验对象,再根据他们的反馈修正并服务于后面绝大部分的玩家。Brian Reynolds提到过他们是如何在FrontierVille中从马蹄铁的提供数量来判别玩家对一些微调的反应。
有些数据是必要的,PM对数据的需求很大层面上可以反映产品经理对数据和业务的掌控理解能力和对产品的期望,所以足够聪明的产品经理不会漫无目的的要数据,一般会重点盯几个产品的关键指标和决策必要的指标;相对的,一个好的数据分析师需要对数据的需求做出合理的把握,不是需求方要什么就给什么,数据分析师给出的数据必须是有效的,能够指导决策的,而不是冗长的毫无重点的数据报表。
最后说一句,数据只是辅助决策,而不是决策的本身。
装鳌 失败的互联网产品经理
这就跟有的医生上来就让你各种检查一样,他不用付出任何代价反而能降低各种风险,最坏的结果也就是你白花钱了,何乐而不为?
没理解前几楼为什么这么高票!
没下结论,也没有正面回答问题!however,必须承认内容很精彩。
做了一年数据分析师,目前做数据产品经理。也夹杂to c产品经验。分享下自己的意见。
不论谁,都应该拿数据说话!一点问题都没有。however,具体情况具体分析。
数据分析是为了减少决策的不确定性从而降低风险。一定要上的功能点根本不需要“分析”。(验证想法也是可以降低不确定性,从这角度来说,这里做分析还是有意义的!)
如果是为了老板开心,作为分析师你就提供吧。
我不是开玩笑,反正实际情况是,很多时候其实就是老板(人人都是品经理的时代,咳咳)感兴趣而已,支持决策吗?不支持!老板爽吗?老板爽啊!不就够了!很多时候,工作就是为了需求方高潮啊!
从问题的描述来看,偏向于确定数据分析对新功能或者优化功能的决策有多大的帮助
产品需求的决策一般是看需求的急迫性+需求的场景大小
一般可以通过数据了解该场景下的受众来确定需求的场景大小
比如微信扫一扫听歌和朋友圈对比,简单的通过数据即可判断
下面说说我的经验,在什么情况下,需要分析数据进行决策
1、新功能或者新产品,目的:确定是不是要做(可能领导从战略角度确定要做了),盘子能做多大(提升团队的信心,画饼)
QQ群想切入教育市场,用户可以利用群完成教学相关的工作,除了做市场的数据分析,还需要对现在群的数量、类别做个分析
微博需要在timeline增加分类的需求,判断分类是否需要加上转发呢?可能看到数据80%的转发,得出结论筛选的意义不大(暂时只讨论数据,用户场景也是重要因素)
2、活动运营或是优化功能,不同的决策会导致差异会很大
策划一个积分兑换活动,需要对全盘的积分和用户的数据进行分析,如果兑换比例低了,可能很快换完了奖品,比例高了,用户没有积极性
题主提到的问题,应该是不同的决策,最后的差别不会太大的例子,这种时候跟开发的沟通就可以是3级也好,4级也好,确实都可以呀
另外补充几个点
需要考虑数据获取成本,寻求最佳性价比高,有些时候确实应该先靠产品经理的一个决定,上线后再去调整,如果是一个随手可以跑出来的数据,比如题主提到的等级,应该都有现成的数据,看下每个等级的人数就可以了
需要明确数据的用途,如果需要一项数据,想想如果这个数据高,你会怎么决定,如果这个数据的值是多少,你会做什么决定,这个问题想不清楚,那这个产品决策就不是分析数据这个环节的问题
补充一句题外话,有时候产品经理提数据需求,不见得一定是当前有用,可能就是对产品的直观的把控,也锻炼产品经理的产品感而已
在高科技领域,数据是不可或缺的。它可以帮助你更好管理系统和团队,但从数据有效获取价值比拿到数字更难。你需要一种由数据驱动和抉择的文化。通过数据可以让管理者不仅降低正确决策的风险,也更有信心迅速行动。它也提供一种确认选择是否可行的办法。
建立这样文化比口头上简单说说要更复杂。你衡量哪些数据?如何响应?采取什么方法让团队意识到应该把数据摆在首位?
以下是实现可持续发展的数据驱动的企业文化的一些建议,可以让团队在自我完善,也有一些陷阱我们需要注意:
1.确定要测量什么。我们目的是用数据让商业更加灵活有信心。管理层需要了解公司高层的优先级,再选择支持这些目标的指标。如果你不分重要性衡量一切的话,你就会陷入无关紧要的细枝末节。比如对于用户增长的核心指标有注册数,激活率,重新激活率。
2.为实现具体商业及团队目标的相关指标。修复的平均时间(MTTR)是一个不错的性能指标,但它不容易让团队执行。确认事件发生的平均时间(MTTA)是MTTR的一个组成部分,往往更可行。跟踪这两个关键绩效指标,有助于了解团队是如何对总体指标做贡献的。
我们可以思考的问题,针对注册用户:
注册的组成有哪些(SEO,社交网络,自主来源),有可靠数据吗?
有哪些产品类型的设想可以帮助提高那些指标?
对激活用户:
用户如今是如何激活的?
搜索质量和激活的关联
网站速度和激活的关联
产品在上面领域如何改进?
对于提交的变化,有哪些成功的因素?
3.民主化的信息。在一个数据驱动的文化中,每个人都能做数据分析。数据总是可用的,并保证大家的控制权限。但要做到这一点,数据要比大多数公司做到更透明,团队有方便工具来访问。确保每个人(不仅是数据组人员)都可以看到某种形式的报表或窗口,去了解数据(如果需要的话,通过培训)和从中提取价值。比如,通过可视化图形来查看报表,用电视屏幕显示,在会议讨论中直接引用。
4.让团队发言并采取行动。每个人都应该随时提出自己的见解和建议,也可以对其他人和高层管理人员建议。 “你有没有数据来支持它?”应该是每个人都可以问和准备回答的问题。其他的问题可以是
在idea背后的数据和假设是什么?
如何衡量现有的代码和基础架构?
我们衡量的指标有哪些?
数据是对的吗,那些是坏的,是不是合乎常理?
能否解释如何测量的?
如何比较不同组别?
能一起查看数据,深入理解结果吗?
在具体实践中:
每两周汇报商业指标,深入讨论,调整优先级。
每周demo,审查所有实践效果,对下一步做决定。
对测量后的结果共享,汇报实时的结果。
5.永远不要停止测试。在测量前,你不知道一切未知的东西。新的问题出现时你可能没有办法回答,那么在获得新的数据时准备好进行测试 – 你也可能遇到让你惊讶的结果。先把精力放在投入较少的实验,在下次扩大化之前测试所有的。
6。 在数据上行动。有些公司声称 “我们是一个数据驱动的组织”,但其实团队还是对数据支持的idea伤脑筋,或者更糟的是还是由老板拍脑袋决定。数据驱动的文化实际上就应该持续用数据应对挑战并做抉择,当数据显示问题要立马行动,把数据质量作为最高优先级(它可能隐藏真正的问题,并导致错误的决定)。
还有一些数据的错误看法,可以纠正一下
数据能回答很多问题,但不是一切问题(比如回答用户未来一年的增长)
你有可能对错误的指标进行优化。
数据不会自动完成工作。
数据是不能代替人做决定的。
还有一些建议:
1.不要停留在过去。指标天然就反映已经发生的事情,但很容易卷入大量时间分析报告,讨论原因和责备。发生了什么事就现在告诉你下一步该怎么做。
2.不要只专注于数字。数字比目标更容易管理。指标激励人们尝试“测试型的工作”。但要记住,度量是一种手段,它是帮你关联到商业目标的中心。
3.不要偏执数据。你从指标中想要获取的是内在的解释,如果粗浅的去衡量更多的东西,反而没用。避免“过度分析“,那样可能比你需要的更多,得不偿失。
最后,数据驱动的文化是一个反馈机制。表现最出色的运营团队通常他们每周数据报表都会讨论。大家能透明地访问数据,训练并解释它。通过汇报所采取的行动结果让每个人都尽快开始。
PM的数据分析窃以为分为3个部分:
1.数据监测:通过测度产品所表现的关键相应指标来评估产品目前的运行状况,并保障产品正常运行,如果有意外,第一时间发现,并分析原因;赘述一句,想象到的就不是意外,预案在此时通常很苍白,因此数据问责很有可能出现,PM也好,RD也好这时要冷静而不是抱怨。
2.数据探索:每一个PM都是贪心的,恨不得将所有可能测度到的数据全部让RD实现,这在效率和效果上都是个坏主意。因此,PM需要在让RD把所有数据都跑出来之前,做足探索,哪些数据有效,哪些没什么用,往往PM在处理项目时,评定优先级,而在数据上往往过于急躁。
2需要不断迭代,来完善1数据监测。
3.数据假设与数据挖掘:通过数据来推翻而不是论证项目的假设。基于数据获取更多的知识,甚至能够通过数据自学习,形成良性的自我成长。
这3个部分能杀掉PM大量的时间,故形成BI体系,作为团队内部的知识分享平台,至关重要。
拆分题主的两个问题进行回答。
第一,如何评价产品经理拿数据说话?
首先产品经理拿数据说话一定是没有错的。
针对题主的疑惑:产品经理对数据抽取漫无目的,花了时间,但并不能产生指导性的产品设计思路。对此,我是这样理解的:你的产品经理似乎没有搞清楚产品的价值功能,目标涣散,导致把控不了价值数据。
你看我给你解释哈:
A. 价值数据?
数据分析本身是衡量一切后续产品改进的结果性指标。
这也正符合管理学大师彼得·格鲁克说过的:「If you can’t measure it,you can’t improve it.」
比起感性的推测,数据无疑是很靠谱的东西。而对于产品经理来说,在现有的数据里面发现机会,去找到能够让新用户用的更好停的更久,推荐更多人的方法,实现产品价值,就是数据最大的作用。
数据一般引导产品优化主要如下图所示:( Keynote做的 不喜你打我啊~ )
上图可以解释为:
观测数据后,结合业务经验推测这个现象是由于什么样的机制引起的,如果假设成立的话,推广这个机制可以更好地优化产品,反之产品或者运营可能会恶化或不变,可以通过前后持续的数据观察,对比数据变化的差异来分析假设是否成立。
但这个足够驱动产品优化的数据, 它应该是某些关键指标和那些可能产生差别的维度。
且不说跑数据的程序麻烦,(传统的手动埋点过程耗时1-2 个月不等),需要利用数据来支持的产品决策,等数据工程师把排队堆积的数据报表跑出来再分析,或许已经错过了最佳时机。
认清关键指标真的很重要,但这个似乎跟产品价值功能有关,
B. 价值功能?
说起价值,每家公司关心的点不同,而且随着时间而变化:
举个例子,比如一个产品的注册口设计,是尽可能让用户少填信息提升注册转化率,还是让用户完善信息方便销售部门后期跟进呢?当然,初创公司可能比较注重转化率,他们的注册入口往往很简洁,而成熟型企业就更关注销售线索,注册步骤相对繁琐。
再来个例子,Teambition | Tour-团队协作工具,最关心的数据是:有多少内容在 Teambition 上创建出来,所以用量是最核心的数据。
做这个产品的核心价值在于让用户可以在 Teambition 互相配合、协作、沟通,一让大家有事可讨论,有事可协作。优化这点比关注其他更能吸引和留住用户。
一切数据的核心逻辑就是这个,能够映射到公司任何一张其他数据图上。
不过,工具类产品比较依赖产品功能的好坏,如果不好说明什么,那么:
说个大一点的例子(To C方向),滴滴和 Uber 。Uber 总结自己最核心关注的数据是:乘客打车时手按下去后,专车到乘客面前的时间,而滴滴关心的只是定单量的多少。
升华一些,Uber 通过优化这一点,实现了自己的产品价值:优步让交通效率提高了。基于这个「价值」,优步对自己定位更准,对产品体验把握也更准。再说回滴滴,订单量需要关注的方面更多,我相信,滴滴的产品经理或者数据分析师一定泡在数据堆里,想方设法在试探提高订单量的功能优化点吧。
……(举个例子想破头,不要问更多了,不要说还没代表性,你说我,我就……看下面)
上有很多PM必备技能的思维导图,里面必有一项是数据分析。好吧,那么国内PM真的修炼了成数据分析么?我只在两家中型的电商做过,说下我的感受吧。我看到现在,除非是从分析转产品的PM外,很少有PM懂得广义上的数据分析,但是他们仍然把“用数据说话”、“要有数据”挂在嘴上。
数据和调研是否有用?我相信很少PM懂一些细节,比如”我们至少要找几个真实用户来调研或做可用性测试“。那么他们怎么做?我的个人想法是,PM没有必要做真正的数据分析专家。PM要懂得相信团队中在这方面比他更专业的同学。如果啥都是PM自己说的算,那是够头疼的。
在项目中,我觉得最可怕的就是来自”爱添乱“的领导的需求。这玩意儿一定得上线,尽快上!!做不做调研?我觉得这取决于做事情的人的心态。资源已经被浪费了,但项目上线后的糟糕数据,以及”不及时“的调研结果,可能可以让糟糕项目快速结束,释放资源做更多的事儿。如果调研出来结果是靠谱的,我想也能激励一下团队。战略没错,可能战术需要调整。
PM该如何做数据分析?有一个很基本的是每个PM都可以做的,就是选择一个合适的指标来评估项目或功能的好坏。这个指标甚至可能是以前没的。有没有感觉我在说废话?PM应该是很懂自己的产品和用户才对。但我在工作中我看到的是,PM选择了不合适或不相关的指标来定期汇报项目进展。大家都在用数据汇报,这能叫拿数据说话么?
不了解数据的局限性是很危险的。
最直接的原因:能被系统记录的用户行为数据只是用户全部使用行为的一个很小的子集,只是行为的一个侧面、一个剪影而已,更不用说用户心理层面的东西了。数据分析的最大优势是极大的样本量,这是其他用户研究方法所不能比拟的,但是即便是一亿个剪影加起来那还是一群剪影,而不是事物本身。
因此,千万不要把数据太神圣化了,数据分析是接近真相的一种手段,但远不是全部。
产品经理经常需要评估功能/产品的可行性,漏斗图便是考核数据效果好坏的重要图表之一。
一、何为漏斗图
1、概念
漏斗图在Google Analytics的报告里代表“目标和渠道”,在Web Trends里叫做“场景分析”,在Omniture的SiteCatalyst里被称为“产品转换漏斗”。虽然漏斗图称呼不一样,但它都是用来衡量网站中业务流程表现,并适用于电商等各个行业。漏斗图可以非常直观地看出网站业务流程中的问题所在,从而加以完善。
2、适用场景
漏斗图适用于业务流程比较规范、周期长、环节多的流程分析,通过漏斗各环节业务数据的比较,能够直观地发现和说明问题所在。最常见的分析场景有:
1)以电商为代表的网站(APP):通过转化率比较能充分展示用户从进入网站到实现购买的最终转化率,漏斗图是评判产品健康程度的图表,由网站的每一个设计步骤的数据转化反馈得到结论,然后通过各阶段的转化分析去改善设计,提升用户体验的同时也提高网站的最终转化率。
2)营销推广:反映搜索营销的各个环节的转化,从展现、点击、访问、咨询,直到生成订单过程中的客户数量及流失。
3)CRM:客户销售漏斗图用来展示各阶段客户各个阶段转化比较。
3、呈现工具
能做漏斗图的数据工具有很多,我用过的有Excel、BDP个人版、Echart(需要写点代码)。
4、有何意义
1)快速发现问题,及时调整运营策略
漏斗图是对业务流程最直观的一种表现形式,通过漏斗图可以很快发现流程中存在的问题,通过相应的方式进行优化,漏斗图又可以很直观的告诉我们流程的优化效果。
2)直观展示两端数据,了解目标数据
漏斗图最直观展示网站分析中的两个重要端点:流量导入端——产生收益端,有多少访客访问了网站,有多少人给网站带来了收益。当我们通过各种推广和营销方式把用户拉到网站后,如何尽可能让更多访客产生收益才是最重要,而漏斗图的作用就是描绘网站中后一端的数据情况。
3)提高业务的转化率(营销推广)
漏斗图直观暴露问题后,可以在不增加现有营销投入的情况下,通过优化业务流程来提高访客购买率,进而提高访客的价值,并且这种提高的效果是非常明显的。
4)提高访客的价值,提高最终的转化率(一般是购买率)
在现有访客数量不变的情况下,提高单个访客的价值,进而提高网站的总收益。
其实3)和4)都是通过漏斗图发现问题优化后的延伸意义了,最重要还是通过漏斗图能够发现问题,并通过优化提高某些环节的转化率,最终起到提高整体效益的作用。
二、“漏”斗图实战
先来一起分析下这个数据,这个数据是网上随意找的,只是作为一个案例,大家不要太在意数据啊。作为电商网站,首先用户进入平台找到适合的商品后开始浏览,最终到底有多少人完成订单了呢,10000个用户浏览,只有17%的用户最终购买并完成了订单,这个转化高低由不同的网站去评判,大部分网站肯定希望这个转化率越高越好,那我们就需要了解每一步的转化率情况:
从浏览-购物车“漏”了60%,这步流失最多,也是用户是否愿意购买最重要的一步,是否能通过商品页UI优化、明显露出“加入购物车”button等方式提高这步的转化率;
从购物车-生成订单“漏”了25%,表面上看这个好像流失不多,但我们能否通过一些俏皮的提示让更多用户把商品从购物车带走呢?
生成订单-支付订单又“漏”了33%,这个数据值得反思,用户都已经生成订单了,还有这么多人在买前后悔或犹豫,除了这个原因,是不是还有其他的原因,比如支付方式(少了最常见的支付宝、微信或出现故障)是否出现了问题、是否经常出现没货的情况等,这些都是导致用户最终不支付的原因。
支付订单-完成订单还“漏”了15%,这是什么鬼,这个数据一定要关注的,一定要找出原因,就差一步用户的钱就到手了,怎么跑了这么多人呢,有种“到嘴的鸭子飞了”的感觉,赶紧查下原因:是不是支付渠道经常出错,还是网站太卡用户不想等了,这些问题都要好好解决。
以上这段文字很重要,可以认真思考下,再来看下工具是如何弄出漏斗图吧!
1、Excel(这个是最近看着网上教程刚学的,详细步骤大家可以参考网上教程哈)
第一步:计算占位数据,制作堆积条形图(选中数据,插入图表即可),数据由占位数据和实际数据相加,占位数据=(第一环节人数-当前环节人数)/2
第二步:调整纵坐标轴(选中纵坐标轴,鼠标右键—设置坐标轴格式—坐标轴选项中勾选“逆序类型”),将“人数”此条数据居中显示(鼠标右键—选择数据—将“人数”单击下移);
第三步:选中辅助列数据所在的橙色条形,通过设置无色无边框将占位数据条隐藏;
第四步:添加外框连接线、箭头和转化率,这样就OK了。
2、BDP个人版
第一步:将Excel数据导入;
第二步:分布将流程和人数拉到维度、数值栏,选中“漏斗图”,可以水平或垂直放置,显示每个环节之间的转化率。
第三步:命名图表标题并保存。(为什么颜色不同,因为我调了颜色啊,也可以调整主题背景)
以上就是我对漏斗图的一些粗略了解,希望我们尽快掌握好漏斗图,好好应用到实际工作中去!
对数据的使用程度,取决于你的产品所处的阶段。
当你的产品当前处于初级阶段时,你的产品其实是“一切皆有可能”套用一些数据分析方法,反而束缚了产品可能发挥的空间。这个阶段更依赖初期做这个产品的冲动和对用户需求的感性把握。
当你的产品当前处于用户基数很大且成熟期时,你的产品已经确确实实满足了用户的某种需求,这个需求的满足是立足点,不能轻易动摇,而且需要进一步完善和改进,这个时候数据的分析很重要,也更加客观。
关于数据分析和用户反馈,一篇社交游戏设计的文章中提到的观点很有借鉴意义,以下为引用请参考:
很多人社交游戏公司是依赖数据分析来判断用户喜好并不断进行修正,但事实上类似Zynga这种拥有超级用户数据分析能力的公司并不多见,大部分公司根据用户行为调整游戏方案一直停留在纯理论阶段,我见过部分公司对市场反馈不理想的游戏直接做法是回炉重新打造。对于缺乏资本和资源支持的公司,最好的做法是预判用户需求而不是试图实现用户的想法。
数据分析是一个很传神的说法,但是这个更多只限于细节方面的调整,就连Zynga在制作Cityville的时候也有类似的困扰,他们刚开始并不清楚Cityville会不会只是Farmville的简单翻版,甚至还打算让Challenge Games来接手这个项目,但最后在团队的磨合下才形成现在的游戏样式和超级影响力。Cityville的最终成型和用户的反馈关联不大,最核心的部分还是在于开发者层面的自我调整。
It Girl设计师Brice Morrison认为数据分析是根据用户反馈来反推游戏设置合理性,比如每个等级的玩家数量、体验时间和消费金额。还有另外一个重要层面是玩家的游戏进程中所处的量级并不一样,开发者利用了玩家的时间差,以少部分领先者为体验对象,再根据他们的反馈修正并服务于后面绝大部分的玩家。Brian Reynolds提到过他们是如何在FrontierVille中从马蹄铁的提供数量来判别玩家对一些微调的反应。
有些数据是必要的,PM对数据的需求很大层面上可以反映产品经理对数据和业务的掌控理解能力和对产品的期望,所以足够聪明的产品经理不会漫无目的的要数据,一般会重点盯几个产品的关键指标和决策必要的指标;相对的,一个好的数据分析师需要对数据的需求做出合理的把握,不是需求方要什么就给什么,数据分析师给出的数据必须是有效的,能够指导决策的,而不是冗长的毫无重点的数据报表。
最后说一句,数据只是辅助决策,而不是决策的本身。
装鳌 失败的互联网产品经理
这就跟有的医生上来就让你各种检查一样,他不用付出任何代价反而能降低各种风险,最坏的结果也就是你白花钱了,何乐而不为?
没理解前几楼为什么这么高票!
没下结论,也没有正面回答问题!however,必须承认内容很精彩。
做了一年数据分析师,目前做数据产品经理。也夹杂to c产品经验。分享下自己的意见。
不论谁,都应该拿数据说话!一点问题都没有。however,具体情况具体分析。
数据分析是为了减少决策的不确定性从而降低风险。一定要上的功能点根本不需要“分析”。(验证想法也是可以降低不确定性,从这角度来说,这里做分析还是有意义的!)
如果是为了老板开心,作为分析师你就提供吧。
我不是开玩笑,反正实际情况是,很多时候其实就是老板(人人都是品经理的时代,咳咳)感兴趣而已,支持决策吗?不支持!老板爽吗?老板爽啊!不就够了!很多时候,工作就是为了需求方高潮啊!
从问题的描述来看,偏向于确定数据分析对新功能或者优化功能的决策有多大的帮助
产品需求的决策一般是看需求的急迫性+需求的场景大小
一般可以通过数据了解该场景下的受众来确定需求的场景大小
比如微信扫一扫听歌和朋友圈对比,简单的通过数据即可判断
下面说说我的经验,在什么情况下,需要分析数据进行决策
1、新功能或者新产品,目的:确定是不是要做(可能领导从战略角度确定要做了),盘子能做多大(提升团队的信心,画饼)
QQ群想切入教育市场,用户可以利用群完成教学相关的工作,除了做市场的数据分析,还需要对现在群的数量、类别做个分析
微博需要在timeline增加分类的需求,判断分类是否需要加上转发呢?可能看到数据80%的转发,得出结论筛选的意义不大(暂时只讨论数据,用户场景也是重要因素)
2、活动运营或是优化功能,不同的决策会导致差异会很大
策划一个积分兑换活动,需要对全盘的积分和用户的数据进行分析,如果兑换比例低了,可能很快换完了奖品,比例高了,用户没有积极性
题主提到的问题,应该是不同的决策,最后的差别不会太大的例子,这种时候跟开发的沟通就可以是3级也好,4级也好,确实都可以呀
另外补充几个点
需要考虑数据获取成本,寻求最佳性价比高,有些时候确实应该先靠产品经理的一个决定,上线后再去调整,如果是一个随手可以跑出来的数据,比如题主提到的等级,应该都有现成的数据,看下每个等级的人数就可以了
需要明确数据的用途,如果需要一项数据,想想如果这个数据高,你会怎么决定,如果这个数据的值是多少,你会做什么决定,这个问题想不清楚,那这个产品决策就不是分析数据这个环节的问题
补充一句题外话,有时候产品经理提数据需求,不见得一定是当前有用,可能就是对产品的直观的把控,也锻炼产品经理的产品感而已
在高科技领域,数据是不可或缺的。它可以帮助你更好管理系统和团队,但从数据有效获取价值比拿到数字更难。你需要一种由数据驱动和抉择的文化。通过数据可以让管理者不仅降低正确决策的风险,也更有信心迅速行动。它也提供一种确认选择是否可行的办法。
建立这样文化比口头上简单说说要更复杂。你衡量哪些数据?如何响应?采取什么方法让团队意识到应该把数据摆在首位?
以下是实现可持续发展的数据驱动的企业文化的一些建议,可以让团队在自我完善,也有一些陷阱我们需要注意:
1.确定要测量什么。我们目的是用数据让商业更加灵活有信心。管理层需要了解公司高层的优先级,再选择支持这些目标的指标。如果你不分重要性衡量一切的话,你就会陷入无关紧要的细枝末节。比如对于用户增长的核心指标有注册数,激活率,重新激活率。
2.为实现具体商业及团队目标的相关指标。修复的平均时间(MTTR)是一个不错的性能指标,但它不容易让团队执行。确认事件发生的平均时间(MTTA)是MTTR的一个组成部分,往往更可行。跟踪这两个关键绩效指标,有助于了解团队是如何对总体指标做贡献的。
我们可以思考的问题,针对注册用户:
注册的组成有哪些(SEO,社交网络,自主来源),有可靠数据吗?
有哪些产品类型的设想可以帮助提高那些指标?
对激活用户:
用户如今是如何激活的?
搜索质量和激活的关联
网站速度和激活的关联
产品在上面领域如何改进?
对于提交的变化,有哪些成功的因素?
3.民主化的信息。在一个数据驱动的文化中,每个人都能做数据分析。数据总是可用的,并保证大家的控制权限。但要做到这一点,数据要比大多数公司做到更透明,团队有方便工具来访问。确保每个人(不仅是数据组人员)都可以看到某种形式的报表或窗口,去了解数据(如果需要的话,通过培训)和从中提取价值。比如,通过可视化图形来查看报表,用电视屏幕显示,在会议讨论中直接引用。
4.让团队发言并采取行动。每个人都应该随时提出自己的见解和建议,也可以对其他人和高层管理人员建议。 “你有没有数据来支持它?”应该是每个人都可以问和准备回答的问题。其他的问题可以是
在idea背后的数据和假设是什么?
如何衡量现有的代码和基础架构?
我们衡量的指标有哪些?
数据是对的吗,那些是坏的,是不是合乎常理?
能否解释如何测量的?
如何比较不同组别?
能一起查看数据,深入理解结果吗?
在具体实践中:
每两周汇报商业指标,深入讨论,调整优先级。
每周demo,审查所有实践效果,对下一步做决定。
对测量后的结果共享,汇报实时的结果。
5.永远不要停止测试。在测量前,你不知道一切未知的东西。新的问题出现时你可能没有办法回答,那么在获得新的数据时准备好进行测试 – 你也可能遇到让你惊讶的结果。先把精力放在投入较少的实验,在下次扩大化之前测试所有的。
6。 在数据上行动。有些公司声称 “我们是一个数据驱动的组织”,但其实团队还是对数据支持的idea伤脑筋,或者更糟的是还是由老板拍脑袋决定。数据驱动的文化实际上就应该持续用数据应对挑战并做抉择,当数据显示问题要立马行动,把数据质量作为最高优先级(它可能隐藏真正的问题,并导致错误的决定)。
还有一些数据的错误看法,可以纠正一下
数据能回答很多问题,但不是一切问题(比如回答用户未来一年的增长)
你有可能对错误的指标进行优化。
数据不会自动完成工作。
数据是不能代替人做决定的。
还有一些建议:
1.不要停留在过去。指标天然就反映已经发生的事情,但很容易卷入大量时间分析报告,讨论原因和责备。发生了什么事就现在告诉你下一步该怎么做。
2.不要只专注于数字。数字比目标更容易管理。指标激励人们尝试“测试型的工作”。但要记住,度量是一种手段,它是帮你关联到商业目标的中心。
3.不要偏执数据。你从指标中想要获取的是内在的解释,如果粗浅的去衡量更多的东西,反而没用。避免“过度分析“,那样可能比你需要的更多,得不偿失。
最后,数据驱动的文化是一个反馈机制。表现最出色的运营团队通常他们每周数据报表都会讨论。大家能透明地访问数据,训练并解释它。通过汇报所采取的行动结果让每个人都尽快开始。
PM的数据分析窃以为分为3个部分:
1.数据监测:通过测度产品所表现的关键相应指标来评估产品目前的运行状况,并保障产品正常运行,如果有意外,第一时间发现,并分析原因;赘述一句,想象到的就不是意外,预案在此时通常很苍白,因此数据问责很有可能出现,PM也好,RD也好这时要冷静而不是抱怨。
2.数据探索:每一个PM都是贪心的,恨不得将所有可能测度到的数据全部让RD实现,这在效率和效果上都是个坏主意。因此,PM需要在让RD把所有数据都跑出来之前,做足探索,哪些数据有效,哪些没什么用,往往PM在处理项目时,评定优先级,而在数据上往往过于急躁。
2需要不断迭代,来完善1数据监测。
3.数据假设与数据挖掘:通过数据来推翻而不是论证项目的假设。基于数据获取更多的知识,甚至能够通过数据自学习,形成良性的自我成长。
这3个部分能杀掉PM大量的时间,故形成BI体系,作为团队内部的知识分享平台,至关重要。
拆分题主的两个问题进行回答。
第一,如何评价产品经理拿数据说话?
首先产品经理拿数据说话一定是没有错的。
针对题主的疑惑:产品经理对数据抽取漫无目的,花了时间,但并不能产生指导性的产品设计思路。对此,我是这样理解的:你的产品经理似乎没有搞清楚产品的价值功能,目标涣散,导致把控不了价值数据。
你看我给你解释哈:
A. 价值数据?
数据分析本身是衡量一切后续产品改进的结果性指标。
这也正符合管理学大师彼得·格鲁克说过的:「If you can’t measure it,you can’t improve it.」
比起感性的推测,数据无疑是很靠谱的东西。而对于产品经理来说,在现有的数据里面发现机会,去找到能够让新用户用的更好停的更久,推荐更多人的方法,实现产品价值,就是数据最大的作用。
数据一般引导产品优化主要如下图所示:( Keynote做的 不喜你打我啊~ )
上图可以解释为:
观测数据后,结合业务经验推测这个现象是由于什么样的机制引起的,如果假设成立的话,推广这个机制可以更好地优化产品,反之产品或者运营可能会恶化或不变,可以通过前后持续的数据观察,对比数据变化的差异来分析假设是否成立。
但这个足够驱动产品优化的数据, 它应该是某些关键指标和那些可能产生差别的维度。
且不说跑数据的程序麻烦,(传统的手动埋点过程耗时1-2 个月不等),需要利用数据来支持的产品决策,等数据工程师把排队堆积的数据报表跑出来再分析,或许已经错过了最佳时机。
认清关键指标真的很重要,但这个似乎跟产品价值功能有关,
B. 价值功能?
说起价值,每家公司关心的点不同,而且随着时间而变化:
举个例子,比如一个产品的注册口设计,是尽可能让用户少填信息提升注册转化率,还是让用户完善信息方便销售部门后期跟进呢?当然,初创公司可能比较注重转化率,他们的注册入口往往很简洁,而成熟型企业就更关注销售线索,注册步骤相对繁琐。
再来个例子,Teambition | Tour-团队协作工具,最关心的数据是:有多少内容在 Teambition 上创建出来,所以用量是最核心的数据。
做这个产品的核心价值在于让用户可以在 Teambition 互相配合、协作、沟通,一让大家有事可讨论,有事可协作。优化这点比关注其他更能吸引和留住用户。
一切数据的核心逻辑就是这个,能够映射到公司任何一张其他数据图上。
不过,工具类产品比较依赖产品功能的好坏,如果不好说明什么,那么:
说个大一点的例子(To C方向),滴滴和 Uber 。Uber 总结自己最核心关注的数据是:乘客打车时手按下去后,专车到乘客面前的时间,而滴滴关心的只是定单量的多少。
升华一些,Uber 通过优化这一点,实现了自己的产品价值:优步让交通效率提高了。基于这个「价值」,优步对自己定位更准,对产品体验把握也更准。再说回滴滴,订单量需要关注的方面更多,我相信,滴滴的产品经理或者数据分析师一定泡在数据堆里,想方设法在试探提高订单量的功能优化点吧。
……(举个例子想破头,不要问更多了,不要说还没代表性,你说我,我就……看下面)
上有很多PM必备技能的思维导图,里面必有一项是数据分析。好吧,那么国内PM真的修炼了成数据分析么?我只在两家中型的电商做过,说下我的感受吧。我看到现在,除非是从分析转产品的PM外,很少有PM懂得广义上的数据分析,但是他们仍然把“用数据说话”、“要有数据”挂在嘴上。
数据和调研是否有用?我相信很少PM懂一些细节,比如”我们至少要找几个真实用户来调研或做可用性测试“。那么他们怎么做?我的个人想法是,PM没有必要做真正的数据分析专家。PM要懂得相信团队中在这方面比他更专业的同学。如果啥都是PM自己说的算,那是够头疼的。
在项目中,我觉得最可怕的就是来自”爱添乱“的领导的需求。这玩意儿一定得上线,尽快上!!做不做调研?我觉得这取决于做事情的人的心态。资源已经被浪费了,但项目上线后的糟糕数据,以及”不及时“的调研结果,可能可以让糟糕项目快速结束,释放资源做更多的事儿。如果调研出来结果是靠谱的,我想也能激励一下团队。战略没错,可能战术需要调整。
PM该如何做数据分析?有一个很基本的是每个PM都可以做的,就是选择一个合适的指标来评估项目或功能的好坏。这个指标甚至可能是以前没的。有没有感觉我在说废话?PM应该是很懂自己的产品和用户才对。但我在工作中我看到的是,PM选择了不合适或不相关的指标来定期汇报项目进展。大家都在用数据汇报,这能叫拿数据说话么?
不了解数据的局限性是很危险的。
最直接的原因:能被系统记录的用户行为数据只是用户全部使用行为的一个很小的子集,只是行为的一个侧面、一个剪影而已,更不用说用户心理层面的东西了。数据分析的最大优势是极大的样本量,这是其他用户研究方法所不能比拟的,但是即便是一亿个剪影加起来那还是一群剪影,而不是事物本身。
因此,千万不要把数据太神圣化了,数据分析是接近真相的一种手段,但远不是全部。
产品经理经常需要评估功能/产品的可行性,漏斗图便是考核数据效果好坏的重要图表之一。
一、何为漏斗图
1、概念
漏斗图在Google Analytics的报告里代表“目标和渠道”,在Web Trends里叫做“场景分析”,在Omniture的SiteCatalyst里被称为“产品转换漏斗”。虽然漏斗图称呼不一样,但它都是用来衡量网站中业务流程表现,并适用于电商等各个行业。漏斗图可以非常直观地看出网站业务流程中的问题所在,从而加以完善。
2、适用场景
漏斗图适用于业务流程比较规范、周期长、环节多的流程分析,通过漏斗各环节业务数据的比较,能够直观地发现和说明问题所在。最常见的分析场景有:
1)以电商为代表的网站(APP):通过转化率比较能充分展示用户从进入网站到实现购买的最终转化率,漏斗图是评判产品健康程度的图表,由网站的每一个设计步骤的数据转化反馈得到结论,然后通过各阶段的转化分析去改善设计,提升用户体验的同时也提高网站的最终转化率。
2)营销推广:反映搜索营销的各个环节的转化,从展现、点击、访问、咨询,直到生成订单过程中的客户数量及流失。
3)CRM:客户销售漏斗图用来展示各阶段客户各个阶段转化比较。
3、呈现工具
能做漏斗图的数据工具有很多,我用过的有Excel、BDP个人版、Echart(需要写点代码)。
4、有何意义
1)快速发现问题,及时调整运营策略
漏斗图是对业务流程最直观的一种表现形式,通过漏斗图可以很快发现流程中存在的问题,通过相应的方式进行优化,漏斗图又可以很直观的告诉我们流程的优化效果。
2)直观展示两端数据,了解目标数据
漏斗图最直观展示网站分析中的两个重要端点:流量导入端——产生收益端,有多少访客访问了网站,有多少人给网站带来了收益。当我们通过各种推广和营销方式把用户拉到网站后,如何尽可能让更多访客产生收益才是最重要,而漏斗图的作用就是描绘网站中后一端的数据情况。
3)提高业务的转化率(营销推广)
漏斗图直观暴露问题后,可以在不增加现有营销投入的情况下,通过优化业务流程来提高访客购买率,进而提高访客的价值,并且这种提高的效果是非常明显的。
4)提高访客的价值,提高最终的转化率(一般是购买率)
在现有访客数量不变的情况下,提高单个访客的价值,进而提高网站的总收益。
其实3)和4)都是通过漏斗图发现问题优化后的延伸意义了,最重要还是通过漏斗图能够发现问题,并通过优化提高某些环节的转化率,最终起到提高整体效益的作用。
二、“漏”斗图实战
先来一起分析下这个数据,这个数据是网上随意找的,只是作为一个案例,大家不要太在意数据啊。作为电商网站,首先用户进入平台找到适合的商品后开始浏览,最终到底有多少人完成订单了呢,10000个用户浏览,只有17%的用户最终购买并完成了订单,这个转化高低由不同的网站去评判,大部分网站肯定希望这个转化率越高越好,那我们就需要了解每一步的转化率情况:
从浏览-购物车“漏”了60%,这步流失最多,也是用户是否愿意购买最重要的一步,是否能通过商品页UI优化、明显露出“加入购物车”button等方式提高这步的转化率;
从购物车-生成订单“漏”了25%,表面上看这个好像流失不多,但我们能否通过一些俏皮的提示让更多用户把商品从购物车带走呢?
生成订单-支付订单又“漏”了33%,这个数据值得反思,用户都已经生成订单了,还有这么多人在买前后悔或犹豫,除了这个原因,是不是还有其他的原因,比如支付方式(少了最常见的支付宝、微信或出现故障)是否出现了问题、是否经常出现没货的情况等,这些都是导致用户最终不支付的原因。
支付订单-完成订单还“漏”了15%,这是什么鬼,这个数据一定要关注的,一定要找出原因,就差一步用户的钱就到手了,怎么跑了这么多人呢,有种“到嘴的鸭子飞了”的感觉,赶紧查下原因:是不是支付渠道经常出错,还是网站太卡用户不想等了,这些问题都要好好解决。
以上这段文字很重要,可以认真思考下,再来看下工具是如何弄出漏斗图吧!
1、Excel(这个是最近看着网上教程刚学的,详细步骤大家可以参考网上教程哈)
第一步:计算占位数据,制作堆积条形图(选中数据,插入图表即可),数据由占位数据和实际数据相加,占位数据=(第一环节人数-当前环节人数)/2
第二步:调整纵坐标轴(选中纵坐标轴,鼠标右键—设置坐标轴格式—坐标轴选项中勾选“逆序类型”),将“人数”此条数据居中显示(鼠标右键—选择数据—将“人数”单击下移);
第三步:选中辅助列数据所在的橙色条形,通过设置无色无边框将占位数据条隐藏;
第四步:添加外框连接线、箭头和转化率,这样就OK了。
2、BDP个人版
第一步:将Excel数据导入;
第二步:分布将流程和人数拉到维度、数值栏,选中“漏斗图”,可以水平或垂直放置,显示每个环节之间的转化率。
第三步:命名图表标题并保存。(为什么颜色不同,因为我调了颜色啊,也可以调整主题背景)
以上就是我对漏斗图的一些粗略了解,希望我们尽快掌握好漏斗图,好好应用到实际工作中去!
数据说话,其实也分情况的。
1.产品数据是否真实,真正到能反映产品真实情况。
这要求首先采集的数据非常准确,之后对采集原始数据加以分析,且分析的目的性非常明确,分析出的结论正好反映了产品了产品的真实情况,(注意不是反推,不是因为产品出现了什么情况,再根据其去采集数据做分析建模型;因为数据分析体系大公司是前期就架构好的,小公司是临时采集临时分析)如果是,那么拿数据说话是必然的
2.产品数据没有或者不真实了,就拿行业经验,相似产品的数据和分析结论进行验证,进而规避调整优化产品
3.最后如果没产品数据,没行业数据or相似产品数据,那么就凭借管理者的个人经验来决定,因为他是管理者,他有其在某个领域的相对权威性
用数据说话不代表着跑数据,调研一下更不代表着跑数据。
用数据说话不是用数据做决定。在互联网行业里,PM自身的判断能力非常重要,也是在招聘PM时非常关注的点。
PM的判断如何更可靠?可以用数据进行辅助,在关键问题上,需找核心的数据、理论、逻辑分析来支撑判断。
问题中也提到了“有些数据是肯定必要的,有些数据是可要可不要的”。其实一个好的PM需要搞清楚哪些是作出判断的关键点(关键点,不只是数据),并以此搞清楚到底需要哪些数据。
如果一个PM不重视数据,那就不是判断而是拍脑袋甚至只算是拍胸脯而已。
如果一个PM每次都是用一堆详细的数据去判断每个问题,一方面这本身就是不可能的,另外一方面这个PM也没什么价值。
此外还要说明的是,数据本身也是培养PM判断力的主要教材。
之所以被质疑,无非两个原因:
1. 你的话语权不够大,公司里有资格拍脑袋的无非两种人,一是老板,二是专家,显然你都不是。
2. 其他人并没有你那么强的意愿去推动这项目。在他们看来,既然不着急,不妨找个理由拖着,缺乏数据支撑是最好的借口。
解决的方法也显而易见:
1. 成为他们。
2. 去了解别人不够支持这项目的原因,去找到共同推进的利益点,去让更多人与你站一边。充分的数据支撑、严密的逻辑推理只是其中一条路子,喝酒露肩拜把子也是。
不过这又是一个和数据息息相关的问题。
聪明的你应该能猜到第三种方法:
3. 让自己对数据更熟悉,更敏感,更得心应手。下次产品找你之前,不等他开口,你早已一堆数据了然于胸,如千军万马供你驱使,就像魔法师一样,不但一千年前就知道4级以上的更合理,还知道一旦4级以上用户被XXX了以后对4级以上的活跃将造成什么影响,整个平台的等级分布会怎么变化,对新进有没有造成激励。当你在那里这么谈论数据,如果产品是女的,她会爱上你;如果是男的,会让你掰弯。
这一天到来的时候,你离团队的专家也就不遥远了,以后又可以恣意妄为的拍脑袋了,嘿嘿。
数据分析主要分为三部分a、数据采集 b、数据处理 c、数据建模及呈现 前两者占据了数据分析工作的8成以上的时间。它们直接关系到数据的准确性。
数据不是万能的,更不是救世主,它只是一种比较靠谱的决策方法,给PM底气。有人说我原来说用户需要这个功能,数据分析做了半个月,结果还是这个功能要做。试问,之前你的观点劝服他人么?如果有,那么为什么要做数据分析呢?如果没有,您当时敢不敢立下军令状直接来做呢?哪怕你立下军令状来做了,中途遇到相悖的现象,你会不会动摇做下去的信心?
有一个故事,我在度娘里输入了 “二战、飞机、统计、钢板”得到下面这个故事:
有时候呢,故事讲完会比较好,要不还得让读者自己去百度,结果是数学家提出的嘛,并且加钢板的位置是座舱和尾翼嘛。
关于下边这个例子(不好意思,借用了上边兄弟)
不管你是Facebook 还是 Live Space 改版,用户对你评论本来就是忠诚度的一种表现,
统计一下数量就显而易见了。抱怨是因为你改变影响到了用户的使用,你可以选择修改
产品或者改变用户习惯,都行。这个例子和结论有点奇怪。
4、对于显而易见的结论要不要做数据验证?其实工作当中多数是决策有分歧或者是结果
出现异常的时候,数据分析才登场唱大戏。
5、把数据作为信仰的数据工作者,会保持数据的客观性。你看或不看,数据就在哪里,
不偏不倚。有时候你可以从自己的职业角度解读数据,这个是数据工作者希望看到的,闻道
有先后,术业有专攻,当局者的角度看数据是最犀利的。
1、我是觉得PM应该看数据的,而且要非常关注数据;
2、但是数据是会说谎的,这其实在于你怎么去看数据,这里面,经验很重要,不同的人对同样的数据会有不同的解读;
3、总体而言,不懂商业就不要谈数据,要理解数据背后的商业逻辑;
“ 实际上,该功能整个平台的用户都希望做,是没有必要耗费人力评估的”
这个用户数也是数据,除非所有人都知道,否则就应拿出来给大家看,PM提出需求的同时,就应该说明必要的理由,否则即使都听你的,团队也得不到成长。一个听话的团队执行力高,问题是怎么让别人听话,不是跳起来说我是PM就行的。
数据分析在绝大多数情况下只是实现了一个知识整理的过程~
如果你还呆在团队里,请多考虑一下其他人的观感。3分钟抛一个点子出来的人是不太能让人信服的。除非你真的很牛。
虽然有时候,主观判断是性价比最高的选择。
但处在一个团队的时候,需要这样一个姿态。
“这个结论,是我花费了巨大的努力得出来的。这货是值得信任的。”
PS.楼上有人说了一句话确实很有道理。
拍脑袋决策,拍胸脯保证,拍大腿后悔,拍屁股走人。这种事能免则免。
“PM凭经验可说4级以上的用户可xxx,这时候会有人跳出来问,为什么不是3级、5级?拿出数据来。 实际上真看了数据又能看出什么呢?看完后无非是再次验证了4级,而且看了数据后主管判断还是PM来下的”
用数据验证自己的想法是必要的,但是不可能每次都是通过验证,一定有数据显示推翻PM设想的情况。倘若每次都是验证PM的设想,基本上可以肯定PM是带着主观意向去看数据的,他从数据中找出支持自己论点的部分,然后来说,你看如何如何。。。数据是不会撒谎的,关键看你如何解读!我想这种情况下,rd需要更积极主动,要求PM说明他的分析逻辑,从中提出质疑。
“调研一下有没有必要,评估数据搞半个月,评估的结果是:嗯,可做。 实际上,该功能整个平台的用户都希望做,是没有必要耗费人力评估的,只要做就可以了。”
一半一半。如果评估的结果是不可做,即使评估数据搞了1个月、甚至2个月,也是值得的。如果用户。PM都认为应该做,也建议先进行一个数据分析,可以是粗糙的,但却是必须的。一件事情做不做可能是可以凭经验决定的,但是具体如何做,却需要数据的支持。
数据分析绝对是必要的,不过如何解析数据却是一门大学问,每个指标是如何产生的,指标代表的意义是什么,核心指标是什么等等。
数据这个事情啊…最实用的场景无非两个:
证明自己,或者质疑别人
当然,真正科学的做法是“高效衡量、数据驱动”,这个有珠玉在前,讲得很清楚了
数据(报表)是生产型企业衡量自己的成本、支出的重要工具。
然而对于非实体生产,数据根本没有意义,或者说只有参考价值。
然而因为专业细分,现在管理层更多是“专业人士”而不是拥有强决策力判断力的人,所以就只会依靠报表数据,于是产品策划都是为了刷数据好看而做而不是为了实际使用。并且都会为了刷自己需要的数据而无视其他的价值。
结果就是东西越来越烂。
魔兽世界就是典型的例子,几年前开始大幅度简化,快餐化,脑残化游戏以后,这游戏已经成了渣了。但是在财报上,玩家数量可比以前多了,于是根本不懂游戏股东就认为这些改动好。可是他们能够理解500W 60年代硬核玩家和1000W CTM后蝗虫玩家在质量上的区别?
这种三产产品,完全就是财报毁产品。用数据做参考,可以;但是只会用数据,从理论上应该回家歇着,但是实际上果断是可以升职的啊!因为那些决定产品经理可不可以升职的人,更是只会认报表数据的。
在产品工作中,数据有四个作用:验是非,明主次,查缺漏,知用户。展开来说:
验是非,是说数据可以帮助我们检验自己的想法是否正确。在用数据检验一个想法的时候,需要:
1. 必须是一个可以有客观结论的问题,比如用安“卓的用户多还是苹果用户多”。而像“我们今晚该吃饺子还是米饭”这类问题数据无法回答。
2.样本有代表性,取样充足(最好全量数据)
3.数据收集过程没有错漏。
楼主举例的这个问题,就是典型的数据误用。数据不能告诉你应该定在几级用户,这个判断一定是根据产品的状况和策略来决定的,数据只能提供判断的支持。
明主次,是指数据可以帮助产品决策确定因素的主次。a功能对用户的影响更大还是b功能?不用吵吵,直接看数据就好了。
查缺漏,是指数据的异常变化可以帮我们发现工作中的疏漏之处。这是为什么日常产品工作中,数据的监控是其中的重点工作之一。
知用户,是指用户在使用产品过程中产生的数据,往往暗示了他的一些个人特性。善用这些数据,可以给用户提供更好的个性化服务。比如喜欢卖运动服的用户,更有可能对运动器材也有兴趣,等等。
总结一下,数据是产品经理最重要的工具之一。善用数据,可以让产品工作如虎添翼。但是,数据不是万能的,数据不能替代人的判断,不能告诉你前进的方向。
不要做数据的奴隶。
1. 做产品一定要有数据,不然你的任何运营拿什么给老板说事儿呢?这是指针对自己所负责领域,你关心的数据;
2. 基础数据也要关心,如果有闲工夫,对于产品整体的基础运营数据,哪怕部分和自己干的活儿没关系也可以多关注,里面多挖挖,肯定会有一些结论性的东西输出,对运营有着指导意义;一般这种需要将数据抽象出多个纬度,然后纬度1*纬度2*纬度3多维度的分析,当然每一个交叉分析都是一个方向,也代表了一个主题;可以先画个脑图,把各种方向主题抽象出来,选取自己认为最有价值的,利用现有数据炒一盘菜;
3. 数据帮助你找出可能存在的问题,数据波动异常快速定位查找原因,这是必须的;人因为呼吸知道自己活着,产品通过数据的趋势知道运转正常与否;
4. PM毕竟不是专门的数据分析人员,不要用大数据处理的要求去要求PM,不是每个PM都是数学系数据挖掘出身,但是PM要有数据意识,至少知道自己做的事情可能会对哪些数据产生影响;另外,也需要用小学数学可能就足够的计算方法去对数据进行一些交叉运算与处理,得出结论,这过程就和做数学题差不多,不会太难,重要有心;这点重要是给自己的工作拿准一个方向;
5. 另外说,做数据是个体力活+脑力活…而且极其细致,还是很锻炼人的…
拿数据说话是好事,但最基础的前提有几个:
1.我要关注哪些数据。
比如一个筛选类页面,我关注它的页面停留时间的意义大不大,是不是看导流率以及留存、点击分布、跳出率会更有效?
2.这些数据的定义是什么,应该怎么看,在哪些情况下他们是适用的。
这个筛选页面的留存指的是什么,是新增用户留存还是活跃用户留存?各自的计算方法是什么?
3.这款产品是否需要很多维度的数据支持。
一个页面的统计纬度,可以直接脱口而出的就有pv、uv、puv比、点击uv比、跳出率、点击分布、留存、停留时长、停留时长分布等等指标。这些指标我是不是都要看?迭代之前有没有必要一下子跑这么多东西出来?
======================================================
如果跑数据只是求一个心理安慰,那其实跑了和没跑基本没啥区别。
题主问的问题可能还是存在于给技术造成了工作负担,如果相关数据及获取方式可以以简便的形式开放给于非技术员工,压力其实会小很多。
首先,“拿数据说话”是两面的,一方面是PM自己拿出来,一方面是PM要你拿出来,不管谁拿,就碰到我说的第二个问题,即“二手数据”的问题,大部分上班的人碰到被要求数据的时候都是一顿海搜,去找有没有成形的数据/分析/研究报告,也就是说,这部分数据的真实性不可考,这么做不管有意无意,基本上是糊弄上级,假如数据对了,你就引对了,数据错了,你也无能为力,所以一切依赖数据,却不给你获取一手数据所需要的时间、资源,那不过是附庸风雅,当然这也是现实情况的制约,没有哪几个公司特别是中小型公司能真正养得起分析部门,会针对公司所有业务去进行分析、采样、设计、统计和再给出靠谱的报告,自然,他们也不会到市面上找各种靠谱不靠谱的咨询公司来帮他们做这个事(这当然也是一个选择),所以假如他们是诚心要数据,而不是希望向上面交差的时候有数据气足一些的话,那么就得认可拿到真实数据所需要的时间,做出相应开发进度的调整和相应资源的保证,不然的话,他们可以就是希望你google一下罢了,要知道中国企业并没有上百年的基础和社会环境,并没有培养起什么严谨的商业习惯,现在都在学,学得更正规,更严谨,但是这些并没有植入中国人的血液,我们可以口头说得多严谨,但是这不是我们血液里的东西,我们的态度是大而化之,好吧,把“们”字去掉吧,此外,学任何东西肯定都是从形式开始的,包括商业态度。
补充一点,把刚才的文字重新看一遍,发现我的观点大体上是反对的,原因是,不是反对数据的权威性和客观性,而是对于要不专业的人出数据,我是非常反对的。那样的话仅仅是走个形式,虽然中国的IT公司大都是通材(没办法,被逼的),但你真正想要靠谱的东西的话,谁都知道,专业人做专业事,你能轻松搞定统计学,那么你干脆考虑一下,是不是入错行了不该干编码/设计呢?好吧,我这是胡搅蛮缠了,只是希望那些逼人出数据而且诚心需要那些数据的,你多问他一个问题:小子,你大学的统计学是考前突击通过的么?
就我自己来说,就是根据数据分析及时监控调整效果,在绩效这一块一年涨了四次,从而顺利进入到10K+的行列的。这里简单分享一下数据分析和怎么快速上手操作数据分析,希望能帮到大家。
“一切不以转化为目的的数据操作都是耍流氓”
数据分析是通过有针对性的数据收集,发现推广中存在的问题,然后通过分析找到解决问题的方法。说白了,数据分析就是发现问题,并且解决问题。相较于凭感觉凭经验做事,数据更客观、也更科学。
数据分析在实际的工作中能够帮助我们解决哪些问题?
监测广告效果:
发现网站流程问题:
监测目标达成结果:
找到最多流量的媒介来源或渠道:
知道用户用什么浏览器和设备访问你的网站:
找到最有价值的访客来自哪里:
发现是否在一个活动上浪费钱:
了解用户在你的网站上喜欢做什么:
测试不同版本的广告,哪个用户更喜欢:
知道用户付款前都做了什么:
那么,如何做数据分析?
这里就简单举个栗子来说说快速掌握做数据分析的技巧。
①做数据分析之前要理解数据
数据是我们调整账户的依据。比如点击率下降你要知道为什么会点击率下降,导致点击率下降的因素都有哪些?又比如点击率下降,同时点击价格上升又会是什么原因。这些是根据我们以往的工作经验积累的,只要是有心人这些基本的知识是很容易能够掌握的。
接着进一步考虑,如果我进行了一些调整之后,我的数据会产生哪些变化。可能我针对性的优化创意之后,我的点击率会上升,然后我的质量度会增加,甚至我的平均点击价格会下降。如果掌握了这个能力,你就可以是主管级别的人才了,因为每月的计划、预算、效果都是根据这些来优化的。
②做数据分析之前要整理数据
常见的数据表格是这样的:
这样的表格非常不利于分析,所以在数据分析的工作之前要进行的是数据整理的工作。其实这也是我们为什么没有分析思路的原因之一。因为我们有时候是为了统计数据而统计数据,甚至不知道为什么要统计这些数据。所以正常的数据分析流程应该是先确定分析目的、收集所需数据、整理数据、分析数据、得出优化意见。
那么,通过数据整理后的表格大概是这样子的:
繁杂的数据经过整理之后,是不是就变得清晰明了?这是用了时间的维度进行整理的,我们还可以用计划维度或者地区纬度进行整理。
③整理完数据之后我们开始进行分析工作
这组数据属于典型的整个营销流程的效果分析,整理完的表格我们一目了然。
5月份相比4月份消费下降近5分之4,成交成本、预约成本下降近3分之2,对话同比有增加。这说明了流量更加精准,竞价员进行了匹配模式的修改,相关关键词的价格进行了有效的调整。另外结合外部环境,还有一个重要原因就是有一家直接竞争对手退出了推广。
但是同时又可以看到,预约和成交有下滑,其中成交量降将近2分之1,预约率、到院率下滑较大。这个时候我们需要分析一下流量的质量,这个流量的质量包括投放的关键词的质量以及关键词匹配出来的搜索词的质量。如果流量质量没有问题的话,再排查掉小概率的咨询工具的问题,剩下的就要重点考虑客服这一块了。想说的是,预约率低的话,我们还可以用导图工具很容易找到问题。如下图:
成交率下降就不再说了,这里重点是告诉大家如何去运用思维导图去分析问题。
④最后得出结论:账户层级的操作基本正确,在预算充足的情况下,应进一步提高消费,把钱优先花在转化效果好的数据上。毕竟控制成本不是我们想要的结果,没有一个老板想要员工给他尽量去省钱,而是想着多赚钱。另外,数据反映客服那边出现的问题较多,需要重点去针对解决。
到此为止,我们进行了整个数据分析流程。
以上是我对怎么评价产品经理拿数据说话这回事?如何做数据分析?这个问题的见解,希望能够帮到大家。共同学习,共同进步,我在这里学习互联网数据分析课程,欢迎一起交流~
数据必要,但并非唯一。
以数据说话是一种可靠且可见的有效依据,但并非万能。
确定目标并且以数据做根据,可以对实施内容的有效性做较好的验证,
同时,对于以往的数据进行分析、对比,才能不断优化与完善;
但一味的为了达到某些数字目标,就会出现作弊或强奸用户等行为,得不偿失。
合理的将数据作为自己的工具,而不是唯一目标。
作为一名产品人员,纠结于此,同时也以此为准则。
数据挖掘是一个科学、严谨的活,为什么同样的数据会出来很截然相反的结果呢?
作为一个合格的数据分析人员要求掌握的知识范围非常广泛,通常一般公司里的数据分析员的知识非常窄,缺乏的东西太多,这样在建立分析模型的时候就会发生 影响因素缺失、影响因素比重设置偏向错误的现象。
不是随便一个统计人员就可以做数据挖掘研究员的,也不是随便一个理论研究员可以做数据挖掘研究员的,这个岗位特别强调知识方面的均衡性,和【全面工作经验】,注意不是工作经验,一般来说行业的限制性非常强,可以考虑多个方面的专家一起做这个事情。
目前中国已知的咨询行业中,合格的数据分析人员非常罕见,这造成人们对市场调查存在着严重的偏见,这和从业人员素质普遍不达标有关。
我觉得这种数据不一定需要精确,但一定要准确。你怎么知道结果就一定是4级呢?也许分析的结果就是3级或者5级。有哪些功能是必须上的?领导就不觉得是必须上?调研的结果经过需求分析是没有必要做的呢?这些事情都是要靠数据去佐证的,不是国企或者某些无所谓的结构,错了就错了,无所谓。如果能避免,那情愿花一些时间和精力去做这件事情。当然如果一个事情大家都投肯定票的话,那就也是一种调研了,只不过是一种隐性的。
其实不管是谁,都应该拿数据说话,运营更应该如此,但是凭经验这种事不是一个好的数据思维。好的数据思维,可以很有效的验证你做一件事情的效果。
一位前辈曾经说过:这些年,我只相信数据和自己。离开了数据谈运营就像坐出租车不打表,看不到效果,一切都是在自嗨。
首先看看数据反馈都有哪些坑(keng)
转发阅读数多不等于宣传效果好
大数据等同于数据分析
投放维度不以数据做依据
盲目选择宣传渠道产品调整靠脑补,不看用户行为
还是把产品分为三个阶段,萌芽期,发展期,成熟期,每个阶段数据反馈都应该怎么做。
1
在产品的萌芽期,主要关注转化。有多少流量来到了的网站,这里面有多少进行注册,最后有几个人进行了付费行为,这就是转化。要实现这个,首先要制作检测链接,然后就是设定转化的goal(目标)。不同的运营,目标也不一样,有的是注册,有的是付费。
这个阶段做数据反馈,要确保跑赢业务流程,就是这个业务是可以盈利的。否则,趁早换别的商业模式。
2在产品发展期,主要关注优化。通过数据反馈,看用户行为的背后,哪些地方是阻碍用户体验的,优化以提高转化率。优化分为产品面跟运营面。
在产品面,关注着陆页的优化。用户第一次来到你的网站,只给你3秒钟的时间,能不能留住他们就靠着陆页。功能页的优化,功能是硬实力,网站的核心功能用户有没有在使用,用的爽不爽,解决他们问题了吗?转化点的优化,用户最后觉得你的产品不错,想进一步操作,是不是很方便用户。我曾经浏览过一个网站,东西都很吸引我,当我想购买的时候找不到按钮……在运营面,关注内容和渠道的优化。这个可以用单变量测试法,渠道不变测试哪个版本内容好,内容不变测试哪个渠道好,这样筛选出好的内容跟好的渠道。关注用户群体的优化,用户定位越精确,运营效果就会越好。
3
在产品成熟期,数据分析主要目标是开源节流,企业效益最大化。流量的方式不断在变化,渠道也在更新换代。数据分析就是关注哪些渠道质量在下滑,哪些渠道有新的机会。
数据反馈总结:
数据反馈思维不完全等于只看数字关注和自己业务相关的数据
所有的数据反馈目标都是转化率
数据指导产品调整,产品促进营销
通过数据挖掘新的机会
最后,欢迎关注个人公众号:运营笔记100【yybj100】
发布于 2016-09-18 添加评论 感谢 分享 收藏 • 没有帮助 • 举报 • 作者保留权利
黄建 一只修炼中的营销喵~个人微信号jianjian-98
我特别不喜欢装逼的产品经理,看文章也一样不喜欢华而不实的。所以督促自己写文章时,把懂的、经历过的能细就写的尽量详细;不懂的就去学,然后把整理的笔记分享出来,数据分析方面我涉入不多,内容由于缺少实战经验,会比较基础和理论,希望同样对你有帮助。
1. 明确数据分析的目的
做数据分析,必须要有一个明确的目的,知道自己为什么要做数据分析,想要达到什么效果。比如:为了评估产品改版后的效果比之前有所提升;或通过数据分析,找到产品迭代的方向等。
明确了数据分析的目的,接下来需要确定应该收集的数据都有哪些。
2. 收集数据的方法
说到收集数据,首先要做好数据埋点。
所谓“埋点”,个人理解就是在正常的功能逻辑中添加统计代码,将自己需要的数据统计出来。
目前主流的数据埋点方式有两种:
第一种:自己研发。开发时加入统计代码,并搭建自己的数据查询系统。
·
第二种:利用第三方统计工具。
·
常见的第三方统计工具有:
网站分析工具
Alexa、中国网站排名、网络媒体排名(iwebchoice)、Google Analytics、百度统计
移动应用分析工具
Flurry、Google Analytics、友盟、TalkingData、Crashlytics
不同产品,不同目的,需要的支持数据不同,确定好数据指标后,选择适合自己公司的方式来收集相应数据。
3. 产品的基本数据指标
新增:新用户增加的数量和速度。如:日新增、月新增等。
活跃:有多少人正在使用产品。如日活跃(DAU)、月活跃(MAU)等。用户的活跃数越多,越有可能为产品带来价值。
留存率:用户会在多长时间内使用产品。如:次日留存率、周留存率等。
传播:平均每位老用户会带来几位新用户。
流失率:一段时间内流失的用户,占这段时间内活跃用户数的比例。
4. 常见的数据分析法和模型
这里主要科普下漏斗分析法和AARRR分析模型。
·
漏斗分析法
·
用来分析从潜在用户到最终用户这个过程中用户数量的变化趋势,从而寻找到最佳的优化空间,这个方法被普遍用于产品各个关键流程的分析中。
比如,这个例子是分析从用户进入网站到最终购买商品的变化趋势。
从用户进入网站到浏览商品页面,转化率是40%;浏览商品到加入购物车转化率是20%等,那要找出哪个环节的转化率最低,我们需要有对比数据。
比如第一个,进入网站到浏览商品,如果同行业水平的转化率是45%,而我们只有40%,那说明这个过程,没有达到行业平均水平,我们就需要分析具体原因在哪里,再有针对性的去优化和改善。
当然,上面这是我们设计的一种理想化的漏斗模型,数据有可能是经过汇总后得出的。而真实的用户行为往往可能并不是按照这个简单流程来的。此时需要分析用户为什么要经过那么复杂的路径来达到最终目的,思考这中间有没有可以优化的空间。
AARRR模型
·
这个是所有的产品经理都必须要掌握的一个数据分析模型。
AARRR(Acquisition、Activation、Retention、Revenue、Refer)是硅谷的一个风险投资人戴维 · 麦克鲁尔在2008年时创建的,分别是指获取、激活、留存、收入和推荐。
举个例子,用AARRR模型来衡量一个渠道的好坏。
如果单从数据表面来看,A渠道会更划算,但实际这种结论是有问题的,用AARRR模型具体分析如下:
渠道A的单个留存用户成本是60元,单个付费用户成本是300元;而渠道B的单个留存用户成本是20元,单个付费用户成本是33元,这样对比下来,明显B渠道的优势远远大于A渠道。
5. 常见的数据分析法和模型
在上篇提到的漏斗分析法和AARRR模型外,这里再补充一个:交叉分析法。
交叉分析法:通常是把纵向对比和横向对比综合起来,对数据进行多角度的结合分析。
举个例子:
a. 交叉分析角度:客户端+时间
从这个数据中,可以看出iOS端每个月的用户数在增加,而Android端在降低,总体数据没有增长的主要原因在于Android端数据下降所导致的。
那接下来要分析下为什么Android端二季度新增用户数据在下降呢?一般这个时候,会加入渠道维度。
b. 交叉分析角度:客户端+时间+渠道
从这个数据中可以看出,Android端A预装渠道占比比较高,而且呈现下降趋势,其他渠道的变化并不明显。
因此可以得出结论:Android端在二季度新增用户降低主要是由于A预装渠道降低所导致的。
所以说,交叉分析的主要作用,是从多个角度细分数据,从中发现数据变化的具体原因。
6. 如何验证产品新功能的效果
验证产品新功能的效果需要同时从这几方面入手:
a. 新功能是否受欢迎?
衡量指标:活跃比例。即:使用新功能的活跃用户数/同期活跃用户数。
使用人数的多少还会受该功能外的很多因素影响,千万不可只凭这一指标判断功能好坏,一定要结合下面的其他方面综合评估。
b. 用户是否会重复使用?
衡量指标:重复使用比例。即:第N天回访的继续使用新功能的用户数/第一天使用新功能的用户数。
c. 对流程转化率的优化效果如何?
衡量指标:转化率和完成率。转化率即:走到下一步的用户数/上一步的用户数。完成率即:完成该功能的用户数/走第一步的用户数。
这个过程中,转化率和完成率可以使用(上)篇中提到的漏斗分析法进行分析。
d. 对留存的影响?
衡量指标:留存率。用户在初始时间后第N天的回访比例,即:N日留存率。常用指标有:次日留存率、7日留存率、21日留存率、30日留存率等。
e. 用户怎样使用新功能?
真实用户行为轨迹往往比我们设想的使用路径要复杂的多,如果使用的数据监测平台可以看到相关数据,能引起我们的反思,为什么他们会这么走,有没有更简便的流程,以帮助我们作出优化决策。
7. 如何发现产品改进的关键点
产品改进的关键点,是藏在用户的行为中。
想要找到这些关键点,除了通过用户调研、访谈等切实的洞察用户外,在产品中设置相关数据埋点记录用户的行为,观察其行为轨迹,不能完全替代洞察用户的行为,不过也可以有助于决策产品改进点。
操作步骤:
这一部分的实际案例,小伙伴们可以下载该电子书,查阅第四章的内容。
数据分析这个领域,需要学习的内容,不仅仅只有我写的这些,如果对数据分析很感兴趣的小伙伴,也可以看看这个网站:
数据说话,其实也分情况的。
1.产品数据是否真实,真正到能反映产品真实情况。
这要求首先采集的数据非常准确,之后对采集原始数据加以分析,且分析的目的性非常明确,分析出的结论正好反映了产品了产品的真实情况,(注意不是反推,不是因为产品出现了什么情况,再根据其去采集数据做分析建模型;因为数据分析体系大公司是前期就架构好的,小公司是临时采集临时分析)如果是,那么拿数据说话是必然的
2.产品数据没有或者不真实了,就拿行业经验,相似产品的数据和分析结论进行验证,进而规避调整优化产品
3.最后如果没产品数据,没行业数据or相似产品数据,那么就凭借管理者的个人经验来决定,因为他是管理者,他有其在某个领域的相对权威性
用数据说话不代表着跑数据,调研一下更不代表着跑数据。
用数据说话不是用数据做决定。在互联网行业里,PM自身的判断能力非常重要,也是在招聘PM时非常关注的点。
PM的判断如何更可靠?可以用数据进行辅助,在关键问题上,需找核心的数据、理论、逻辑分析来支撑判断。
问题中也提到了“有些数据是肯定必要的,有些数据是可要可不要的”。其实一个好的PM需要搞清楚哪些是作出判断的关键点(关键点,不只是数据),并以此搞清楚到底需要哪些数据。
如果一个PM不重视数据,那就不是判断而是拍脑袋甚至只算是拍胸脯而已。
如果一个PM每次都是用一堆详细的数据去判断每个问题,一方面这本身就是不可能的,另外一方面这个PM也没什么价值。
此外还要说明的是,数据本身也是培养PM判断力的主要教材。
之所以被质疑,无非两个原因:
1. 你的话语权不够大,公司里有资格拍脑袋的无非两种人,一是老板,二是专家,显然你都不是。
2. 其他人并没有你那么强的意愿去推动这项目。在他们看来,既然不着急,不妨找个理由拖着,缺乏数据支撑是最好的借口。
解决的方法也显而易见:
1. 成为他们。
2. 去了解别人不够支持这项目的原因,去找到共同推进的利益点,去让更多人与你站一边。充分的数据支撑、严密的逻辑推理只是其中一条路子,喝酒露肩拜把子也是。
不过这又是一个和数据息息相关的问题。
聪明的你应该能猜到第三种方法:
3. 让自己对数据更熟悉,更敏感,更得心应手。下次产品找你之前,不等他开口,你早已一堆数据了然于胸,如千军万马供你驱使,就像魔法师一样,不但一千年前就知道4级以上的更合理,还知道一旦4级以上用户被XXX了以后对4级以上的活跃将造成什么影响,整个平台的等级分布会怎么变化,对新进有没有造成激励。当你在那里这么谈论数据,如果产品是女的,她会爱上你;如果是男的,会让你掰弯。
这一天到来的时候,你离团队的专家也就不遥远了,以后又可以恣意妄为的拍脑袋了,嘿嘿。
数据分析主要分为三部分a、数据采集 b、数据处理 c、数据建模及呈现 前两者占据了数据分析工作的8成以上的时间。它们直接关系到数据的准确性。
数据不是万能的,更不是救世主,它只是一种比较靠谱的决策方法,给PM底气。有人说我原来说用户需要这个功能,数据分析做了半个月,结果还是这个功能要做。试问,之前你的观点劝服他人么?如果有,那么为什么要做数据分析呢?如果没有,您当时敢不敢立下军令状直接来做呢?哪怕你立下军令状来做了,中途遇到相悖的现象,你会不会动摇做下去的信心?
有一个故事,我在度娘里输入了 “二战、飞机、统计、钢板”得到下面这个故事:
有时候呢,故事讲完会比较好,要不还得让读者自己去百度,结果是数学家提出的嘛,并且加钢板的位置是座舱和尾翼嘛。
关于下边这个例子(不好意思,借用了上边兄弟)
不管你是Facebook 还是 Live Space 改版,用户对你评论本来就是忠诚度的一种表现,
统计一下数量就显而易见了。抱怨是因为你改变影响到了用户的使用,你可以选择修改
产品或者改变用户习惯,都行。这个例子和结论有点奇怪。
4、对于显而易见的结论要不要做数据验证?其实工作当中多数是决策有分歧或者是结果
出现异常的时候,数据分析才登场唱大戏。
5、把数据作为信仰的数据工作者,会保持数据的客观性。你看或不看,数据就在哪里,
不偏不倚。有时候你可以从自己的职业角度解读数据,这个是数据工作者希望看到的,闻道
有先后,术业有专攻,当局者的角度看数据是最犀利的。
1、我是觉得PM应该看数据的,而且要非常关注数据;
2、但是数据是会说谎的,这其实在于你怎么去看数据,这里面,经验很重要,不同的人对同样的数据会有不同的解读;
3、总体而言,不懂商业就不要谈数据,要理解数据背后的商业逻辑;
“ 实际上,该功能整个平台的用户都希望做,是没有必要耗费人力评估的”
这个用户数也是数据,除非所有人都知道,否则就应拿出来给大家看,PM提出需求的同时,就应该说明必要的理由,否则即使都听你的,团队也得不到成长。一个听话的团队执行力高,问题是怎么让别人听话,不是跳起来说我是PM就行的。
数据分析在绝大多数情况下只是实现了一个知识整理的过程~
如果你还呆在团队里,请多考虑一下其他人的观感。3分钟抛一个点子出来的人是不太能让人信服的。除非你真的很牛。
虽然有时候,主观判断是性价比最高的选择。
但处在一个团队的时候,需要这样一个姿态。
“这个结论,是我花费了巨大的努力得出来的。这货是值得信任的。”
PS.楼上有人说了一句话确实很有道理。
拍脑袋决策,拍胸脯保证,拍大腿后悔,拍屁股走人。这种事能免则免。
“PM凭经验可说4级以上的用户可xxx,这时候会有人跳出来问,为什么不是3级、5级?拿出数据来。 实际上真看了数据又能看出什么呢?看完后无非是再次验证了4级,而且看了数据后主管判断还是PM来下的”
用数据验证自己的想法是必要的,但是不可能每次都是通过验证,一定有数据显示推翻PM设想的情况。倘若每次都是验证PM的设想,基本上可以肯定PM是带着主观意向去看数据的,他从数据中找出支持自己论点的部分,然后来说,你看如何如何。。。数据是不会撒谎的,关键看你如何解读!我想这种情况下,rd需要更积极主动,要求PM说明他的分析逻辑,从中提出质疑。
“调研一下有没有必要,评估数据搞半个月,评估的结果是:嗯,可做。 实际上,该功能整个平台的用户都希望做,是没有必要耗费人力评估的,只要做就可以了。”
一半一半。如果评估的结果是不可做,即使评估数据搞了1个月、甚至2个月,也是值得的。如果用户。PM都认为应该做,也建议先进行一个数据分析,可以是粗糙的,但却是必须的。一件事情做不做可能是可以凭经验决定的,但是具体如何做,却需要数据的支持。
数据分析绝对是必要的,不过如何解析数据却是一门大学问,每个指标是如何产生的,指标代表的意义是什么,核心指标是什么等等。
数据这个事情啊…最实用的场景无非两个:
证明自己,或者质疑别人
当然,真正科学的做法是“高效衡量、数据驱动”,这个有珠玉在前,讲得很清楚了
数据(报表)是生产型企业衡量自己的成本、支出的重要工具。
然而对于非实体生产,数据根本没有意义,或者说只有参考价值。
然而因为专业细分,现在管理层更多是“专业人士”而不是拥有强决策力判断力的人,所以就只会依靠报表数据,于是产品策划都是为了刷数据好看而做而不是为了实际使用。并且都会为了刷自己需要的数据而无视其他的价值。
结果就是东西越来越烂。
魔兽世界就是典型的例子,几年前开始大幅度简化,快餐化,脑残化游戏以后,这游戏已经成了渣了。但是在财报上,玩家数量可比以前多了,于是根本不懂游戏股东就认为这些改动好。可是他们能够理解500W 60年代硬核玩家和1000W CTM后蝗虫玩家在质量上的区别?
这种三产产品,完全就是财报毁产品。用数据做参考,可以;但是只会用数据,从理论上应该回家歇着,但是实际上果断是可以升职的啊!因为那些决定产品经理可不可以升职的人,更是只会认报表数据的。
在产品工作中,数据有四个作用:验是非,明主次,查缺漏,知用户。展开来说:
验是非,是说数据可以帮助我们检验自己的想法是否正确。在用数据检验一个想法的时候,需要:
1. 必须是一个可以有客观结论的问题,比如用安“卓的用户多还是苹果用户多”。而像“我们今晚该吃饺子还是米饭”这类问题数据无法回答。
2.样本有代表性,取样充足(最好全量数据)
3.数据收集过程没有错漏。
楼主举例的这个问题,就是典型的数据误用。数据不能告诉你应该定在几级用户,这个判断一定是根据产品的状况和策略来决定的,数据只能提供判断的支持。
明主次,是指数据可以帮助产品决策确定因素的主次。a功能对用户的影响更大还是b功能?不用吵吵,直接看数据就好了。
查缺漏,是指数据的异常变化可以帮我们发现工作中的疏漏之处。这是为什么日常产品工作中,数据的监控是其中的重点工作之一。
知用户,是指用户在使用产品过程中产生的数据,往往暗示了他的一些个人特性。善用这些数据,可以给用户提供更好的个性化服务。比如喜欢卖运动服的用户,更有可能对运动器材也有兴趣,等等。
总结一下,数据是产品经理最重要的工具之一。善用数据,可以让产品工作如虎添翼。但是,数据不是万能的,数据不能替代人的判断,不能告诉你前进的方向。
不要做数据的奴隶。
1. 做产品一定要有数据,不然你的任何运营拿什么给老板说事儿呢?这是指针对自己所负责领域,你关心的数据;
2. 基础数据也要关心,如果有闲工夫,对于产品整体的基础运营数据,哪怕部分和自己干的活儿没关系也可以多关注,里面多挖挖,肯定会有一些结论性的东西输出,对运营有着指导意义;一般这种需要将数据抽象出多个纬度,然后纬度1*纬度2*纬度3多维度的分析,当然每一个交叉分析都是一个方向,也代表了一个主题;可以先画个脑图,把各种方向主题抽象出来,选取自己认为最有价值的,利用现有数据炒一盘菜;
3. 数据帮助你找出可能存在的问题,数据波动异常快速定位查找原因,这是必须的;人因为呼吸知道自己活着,产品通过数据的趋势知道运转正常与否;
4. PM毕竟不是专门的数据分析人员,不要用大数据处理的要求去要求PM,不是每个PM都是数学系数据挖掘出身,但是PM要有数据意识,至少知道自己做的事情可能会对哪些数据产生影响;另外,也需要用小学数学可能就足够的计算方法去对数据进行一些交叉运算与处理,得出结论,这过程就和做数学题差不多,不会太难,重要有心;这点重要是给自己的工作拿准一个方向;
5. 另外说,做数据是个体力活+脑力活…而且极其细致,还是很锻炼人的…
拿数据说话是好事,但最基础的前提有几个:
1.我要关注哪些数据。
比如一个筛选类页面,我关注它的页面停留时间的意义大不大,是不是看导流率以及留存、点击分布、跳出率会更有效?
2.这些数据的定义是什么,应该怎么看,在哪些情况下他们是适用的。
这个筛选页面的留存指的是什么,是新增用户留存还是活跃用户留存?各自的计算方法是什么?
3.这款产品是否需要很多维度的数据支持。
一个页面的统计纬度,可以直接脱口而出的就有pv、uv、puv比、点击uv比、跳出率、点击分布、留存、停留时长、停留时长分布等等指标。这些指标我是不是都要看?迭代之前有没有必要一下子跑这么多东西出来?
======================================================
如果跑数据只是求一个心理安慰,那其实跑了和没跑基本没啥区别。
题主问的问题可能还是存在于给技术造成了工作负担,如果相关数据及获取方式可以以简便的形式开放给于非技术员工,压力其实会小很多。
首先,“拿数据说话”是两面的,一方面是PM自己拿出来,一方面是PM要你拿出来,不管谁拿,就碰到我说的第二个问题,即“二手数据”的问题,大部分上班的人碰到被要求数据的时候都是一顿海搜,去找有没有成形的数据/分析/研究报告,也就是说,这部分数据的真实性不可考,这么做不管有意无意,基本上是糊弄上级,假如数据对了,你就引对了,数据错了,你也无能为力,所以一切依赖数据,却不给你获取一手数据所需要的时间、资源,那不过是附庸风雅,当然这也是现实情况的制约,没有哪几个公司特别是中小型公司能真正养得起分析部门,会针对公司所有业务去进行分析、采样、设计、统计和再给出靠谱的报告,自然,他们也不会到市面上找各种靠谱不靠谱的咨询公司来帮他们做这个事(这当然也是一个选择),所以假如他们是诚心要数据,而不是希望向上面交差的时候有数据气足一些的话,那么就得认可拿到真实数据所需要的时间,做出相应开发进度的调整和相应资源的保证,不然的话,他们可以就是希望你google一下罢了,要知道中国企业并没有上百年的基础和社会环境,并没有培养起什么严谨的商业习惯,现在都在学,学得更正规,更严谨,但是这些并没有植入中国人的血液,我们可以口头说得多严谨,但是这不是我们血液里的东西,我们的态度是大而化之,好吧,把“们”字去掉吧,此外,学任何东西肯定都是从形式开始的,包括商业态度。
补充一点,把刚才的文字重新看一遍,发现我的观点大体上是反对的,原因是,不是反对数据的权威性和客观性,而是对于要不专业的人出数据,我是非常反对的。那样的话仅仅是走个形式,虽然中国的IT公司大都是通材(没办法,被逼的),但你真正想要靠谱的东西的话,谁都知道,专业人做专业事,你能轻松搞定统计学,那么你干脆考虑一下,是不是入错行了不该干编码/设计呢?好吧,我这是胡搅蛮缠了,只是希望那些逼人出数据而且诚心需要那些数据的,你多问他一个问题:小子,你大学的统计学是考前突击通过的么?
就我自己来说,就是根据数据分析及时监控调整效果,在绩效这一块一年涨了四次,从而顺利进入到10K+的行列的。这里简单分享一下数据分析和怎么快速上手操作数据分析,希望能帮到大家。
“一切不以转化为目的的数据操作都是耍流氓”
数据分析是通过有针对性的数据收集,发现推广中存在的问题,然后通过分析找到解决问题的方法。说白了,数据分析就是发现问题,并且解决问题。相较于凭感觉凭经验做事,数据更客观、也更科学。
数据分析在实际的工作中能够帮助我们解决哪些问题?
监测广告效果:
发现网站流程问题:
监测目标达成结果:
找到最多流量的媒介来源或渠道:
知道用户用什么浏览器和设备访问你的网站:
找到最有价值的访客来自哪里:
发现是否在一个活动上浪费钱:
了解用户在你的网站上喜欢做什么:
测试不同版本的广告,哪个用户更喜欢:
知道用户付款前都做了什么:
那么,如何做数据分析?
这里就简单举个栗子来说说快速掌握做数据分析的技巧。
①做数据分析之前要理解数据
数据是我们调整账户的依据。比如点击率下降你要知道为什么会点击率下降,导致点击率下降的因素都有哪些?又比如点击率下降,同时点击价格上升又会是什么原因。这些是根据我们以往的工作经验积累的,只要是有心人这些基本的知识是很容易能够掌握的。
接着进一步考虑,如果我进行了一些调整之后,我的数据会产生哪些变化。可能我针对性的优化创意之后,我的点击率会上升,然后我的质量度会增加,甚至我的平均点击价格会下降。如果掌握了这个能力,你就可以是主管级别的人才了,因为每月的计划、预算、效果都是根据这些来优化的。
②做数据分析之前要整理数据
常见的数据表格是这样的:
这样的表格非常不利于分析,所以在数据分析的工作之前要进行的是数据整理的工作。其实这也是我们为什么没有分析思路的原因之一。因为我们有时候是为了统计数据而统计数据,甚至不知道为什么要统计这些数据。所以正常的数据分析流程应该是先确定分析目的、收集所需数据、整理数据、分析数据、得出优化意见。
那么,通过数据整理后的表格大概是这样子的:
繁杂的数据经过整理之后,是不是就变得清晰明了?这是用了时间的维度进行整理的,我们还可以用计划维度或者地区纬度进行整理。
③整理完数据之后我们开始进行分析工作
这组数据属于典型的整个营销流程的效果分析,整理完的表格我们一目了然。
5月份相比4月份消费下降近5分之4,成交成本、预约成本下降近3分之2,对话同比有增加。这说明了流量更加精准,竞价员进行了匹配模式的修改,相关关键词的价格进行了有效的调整。另外结合外部环境,还有一个重要原因就是有一家直接竞争对手退出了推广。
但是同时又可以看到,预约和成交有下滑,其中成交量降将近2分之1,预约率、到院率下滑较大。这个时候我们需要分析一下流量的质量,这个流量的质量包括投放的关键词的质量以及关键词匹配出来的搜索词的质量。如果流量质量没有问题的话,再排查掉小概率的咨询工具的问题,剩下的就要重点考虑客服这一块了。想说的是,预约率低的话,我们还可以用导图工具很容易找到问题。如下图:
成交率下降就不再说了,这里重点是告诉大家如何去运用思维导图去分析问题。
④最后得出结论:账户层级的操作基本正确,在预算充足的情况下,应进一步提高消费,把钱优先花在转化效果好的数据上。毕竟控制成本不是我们想要的结果,没有一个老板想要员工给他尽量去省钱,而是想着多赚钱。另外,数据反映客服那边出现的问题较多,需要重点去针对解决。
到此为止,我们进行了整个数据分析流程。
以上是我对怎么评价产品经理拿数据说话这回事?如何做数据分析?这个问题的见解,希望能够帮到大家。共同学习,共同进步,我在这里学习互联网数据分析课程,欢迎一起交流~
数据必要,但并非唯一。
以数据说话是一种可靠且可见的有效依据,但并非万能。
确定目标并且以数据做根据,可以对实施内容的有效性做较好的验证,
同时,对于以往的数据进行分析、对比,才能不断优化与完善;
但一味的为了达到某些数字目标,就会出现作弊或强奸用户等行为,得不偿失。
合理的将数据作为自己的工具,而不是唯一目标。
作为一名产品人员,纠结于此,同时也以此为准则。
数据挖掘是一个科学、严谨的活,为什么同样的数据会出来很截然相反的结果呢?
作为一个合格的数据分析人员要求掌握的知识范围非常广泛,通常一般公司里的数据分析员的知识非常窄,缺乏的东西太多,这样在建立分析模型的时候就会发生 影响因素缺失、影响因素比重设置偏向错误的现象。
不是随便一个统计人员就可以做数据挖掘研究员的,也不是随便一个理论研究员可以做数据挖掘研究员的,这个岗位特别强调知识方面的均衡性,和【全面工作经验】,注意不是工作经验,一般来说行业的限制性非常强,可以考虑多个方面的专家一起做这个事情。
目前中国已知的咨询行业中,合格的数据分析人员非常罕见,这造成人们对市场调查存在着严重的偏见,这和从业人员素质普遍不达标有关。
我觉得这种数据不一定需要精确,但一定要准确。你怎么知道结果就一定是4级呢?也许分析的结果就是3级或者5级。有哪些功能是必须上的?领导就不觉得是必须上?调研的结果经过需求分析是没有必要做的呢?这些事情都是要靠数据去佐证的,不是国企或者某些无所谓的结构,错了就错了,无所谓。如果能避免,那情愿花一些时间和精力去做这件事情。当然如果一个事情大家都投肯定票的话,那就也是一种调研了,只不过是一种隐性的。
其实不管是谁,都应该拿数据说话,运营更应该如此,但是凭经验这种事不是一个好的数据思维。好的数据思维,可以很有效的验证你做一件事情的效果。
一位前辈曾经说过:这些年,我只相信数据和自己。离开了数据谈运营就像坐出租车不打表,看不到效果,一切都是在自嗨。
首先看看数据反馈都有哪些坑(keng)
转发阅读数多不等于宣传效果好
大数据等同于数据分析
投放维度不以数据做依据
盲目选择宣传渠道产品调整靠脑补,不看用户行为
还是把产品分为三个阶段,萌芽期,发展期,成熟期,每个阶段数据反馈都应该怎么做。
1
在产品的萌芽期,主要关注转化。有多少流量来到了的网站,这里面有多少进行注册,最后有几个人进行了付费行为,这就是转化。要实现这个,首先要制作检测链接,然后就是设定转化的goal(目标)。不同的运营,目标也不一样,有的是注册,有的是付费。
这个阶段做数据反馈,要确保跑赢业务流程,就是这个业务是可以盈利的。否则,趁早换别的商业模式。
2在产品发展期,主要关注优化。通过数据反馈,看用户行为的背后,哪些地方是阻碍用户体验的,优化以提高转化率。优化分为产品面跟运营面。
在产品面,关注着陆页的优化。用户第一次来到你的网站,只给你3秒钟的时间,能不能留住他们就靠着陆页。功能页的优化,功能是硬实力,网站的核心功能用户有没有在使用,用的爽不爽,解决他们问题了吗?转化点的优化,用户最后觉得你的产品不错,想进一步操作,是不是很方便用户。我曾经浏览过一个网站,东西都很吸引我,当我想购买的时候找不到按钮……在运营面,关注内容和渠道的优化。这个可以用单变量测试法,渠道不变测试哪个版本内容好,内容不变测试哪个渠道好,这样筛选出好的内容跟好的渠道。关注用户群体的优化,用户定位越精确,运营效果就会越好。
3
在产品成熟期,数据分析主要目标是开源节流,企业效益最大化。流量的方式不断在变化,渠道也在更新换代。数据分析就是关注哪些渠道质量在下滑,哪些渠道有新的机会。
数据反馈总结:
数据反馈思维不完全等于只看数字关注和自己业务相关的数据
所有的数据反馈目标都是转化率
数据指导产品调整,产品促进营销
通过数据挖掘新的机会
最后,欢迎关注个人公众号:运营笔记100【yybj100】
发布于 2016-09-18 添加评论 感谢 分享 收藏 • 没有帮助 • 举报 • 作者保留权利
黄建 一只修炼中的营销喵~个人微信号jianjian-98
我特别不喜欢装逼的产品经理,看文章也一样不喜欢华而不实的。所以督促自己写文章时,把懂的、经历过的能细就写的尽量详细;不懂的就去学,然后把整理的笔记分享出来,数据分析方面我涉入不多,内容由于缺少实战经验,会比较基础和理论,希望同样对你有帮助。
1. 明确数据分析的目的
做数据分析,必须要有一个明确的目的,知道自己为什么要做数据分析,想要达到什么效果。比如:为了评估产品改版后的效果比之前有所提升;或通过数据分析,找到产品迭代的方向等。
明确了数据分析的目的,接下来需要确定应该收集的数据都有哪些。
2. 收集数据的方法
说到收集数据,首先要做好数据埋点。
所谓“埋点”,个人理解就是在正常的功能逻辑中添加统计代码,将自己需要的数据统计出来。
目前主流的数据埋点方式有两种:
第一种:自己研发。开发时加入统计代码,并搭建自己的数据查询系统。
·
第二种:利用第三方统计工具。
·
常见的第三方统计工具有:
网站分析工具
Alexa、中国网站排名、网络媒体排名(iwebchoice)、Google Analytics、百度统计
移动应用分析工具
Flurry、Google Analytics、友盟、TalkingData、Crashlytics
不同产品,不同目的,需要的支持数据不同,确定好数据指标后,选择适合自己公司的方式来收集相应数据。
3. 产品的基本数据指标
新增:新用户增加的数量和速度。如:日新增、月新增等。
活跃:有多少人正在使用产品。如日活跃(DAU)、月活跃(MAU)等。用户的活跃数越多,越有可能为产品带来价值。
留存率:用户会在多长时间内使用产品。如:次日留存率、周留存率等。
传播:平均每位老用户会带来几位新用户。
流失率:一段时间内流失的用户,占这段时间内活跃用户数的比例。
4. 常见的数据分析法和模型
这里主要科普下漏斗分析法和AARRR分析模型。
·
漏斗分析法
·
用来分析从潜在用户到最终用户这个过程中用户数量的变化趋势,从而寻找到最佳的优化空间,这个方法被普遍用于产品各个关键流程的分析中。
比如,这个例子是分析从用户进入网站到最终购买商品的变化趋势。
从用户进入网站到浏览商品页面,转化率是40%;浏览商品到加入购物车转化率是20%等,那要找出哪个环节的转化率最低,我们需要有对比数据。
比如第一个,进入网站到浏览商品,如果同行业水平的转化率是45%,而我们只有40%,那说明这个过程,没有达到行业平均水平,我们就需要分析具体原因在哪里,再有针对性的去优化和改善。
当然,上面这是我们设计的一种理想化的漏斗模型,数据有可能是经过汇总后得出的。而真实的用户行为往往可能并不是按照这个简单流程来的。此时需要分析用户为什么要经过那么复杂的路径来达到最终目的,思考这中间有没有可以优化的空间。
AARRR模型
·
这个是所有的产品经理都必须要掌握的一个数据分析模型。
AARRR(Acquisition、Activation、Retention、Revenue、Refer)是硅谷的一个风险投资人戴维 · 麦克鲁尔在2008年时创建的,分别是指获取、激活、留存、收入和推荐。
举个例子,用AARRR模型来衡量一个渠道的好坏。
如果单从数据表面来看,A渠道会更划算,但实际这种结论是有问题的,用AARRR模型具体分析如下:
渠道A的单个留存用户成本是60元,单个付费用户成本是300元;而渠道B的单个留存用户成本是20元,单个付费用户成本是33元,这样对比下来,明显B渠道的优势远远大于A渠道。
5. 常见的数据分析法和模型
在上篇提到的漏斗分析法和AARRR模型外,这里再补充一个:交叉分析法。
交叉分析法:通常是把纵向对比和横向对比综合起来,对数据进行多角度的结合分析。
举个例子:
a. 交叉分析角度:客户端+时间
从这个数据中,可以看出iOS端每个月的用户数在增加,而Android端在降低,总体数据没有增长的主要原因在于Android端数据下降所导致的。
那接下来要分析下为什么Android端二季度新增用户数据在下降呢?一般这个时候,会加入渠道维度。
b. 交叉分析角度:客户端+时间+渠道
从这个数据中可以看出,Android端A预装渠道占比比较高,而且呈现下降趋势,其他渠道的变化并不明显。
因此可以得出结论:Android端在二季度新增用户降低主要是由于A预装渠道降低所导致的。
所以说,交叉分析的主要作用,是从多个角度细分数据,从中发现数据变化的具体原因。
6. 如何验证产品新功能的效果
验证产品新功能的效果需要同时从这几方面入手:
a. 新功能是否受欢迎?
衡量指标:活跃比例。即:使用新功能的活跃用户数/同期活跃用户数。
使用人数的多少还会受该功能外的很多因素影响,千万不可只凭这一指标判断功能好坏,一定要结合下面的其他方面综合评估。
b. 用户是否会重复使用?
衡量指标:重复使用比例。即:第N天回访的继续使用新功能的用户数/第一天使用新功能的用户数。
c. 对流程转化率的优化效果如何?
衡量指标:转化率和完成率。转化率即:走到下一步的用户数/上一步的用户数。完成率即:完成该功能的用户数/走第一步的用户数。
这个过程中,转化率和完成率可以使用(上)篇中提到的漏斗分析法进行分析。
d. 对留存的影响?
衡量指标:留存率。用户在初始时间后第N天的回访比例,即:N日留存率。常用指标有:次日留存率、7日留存率、21日留存率、30日留存率等。
e. 用户怎样使用新功能?
真实用户行为轨迹往往比我们设想的使用路径要复杂的多,如果使用的数据监测平台可以看到相关数据,能引起我们的反思,为什么他们会这么走,有没有更简便的流程,以帮助我们作出优化决策。
7. 如何发现产品改进的关键点
产品改进的关键点,是藏在用户的行为中。
想要找到这些关键点,除了通过用户调研、访谈等切实的洞察用户外,在产品中设置相关数据埋点记录用户的行为,观察其行为轨迹,不能完全替代洞察用户的行为,不过也可以有助于决策产品改进点。
操作步骤:
这一部分的实际案例,小伙伴们可以下载该电子书,查阅第四章的内容。
数据分析这个领域,需要学习的内容,不仅仅只有我写的这些,如果对数据分析很感兴趣的小伙伴,也可以看看这个网站: