数据驱动业务增长的核心要素与方法
本文深入探讨了如何通过细分场景挖掘、用户行为分析、智能化模型应用等手段实现业务的量变到质变的增长。如果你对如何提升业务效率、优化用户体验、实现数据驱动的产品化感兴趣,那么这篇文章将为你提供宝贵的参考和启示。
首先我要先发表一个我的观点:今天的增长不再是撬动单点的巨大杠杆,而是通过更多细分场景的挖掘和提升、组合起来从而量变引发质变的增长。所以今天的增长拼的是效率,效率所形成的杠杆。
数据驱动业务基本贯穿我的职业生涯,大大小小的规模、阶段以及不同的业务场景。从早年携程的业务自动化到网易的数据中台与SaaS商业化再到阿里的ALL in AI,这让我站在不同视角看到和体会了很多,也沉淀了一些自己的方法和看法。数据驱动业务是业务数字化的表现,会有涉及很多板块。
从不同的视角出发点和框架也不同:从业务的视角下核心就是从用户和收入出发;从企业数据的视角下那就是支撑数据起作用的各个板块和环节:BI、数据采集、数据资产(要素)、数据服务以及数据智能化。但大多数人受限于经历往往只会从某个点思考,就会缺失某些对业务和数据同样重要的共同点。
早年阿里有句话叫业务数据化和数据业务化,标语说的很实在,不会脱离业务搞数据,数据要有业务语义的解释,也不会脱离数据搞业务。放在2020年前可以大讲特讲数据中台,但在今天的企业环境下中台黯淡了许多,不是因为不重要,而是大家都搞不起了,更多的关注眼前利益。
所以今天我们从业务视角出发,结合那些少为人知的数据中台理念,看数据驱动的业务该怎么建设。
我说业务核心的是用户和收入,当然收入更多是一个自然而然的结果,它可以被影响但很难被趋势性的改变,还是源自产品或商品售卖方式和服务。
所以俗话说的很有哲理,所谓回归初心,回归初心。不单是保持本心,也是一切的源头,要想改变就要回到初心,改变初心。那我们就从这两个方面入手来看——对于业务建设的核心要素有这么几点:
- 用户旅程的数据化呈现和设计
- 用户行为数据采集模型的全局规范
- 用户来源的归因以及行为偏好
- 站外培育的用户识别与站内承接
- 生命周期各业务环节用户模型的建立
- 用户模型的数据快照与流转分析
- 指标和标签的数据中间层
- 各渠道间用户转化路径设计与跟踪
- 各场景的单点智能化与模型策略沉淀
- 单点场景策略的人群放大
- 数据驱动增长的产品化
我把这些要素归纳总结为以下几个板块:
- 用户行为与旅程
- 用户模型
- 业务数据中间层
- 智能化与策略模型沉淀、优化和放大
- 产品化
这篇文章可能无法事无巨细的讲清楚,毕竟篇幅太长,所以我通过这几个大的板块去来讲述这些要素和必要性。
01 用户行为与旅程
用户行为是个老生常谈的问题,而用户行为和旅程这里面涉及到2个粒度:一个是细粒度的用户行为路径——关系路径和时序路径;另一个是业务各重要节点的用户流转关系。
当然用户路径呈现的前提是行为数据的埋点采集,这里面涉及到一个很重要但却关乎数据驱动业务整体性增长成败的问题,就是规范——也就是说对于埋点和行为数据在企业层面认知和话语体系是否统一的问题。
因为如果没有规范就会导致每个人都会不断地对一个地方进行重复埋点永远无法信息对称,如果你不知道别人埋了什么,凭一个人的力量无法将所有点埋完,那就无法整体性的分析和使用,就无法突破量变引起质变。
所以这是一个看似无助实则巨大又容易被忽略的问题,往往业务走到后期陷入困境才发现这个问题只能回过头来重构。这不是一个中台问题,这是一个业务问题,只是往往中台去承担这个责任。
那基于用户行为和旅程必然会梳理和追踪到各用户来源渠道,渠道涉及到最核心的问题一个是自然流量、一个是付费流量。尤其是付费流核心就是投入和ROI的问题,那资源、钱最大化的利用就要涉及到渠道归因,直白来说基于ROI哪个渠道用户贡献最大,资源投入最大。
当然不同渠道也有其人群特性和业务价值,比如像用户培育、种草口碑、裂变等,因此还有其他的考量因素。除了资源分配,就是在投流时抓住用户的作息和兴趣偏好等进行优化来进一步提升转化。
当今天内容种草成为趋势以及搜索平台往内容平台转移的趋势,大大的加强了站外培育的趋势。你无法阻止用户在站外了解你、评估你和学习你,同时你也不用费心去想方设法的构建站内的内容培育体系,因为站外往往更优秀和更接地气(所谓接地气就是更能从用户视角出发以及痛点的把握)。其实站外培育这个可以放到用户模型中来讲,会在潜客模型这一侧。
但正是因为当用户行为数据以及旅程的梳理,会自然而然的发现这一波奇特的用户群体——你什么都不用做,这波用户就会从自然流进来直接付费。这个就属于业务增长中单点场景的挖掘,量变中的“量”。
所以这就是数据驱动从无到有的优势,如果凭借经验你很难发现,即使发现了也无从下手,因为没有行为就无法区分这些用户。
当这个场景的用户数据模型建立后,就可以不断优化算法模型来更精准的找到这波人——这叫Look-alike人群放大,我后面会在用户模型中讲这一场景和方法——通过调研和定性的方式挖掘到一小批用户样本,再通过模型训练、人群放大的方式放大场景价值。
02 用户模型、策略框架与智能化
用户模型我们听到的有很多,比如像电商、零售常见的RFM、AIPL、FACT等;App类的活跃留存模型等。对于用户模型的设计和分析涉及面很广,根据不同的行业和业务模式应用方式也不同,即使同一个模型比如RFM在不同的业务和场景下应用方式和目的也会有很大差异。
当然刚才提到的是一些固化的用户模型方法,这些更多的是在大的业务流程中以及用户生命周期各个环节上的用户模型框架。
比如贯彻整个生命周期的AIPL,又或者在AARRR中——(Revenue)收入环节的RFM价值用户分层。但是这些固化的模型方法往往没办法进行新的用户场景挖掘的,只是更好的对用户进行分层管理。
亦或者说,十年前的方式对于今天来讲不够精细化,今天的精细化是要在这些用户模型框架下去挖掘一些新的细分用户场景,而这些细分场景是量变引起质变增长的变量。
我们一直在说『用户挖掘』——其实这是一件很难的事情,对于大部分人来说无从下手。这个名词看似是一个完全由数据挖掘的,其实不然。这也是我一直在强调的——大数据不能解决所有问题,单纯的数据分析无法找到真正的根因。
那对于细分场景的挖掘,或者说更细粒度的用户模型该怎么挖掘?
对于用户模型来讲其实应该有两层含义:一层就是上面提到的用户分层模型;另一层其实是通过模型进行细分场景用户的识别——比如上面我讲到的已经进行过站外培育的用户群体。
那对于新场景人群的挖掘和识别,单纯靠数据是没法冷启动的,因为你不知道你不知道的东西——也就是新场景是什么。这里就会涉及到一个调研和定性研究,其实本质上是在发现一个新的场景以及积累模型种子人群样本的过程。
在智能营销投放的领域有一个概念叫Look-alike人群放大——基于种子样本人群进行模型训练后,通过模型在广泛的人群中找到相似特征的人群。
同样我们把这个思路放在业务场景挖掘上,当我们发现一些具有特殊行为表现的用户进行调研,或者就单纯对用户进行抽样调研,会发现一些新奇的场景——比如说站外培育群体、对你具有浓厚兴趣但并非产品设定的目标用户等。
通过对这些用户的行为进行模型训练后,这就是既定场景人群的挖掘模型——不是为了人群分层管理,而是为了划分场景制定个性化的策略。
所以我们今天一直在说智能化,所谓智能化不是一个从0到1再到N的过程,而是一个从N到1的过程,是由大量的单场景智能化组成的体系化。
那我们再说回用户分层,对于用户分层来讲,我们不单单是按照既定用户模型规则把人群分好即可——用户是流动的,为了后续能对策略进行精确的效果分析和归因,是需要通过人群的静态切片去进行观测的——这也是Cohort Analysis(同期群分析)的核心,也就是通过控制变量的方式来看策略的有效性。
当然Cohort Analysis是远远不够的,因为我刚才说到用户是流动的,如果从整个数据闭环来看,必然要追踪用户流转到什么地方以及为什么。
所以这时候我们需要对不同时期通过用户模型划分的群体进行数据快照,通过数据快照的对比来发现和分析用户在群体间的流转关系以及发生了什么和为什么。
这是很多业务同学所忽略的,主要原因在于不懂数据、不知道能做得到以及没有往深处想,当然也很复杂。我之前的文章有详细的讲解和案例《深入用户分层的数据应用》,在这里就不详细赘述了。
对上面所讲的用户模型做个简单总结:一类是场景挖掘和拓展的模型——通过固化下来用户场景的模型后,拓展找到更多相似的用户群体;另一类是老生常谈的分层模型,但需要进一步精细化深挖下去进行流转和归因分析。
当然对于用户分层模型来讲,在不同的业务环节和用户生命周期阶段会有不同的模型应用,因为分层的目的是为了针对性策略落地:比如AARRR中潜客获客、激活活跃、收入等环节,那整个生命周期串起来的用户模型是个大的策略框架,在每个用户模型下场景挖掘的用户模型就是策略框架下的细分场景。
同样这些细分场景最终组合起来的其实是一个影响用户体验管理的归因因素框架,当然这是一个额外和更高深的话题这里暂且不谈。
03 业务数据中间层
一般说到业务数据大家常说的是指标体系,10个人的简历有9个人会写指标体系。但往往大家所指的指标体系仅仅是在监控和观测角度的指标。
你说重要吧?很重要,但又不那么重要——因为除了观测,其他的什么都不能做。
这里要说的业务数据中间层不像数仓的数据中间层一样过于抽象业务难以理解,又或是业务数据集市过于定制不灵活。
当然今天我们不讲数据构建,讲了大部分人也不感兴趣听不懂,但是有必要来说说为什么要有供业务使用的数据中间层。——那就是数据使用成本、产品化的准备、业务归因基础以及老生长谈的数据一致性、可解释性以及质量等。
想要数据驱动必然先要解决的是业务同学数据使用成本的问题,否则取数过于困难还是拍脑袋靠谱,谈什么数据驱动?
对于现在很多运营来讲,写个单SQL查询还是容易的。所以对于中间层来讲,可以快速的让运营通过一个简单的SQL查询可以聚合不同维度进行多个指标的查询。
这就解决了一个找数据分析师挤兑取数的问题,取数必然是为了策略以及效果验证,排队意味着你的策略反馈不及时,永远赶不上业务变化。当团队越庞大,这种现象越明显,企业人效的角度永远不会配备充足的数据分析师。
这就是很多策略和业务节奏之间总是存在很大的gap,最终策略无论好与坏都是无效的,因为不具备时效性和及时反馈——从用户感知的角度就是行为旅程是断层的,从运营的角度就是SOP是割裂的。
因为策略永远不是单点策略,是需要前后承接的。后面我们要讲到的要把数据驱动的过程产品化时很重要的一点就是要有与业务语义一致的数据体系——指标和标签的数据、口径和可解释性。那最好的方式就是用同一套数据源,数据一致这也能保证业务策略和产品的步调一致,不会像瀑布一样因为落差变成一个传递的过程。
当我们通过产品化的方式保证策略自动化和智能化执行的时候,数据一致性就显得更为重要,否则事前的分析和执行的结果永远无法对齐,这就像听天由命一样——你也不知道谁是对的,有没有效。
上面提到业务归因,归因本质上是一个关系建立的过程,那业务归因的前提是要建立数据之间的关系。业务中间层从场景和数据的角度建立了数据关系,所以这个就是具备业务归因可解释性的基础。
否则就只能通过像类似异动检测算法一样,仅仅通过数据表现来寻找关系。最后我强调一下,其实对于业务中间层来讲包括指标和标签的数据中间层就够了。
只不过在标签这一层可能会有好几套数据体系,因为标签会有一个主体的概念,在今天 的互联网中我们标记主体的标识很多,所以有了OneID。
但从业务的角度不同标识其实对应的用户场景是有区别的,所以策略的应用也会有所差异,比如不同场景下的触达策略和渠道对应不同的用户触达标识等。
对于业务数据中间层这个部分我相信很多人理解起来有点抽象,因为背后涵盖了太多的数据领域的专业知识没办法逐个展开,以及把一个庞大的数据体系浓缩后更贴合和适配于业务。
所以…其实也没什么所以,这就是一个业务和数据知识、团队以及资源整合的问题,这里先给大家传输一个理念吧。
04 数据驱动的产品化
把数据驱动产品化的核心就是把业务目标、人群、触点、内容以及自动化流程,包括我上面提到的以及其他业务定制的场景产品化。详细的在这里我不过多的赘述了,可以去翻我以前写的所有跟数字营销和增长相关的文章,结合自身的业务场景把产品整合起来就好。
但我想要强调的是为什么要做这件事,就是在做产品前你要把价值和定位想清楚,而不是一味的我就是要做。做产品化的目的不是要一个营销增长工具或者数据分析工具,在今天SaaS成熟度比较高的情况下,好用的工具遍地都是,更何况AIGC的加持。
从工具层面完全可以利用SaaS的开放去进行整合,既省力又省钱,这也是多亏了这么些年来SaaS在开放层面的努力。
产品化的目的是为了固化场景和策略并形成SOP、建立业务场景的数据联系以及自动化与智能化从而实现量变到质变,所以今天的增长拼的是效率,而借助产品化来提升的就是效率和杠杆。
这里的效率不单单是人效,像我前面提到的很多场景挖掘模型是没办法靠人做到的。当然人在这里最核心的作用变成了探索——也就是说在既定场景的SOP形成前,是需要通过人来挖掘和快速实验去摸索初步的SOP。
还有一层效率是——当积累了场景、数据和策略的时候,在智能化上的突破——用户挖掘、智能投放、用户路径优化、内容生成等。
产品化也是归因的前提:一方面产品可以强制性约束策略的沉淀;另一方面可以把每个人分散的策略归集为一个整体并数据标准化。否则只是靠单个人的汇报,很难有一个整体性的判断,并且你也不知道策略互相之间的影响是怎样的。
当然你觉得这个东西可以靠数据分析师去完成和统筹,那基本不可能——暂且先不提数据分析师与业务之间的gap以及对业务的理解程度,光我上面提到的业务节奏和数据时效性问题,以及对数据分析师来讲每一个个性化策略背后都是一个独立且复杂的数据处理过程。
而对于策略是可以抽象标准化的执行动作,就像开始我提到的人群、触点和内容等——这就意味着个性化的策略背后数据、评价标准是可以标准化的。以及策略间的相互影响是可以通过数据清晰可见的。
当然产品化还有一些产品自身的优势,比如便于管理、约束、信息对称以及提效等——这些是所有产品的共性,不是独有的,在这就一略而过了。
05 简单再提一嘴智能化
上面用户模型中我提到了一些智能化的场景应用,其实智能化的应用方式非常多,本质上智能化的应用是你对机器学习的理解——比如上面提到可以通过机器学习进行用户挖掘;同样也可以对用户样本数据反向进行特征的相关性分析;也可以抛开固有的用户模型方法通过机器学习进行人群聚类分层等。
机器学习过程中的每一个环节都可以考虑在不同场景上去应用或进行策略分析和产出。我提到的量变可以先从单点的智能化开始,但不同场景的目的和解决方式各不相同,所以要好好思考和机器学习的匹配和结合。如果今天你在做增长不带点数据科学的话,那就要真的好好思考一下增长的破局方式了。
06 额外提一嘴PLG
PLG是指的产品驱动增长。PLG是国外环境下的产物,其实我认为也是国外工程师文化的表现,国内的文化环境差异性较大,所以我想聊聊对国内PLG的一些想法。
中国和美国市场差异比较大的是营销环境,国内充斥着大量营销所产生的噪声,其实你看销售市场也是这样——美国注重的是知识型或项目解决方案型的销售,国内注重的是快速成单的电销。
当然对于原因我们不去深究,但呈现出来的现状确是如此,这也是为什么很多国外知名的产品进入国内后屡遭碰壁,甚至退出中国市场——Amazon、salesforce等。所以PLG不是没有营销属性,而是不以营销属性为主。
营销在其中核心的是那个钩子以及最后促使你转化的临门一脚。你会发现AIPL模型的核心不是把人划分成了认知、兴趣、购买和忠诚,而是人性——是通过各种方式和手段push你进入到下一个阶段。你看销售亦是如此。
我觉得在国内的环境下对于PLG来讲核心是要从这几点去思考和建立体系化的常规策略:
①如何保证免费流量的最大化转化;②如何通过付费流量去撬动免费流量;③在不同阶段的用户链路上保持常规的营销手段。
对于免费流量来讲本质上如果抛开营销和权益的诱惑,主要就是源于品牌知名度和口碑。
所以免费流量的规模和波动是很难直接把控的,所以核心应该是保证进来的免费流量最大化的转化和利用,所以要有清晰的用户跳转链路——通过构建用户在不同外部渠道引流站内的路径来促使用户更方便的找到你和了解你从而产生兴趣,甚至说先产生兴趣再来找到你、了解你。
像我们前面提到的站外培育,当通过模型识别出用户后通过一系列触达手段提升直接转化率来达到最大化转化也是一个很好的例子。内容种草以及信息搜索方式的转变是用户付费决策的转变——信息检索的是口碑,口碑代替的是亲身体验,所以这应该也算是体验经济下的另一种体验方式。
所以付费流量要把流量采买和内容种草结合起来再通过口碑传播的方式撬动免费流量——这也是今天一种比较成熟的达人经济模式,你帮我内容植入我帮你投流放大影响,也有一套比较完善的评价体系。
说到免费流量,说到PLG,我相信很多人第一个想到的就是裂变,然后就是拼多多。
但拼多多通过裂变带来的巨大增长我不认为是所谓的免费流量,因为撬动免费流量背后砍一刀的巨大现金诱惑,实际上是为这些免费流量进行了付费,只不过付费的方式不同于直接的流量采买,和我刚才提到的付费的方式去进行内容植入是一样的。
所以都是付费,这个钱花在哪能带来更高的杠杆去撬动免费流量是很重要的。
对于PLG的营销手段来讲,我们不能完全像国外一样干干净净,因为国外用户和中国用户对产品价值的感知不一样。科勒的营销学原理中有讲的一个基础的理论叫顾客让渡价值,总而言之就是顾客总价值和总成本之差。
国内用户对产品价值的理解不只是产品本身,大部分用户的产品价值中是包含着一些蝇头小利去弥补自身的精神成本,所以常规的营销手段是为了补齐产品价值。
以上就是我把我的这些数据驱动业务增长的要素和关键方法浓缩提炼出来的一篇深度的希望可以引发大家思考的文章。最后我想说开源是增长,节流也是增长。
专栏作家
戏说猫狗,公众号:树荫下的猫猫狗狗,人人都是产品经理专栏作家。前BAT数据产品经理,专注于数字营销Martech与智能风控领域,从事企业数据中台、数据智能化转型与产品解决方案。
本文原创发布于人人都是产品经理,未经许可,禁止转载
题图来自 Unsplash,基于 CC0 协议
该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。
- 目前还没评论,等你发挥!