1.什么是A/B测试
随着移动互联网流量红利、人口红利的逐渐衰退,越来越多的产品运营开始关注数据驱动的精细化运营方法,期望通过精细化运营在一片红海中继续获得确定的用户增长,而A/B测试就是一种有效的精细化运营手段。
简单来说,A/B测试是一种用于提升App/H5/小程序产品转化率、优化获客成本的数据决策方法。在对产品进行A/B测试时,我们可以为同一个优化目标(例如优化购买转化率)制定两个方案(比如两个页面),让一部分用户使用
A 方案,同时另一部分用户使用 B 方案,统计并对比不同方案的转化率、点击量、留存率等指标,以判断不同方案的优劣并进行决策,从而提升转化率。
2. A/B测试的价值
对于互联网产品来说,通过A/B测试提升点击转化率,优化获客成本已得到越来越多的关注。以获客环节为例:许多产品都会在百度、头条等渠道投放落地页广告,以完成新用户的注册转化,而落地页效果的好坏,会直接影响转化率和获客成本。以每月200万投放费用为例,如果通过A/B测试将落地页的注册转化率有效提升20%,相当于每月能多获得价值40万推广成本的新用户。
如果不使用A/B测试,而是根据经验,直接上一个落地页呢?在回答这个问题之前,我们先来看看我们在做产品决策时,常面临的一些挑战:
产品优化依靠经验主义,不能保证新的产品版本一定会有业绩提升
重大产品功能很难决策,不确定哪个方案效果最优
“后验”成本高,如果改版失败,业绩损失无法挽回
从这些挑战中我们可以看到,如果我们在产品上线时不做A/B测试的话,一方面不能保证上线的版本转化率等指标一定是最优的,其次还面临着因产品改版失败带来的用户流失、业绩损失的风险。实际上,随着业务的发展,产品迭代体系的逐渐成熟,新功能上线时必须做A/B测试的紧迫性会越来越高,因为改版失败的风险越来越大,而用户的习惯也越来越难以捕捉,所以A/B测试的必要性会越来越高。
3. 如何开展A/B测试
开展A/B测试,可以分为6个步骤:
确立优化目标。
分析数据。
提出想法。
重要性排序。
实施A/B测试并分析实验结果。
迭代整个流程,进行下一轮A/B测试。
A/B测试工具开发,涉及到数据监测系统、大数据处理等,除了BAT等大体量公司,一般都选用已有的SaaS服务,目前比较成熟的有TestinData.AI(
,近期宣布永久免费)等服务。目前随着黑客增长概念的普及,应用A/B测试逐渐成为日常操作。
希望能够帮助解决楼主的问题。
AB测试是为Web或App界面或流程制作两个(A/B)或多个(A/B/n)版本,在同一时间维度,分别让组成成分相同(相似)的访客群组随机的访问这些版本,收集各群组的用户体验数据和业务数据,最后分析评估出最好版本正式采用。
一、A/B测试的好处
消除客户体验(UX)设计中不同意见的纷争,根据实际效果确定最佳方案;
通过对比试验,找到问题的真正原因,提高产品设计和运营水平;
建立数据驱动、持续不断优化的闭环过程;
通过A/B测试,降低新产品或新特性的发布风险,为产品创新提供保障。
二、A/B测试效率
在App和Web开发阶段,程序中添加用于制作A/B版本和采集数据的代码由此引起的开发和QA的工作量很大,ROI(return on investment)很低。AB测试的场景受到限制,App和Web发布后,无法再增加和更改AB测试场景。额外的A/B测试代码,增加了App和Web后期维护成本。因此,提高效率是A/B测试领域的一个关键问题。
三、怎样高效实施A/B测试?
在App和Web上线后,通过可视化编辑器制作A/B测试版本、设置采集指标,即时发布AB测试版本。
AB测试的场景数量是无限的;
在App和Web发布上线后,根据实际情况,设计AB测试场景,更有针对性,更有效;
无需增加额外的AB测试代码,对App和Web的开发、QA和维护的影响最小。
四、A/B测试的步骤
1.现状分析:分析业务信息,确定当前最关键的改进点。
2.假设建立:根据现状分析作出优化改进的假设,提出优化建议。
3.设定目标:确定主要目标,来衡量各优化版本的优劣;设置辅助目标,来评估优化版本对其他方面的影响。
4.界面设计:制作出2(或多)个优化版本的设计原型;
5.技术实现:
Web平台需要在页面中嵌入云眼JS脚本,然后编辑出各个优化版本。
Android和iOS APP需要添加SDK,然后通过编辑器制作各个优化版本。
通过编辑器设置目标,如果编辑器不能实现,则需要手工编写代码。
使用云眼平台分配流量。初始阶段,优化方案的流量设置可以较小,根据情况逐渐增加流量。
6.采集数据:通过云眼系统自动采集数据。
7.分析A/B测试结果:统计显著性达到95%或以上并且维持一段时间,实验可以结束;如果在95%以下,则可能需要延长测试时间;如果很长时间统计显著性不能达到95%甚至90%,则需要决定是否中止试验。
五、A/B测试实施策略
1.从简单开始:可以先在Web前端上开始实施。Web前端可以比较容易的通过可视化编辑器制作多个版本和设置目标(指标),因此实施A/B测试的工作量比较小,难度比较低。在Web前端获得经验后,再推广到App和服务器端。
2.隔离变量:为了让测试结果有用,应该每个试验只测一个变量(变化)。如果一个试验测试多个变量(比如价格和颜色),就不知道是哪个变量对改进起了作用。
3.尽可能频繁、快速进行A/B测试:要降低A/B测试的代价,避免为了A/B测试做很多代码修改,尽量将A/B测试与产品的工程发布解耦,尽量不占用太多工程部门(程序员、QA等)的工作量。
4.要有一个“停止开关”:不是每个A/B测试都会得到正向的结果,有些试验可能失败,要确保有一个“开关”能够停止失败的试验,而不是让工程部门发布一个新版本。
5.检查纵向影响:夸大虚假的CTA(Call To Action)可以使某个A/B测试的结果正向,但长期来看,客户留存和销售额将会下降。因此,时刻要清楚我们追求的是什么,事先就要注意到可能会受到负面影响的指标。
6.先“特区”再推广:先在一两个产品上尝试,获得经验后,推广到其他产品中。
六、A/B测试工具
国外:Optimizely,Visual Website Optimizer,Omniture等;
国内:云眼(eyeofcloud.com),ABTester,Optimizer等。