众所周知,A/B测试是一项热门技能,有不少数据科学相关岗位的面试题目都与之相关。但与此同时,有助于准备A/B测试相关面试题目的资源却很少,从而导致大多数候选人在这些面试中表现不佳。事实上,A/B测试实验领域一直在发展,每年都有越来越多关于A/B测试的新的概念和方法。这就意味着即便是几年前自诩A/B测试经验丰富的候选人,如今也经常会在面试中被难住。在这篇文章中,我们将模拟面试官和候选人的对话来进行A/B测试相关的模拟面试,帮助你了解面试官要的是什么,以及如何顺利通过这些面试。你可能会问,为什么我们需要模拟面试?原因是,作为数据科学岗位,我们有时会在沟通方面遇到困难。因此,在脑海中记住一个有效的沟通模板会对你有很大帮助。在本文中,我们将使用食品配送公司Doordash的面试案例进行讲解,该公司的手机App目前在iPhone App Store 中排名第一。他们通过实验不断改进他们的App,并且也在不断寻找有A/B测试相关技能的候选人。
-
在深入研究实验细节之前,你是否首先明确了产品/业务目标?
-
除了主要指标之外,你还考虑了次要指标和护栏指标。
-
你对统计概念的了解以及对样本量和持续时间的计算;
-
你是否在进行实验时考虑了网络效应(在 Doordash、Uber、Lyft、Airbnb 等双边市场或 Facebook、LinkedIn 等社交网络中很常见)、星期几效应、季节性或新奇效应等可能会影响实验的有效性。
-
Baseline conversion(基线转换):这是在进行实验之前,控制组的现有用户转换率
-
Minimum detectable difference(最小可检测差异)或 MDE:这是我们实验时可以接受的转化率的最小变化,比这更小的变化我们可以忽略不计
-
Statistical Power(统计功效):我们有多大概率可以拒绝原假设
-
Significance Level(显著性水平):当原假设为正确时拒绝原假设的概率
-
Day of week effect(星期几的影响)——你可能在周末和工作日有不同的用户群体,因此运行足够长的时间来捕捉每周的周期是很重要的。
-
Seasonality(季节性)——有时用户的行为会有所不同,这是需要考虑的重要因素,例如假期。
-
Novelty effect(新奇效应)——当你引入一个新功能,尤其是一个容易被注意到的功能时,它最初会吸引用户去尝试。这意味着,一个测试组一开始可能看起来表现不错,但效果会随着时间的推移而迅速下降。
-
External effects(外部影响)——假设市场竞争很大,同类应用的推送通知很多,消费者很有可能会忽略掉我们的推送,这将直接影响我们实验的准确性。
-
你在不同场景中会使用适当的统计检验的知识(例如,针对样本均值的t检验和针对样本比例的 z 检验)
-
你是否检查了随机化
-
你提供的最终建议
-
为了使实践的效果最佳,我们应该在分配测试组和对照组时检查随机化是否合理。为此,我们可以查看一些预计不会受到实验影响的基线指标,并对两组进行比较,比如,比较两组之间基线指标的直方图或密度曲线。如果没有差异,我们可以得出结论,随机化是合理的。
-
所有指标(包括主要指标和护栏指标)的显著性测试。我们的主要指标(转化率)和护栏指标(卸载率)都是比例,因此我们可以使用 z 测试来检验统计显着性,我们可以使用诸如 R 或 Python 之类的编程语言来做到这一点。
结论
如果在A/B测试面试中表现出色的话,将为你在招聘过程中提供非常大的优势,使你脱颖而出,因此,花时间学习A/B测试中的关键概念,并且为面试做好准备是非常重要的。
以上就是“为什么Tech公司最常见的面试题通过率却最低 ”的详细内容,想要了解更多IT圈内资讯欢迎持续关注编程学习网
扫码二维码 获取免费视频学习资料
- 本文固定链接: http://phpxs.com/post/10548/
- 转载请注明:转载必须在正文中标注并保留原文链接
- 扫码: 扫上方二维码获取免费视频资料