市场营销科学 101:如何使用合成控制分析基于地理的活动

原文:towardsdatascience.com/how-to-analyze-geo-based-campaigns-with-synthetic-control-a90b839479a8?source=collection_archive---------8-----------------------#2024-05-22

使用 Meta 的 GeoLift 库

https://medium.com/@mandymliu?source=post_page---byline--a90b839479a8--------------------------------https://towardsdatascience.com/?source=post_page---byline--a90b839479a8-------------------------------- Mandy Liu

·发表于 Towards Data Science ·6 分钟阅读·2024 年 5 月 22 日

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/35d2615d2d8eab8cdb7d716962c85c55.png

图片来自 ZUnsplash

(如果你不是 Medium 会员,可以在 这里) 阅读完整文章

导航基于位置的测试的复杂性可能是一个挑战。

幸运的是,GeoLift 在这里可以优化这个过程。

由 Meta 的市场营销科学团队开发,这个开源库旨在进行基于地理位置的实验。它使我们能够:

  1. 轻松选择测试市场,且

  2. 生成一个合成控制市场,用来与选定的测试地点进行基准对比

虽然 GeoLift 文档提供了关于选择测试市场的全面指南,但本文将重点介绍如何创建和使用合成控制市场

让我们深入了解。

合成控制方法(SCM)

这些图表展示了“差异中的差异”方法与合成控制方法(SCM)之间的比较。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/0e3507b10492d1be57b427f2fb35c480.pnghttps://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/374975efcbf4583aa6c8008deaaf0a9f.png

由作者使用 ChatGPT x Wolfram 生成

根据维基百科,SCM

该方法旨在估算在没有实施干预的情况下,处理组可能的结果。与差异中的差异方法不同,SCM 通过加权控制组,使其在干预前尽可能接近处理组,从而调整时间变化的混杂因素。

简单来说,SCM 构建了一个“平行宇宙”,使您能够观察如果没有启动活动,潜在的结果会是什么,从而清晰地比较和衡量活动的真实增量效果。

精简版合成对照创建指南

1. 处理数据

2. 生成权重

3. 可视化合成对照

4. 测量增量效果

前两步在 GeoLift 文档中有详细说明。为了保持一致性,我会在这里包括代码和输出。

我们将在 R 中执行初步步骤,并在 Python 中执行最后两步。

如果您主要使用 Python,请不要担心——R 代码简单易懂,我保证这将非常容易跟随!

1. 处理数据

您的数据应该是什么样子的:

  • 日常或每周粒度

  • 至少是测试持续时间的 4-5 倍的前期活动历史数据

  • 至少 20 个或更多的地理单元

  • 更多最佳实践

安装包:

加载数据:

  • 将 GeoLift 包中包含的 GeoLift 数据加载到 R 中。这些数据是基于 40 个美国城市在 90 天内的模拟数据,时间范围是 2021 年 1 月 1 日到 2021 年 3 月 31 日。
library(GeoLift)

data(GeoLift_PreTest)
  • 检查数据
> head(GeoLift_PreTest)
  location    Y       date
1 new york 3300 2021-01-01
2 new york 3202 2021-01-02
3 new york 4138 2021-01-03
4 new york 3716 2021-01-04
5 new york 3270 2021-01-05
6 new york 3260 2021-01-06
  • 格式化数据
GeoTestData_PreTest <- GeoDataRead(data = GeoLift_PreTest,
                                   date_id = "date",
                                   location_id = "location",
                                   Y_id = "Y",
                                   X = c(), #empty list as we have no covariates
                                   format = "yyyy-mm-dd",
                                   summary = TRUE)

##################################
#####       Summary       #####
##################################
* Raw Number of Locations: 40
* Time Periods: 90
* Final Number of Locations (Complete): 40
  • Y_id 是您的关键绩效指标,如收入或活跃用户数。

  • X = c() 允许您包含与目标指标动态相关的可选协变量,例如用户留存,而不是像城市人口或中位收入这样的静态指标。

2. 生成权重

假设我们的实验将在德克萨斯州的奥斯汀市进行。我们的目标是创建一个合成对照,它在实验开始之前尽可能地反映奥斯汀的实际情况。

创建权重:

  • 指定奥斯汀作为测试城市
weights <- GetWeights(Y_id = "Y",
                          location_id = "location",
                          time_id = "time",
                          data = GeoTestData_PreTest,
                          locations = c("austin"),
                          pretreatment_end_time = 90,
                          fixed_effects = TRUE)
  • pretreatment_end_time = 90 使用测试开始前 90 天的历史数据来合成对照城市。根据需要调整此持续时间以适应您的实验。

  • 要在多个城市进行测试,请在locations中指定它们,例如,locations = c(“austin”, “dallas”)

排除任何市场不作为对照:

exclude_markets <- c("honolulu","washington")
GeoTestData_PreTest_Excl <- subset(GeoTestData_PreTest, !location %in% exclude_markets)

然后将GeoTestData_PreTest_Excl传入上面的GetWeights函数。

显示前几名权重:

> head(dplyr::arrange(weights, desc(weight)))
     location     weight
1  cincinnati 0.35232541
2     detroit 0.27955009
3    honolulu 0.12960818
4 minneapolis 0.10951033
5    portland 0.06265098
6 san antonio 0.01844960

下载权重和市场数据到 csv:

write.csv(weights, "/Users/mandyliu/Documents/R/geolift_weights.csv", row.names=FALSE)
write.csv(GeoLift_PreTest, "/Users/mandyliu/Documents/R/market_data.csv", row.names=FALSE)

3. 可视化合成对照

现在我们已经有了权重文件,我们将创建一个合成对照地理对象,与我们的测试市场——奥斯汀进行比较。

设置:

  • 在 Python 中导入包
import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt
from datetime import datetime, timedelta, date
  • 读取数据
df_weights = pd.read_csv('/Users/mandyliu/Documents/R/geolift_weights.csv')  
df_markets = pd.read_csv('/Users/mandyliu/Documents/R/market_data.csv')

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/cac3289e17affc0face75ec36d0a873f.pnghttps://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/cdf25bd7dfd363629c72bd8b784ac7c2.png

作者在 Jupyter notebook 中创建

将权重和城市结合在一起,创建一个单一的对照:

# convert to pandas datetime
df_markets['date']=pd.to_datetime(df_markets['date'],format = '%Y-%m-%d')

# combine control markets with weights
df_markets_weights = df_markets.merge(df_weights, on='location')
df_markets_weights['weighted_Y'] = df_markets_weights['Y'] * df_markets_weights['weight']

# sum weighted_Y by date to create a single synthetic control city
df_syn_control = df_markets_weights.groupby('date').sum('weighted_Y')\
.reset_index()[['date','weighted_Y']].rename(columns = {'weighted_Y':'Y'})
df_syn_control['location'] = 'syn_control'

# append Austin data to syn control
df_markets_austin = df_markets[df_markets['location']=='austin'].reset_index(drop = True)
df_syn_control_austin = pd.concat([df_markets_austin,df_syn_control],ignore_index = True)

可视化奥斯汀与合成对照

sns.lineplot(data=df_syn_control_austin, x="date", y="Y",hue = 'location',palette=['purple', 'pink'])
plt.xticks(rotation=45)

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/ab8e346385d8339fdfa3a609e2d6e775.png

作者在 Jupyter notebook 中创建

检查相关性:

df_corr = df_syn_control[['date','Y']].merge(df_markets_austin[['date','Y']],on = 'date')
df_corr['Y_x'].corr(df_corr['Y_y'])

奥斯汀与合成对照的相关性为0.950——非常稳固!

测量增量效果

有一点小的变化。

尽管奥斯丁及其对照组显示出高度的相关性,图表揭示了对照组始终呈现更高的值。

为了方便直接比较,我们可以应用一个乘数来对齐启动前的数值。

创建乘数:

# create multiplier
austin_Y = df_markets_austin.loc[df_markets_austin['date']==df_markets_austin['date'].max(),'Y'].iloc[0]
syn_control_Y = df_syn_control.loc[df_syn_control['date']==df_syn_control['date'].max(),'Y'].iloc[0]

M = austin_Y/syn_control_Y

M = 0.9556415990151904

模拟启动后的数据:

  • 在 2021 年 4 月 1 日启动日期后创建两周的数据
# create a list of dates
date_list = []
start_date = df_markets_austin['date'].max()

k = 15
for day in range(1,k):
    date = start_date + timedelta(days=day)
    date_list.append(date)

# create fake austin data post-launch
data_austin_new = {
    "date":date_list, 
    "Y":   df_markets_austin.tail(14)['Y'].values*1.2, #assuming a 20% lift
    "location":  ['austin'] * 14
}
df_austin_new = pd.DataFrame(data_austin_new)
df_markets_austin_test = pd.concat([df_markets_austin,df_austin_new])

# create fake synthetic control data post-launch
data_syn_control_new = {
    "date":date_list, 
    "Y":   df_syn_control.tail(14)['Y'].values, 
    "location":  ['syn_control'] * 14
}
df_syn_control_new = pd.DataFrame(data_syn_control_new)
df_syn_control_test = pd.concat([df_syn_control,df_syn_control_new])

#adjust synthetic control with multiplier M
df_syn_control_adj = df_syn_control_test.copy()
df_syn_control_adj['Y'] = df_syn_control_adj['Y']*M

# combine austin and adjusted control data
df_syn_control_austin_adj = pd.concat([df_markets_austin_test,df_syn_control_adj]\
                                      ,ignore_index = True)

可视化奥斯丁与调整后的对照组:

ax = sns.lineplot(data=df_syn_control_austin_adj, x="date", y="Y",hue = 'location',palette=['purple', 'pink'])
ax.axvline(x = date(2021,3,31),c='b', linestyle = "dashed")
plt.xticks(rotation=45)

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/e0032aafd669b12d6e589c5163de86f1.png

作者在 Jupyter notebook 中创建

我们创建了一张引人注目的图表,完美展示了启动前后的不同!

收获

尽管现实数据可能更为复杂,但通过比较测试市场与合成对照,我们能够观察到随时间推移的增量提升

由于我们使用历史数据将对照组在干预前紧密地校准到处理组,合成方法通常比差异中的差异方法提供更可靠且更具可解释性的结果。

资源

  • Github 链接 供参考本文中的所有内容

  • Meta GeoLift 博客

  • Meta GeoLift github

  • GeoLift 用户 Facebook 群组

你可能也会喜欢这个:

## 我作为初级数据科学家犯的 3 个痛苦错误

今天就从他们那里学习,快速推进你的职业生涯

towardsdatascience.com

联系我: Twitter/X | LinkedIn

内容概要:本文介绍了ENVI Deep Learning V1.0的操作教程,重点讲解了如何利用ENVI软件进行深度学习模型的训练与应用,以实现遥感图像中特定目标(如集装箱)的自动提取。教程涵盖了从数据准备、标签图像创建、模型初始化与训练,到执行分类及结果优化的完整流程,并介绍了精度评价与通过ENVI Modeler实现一键化建模的方法。系统基于TensorFlow框架,采用ENVINet5(U-Net变体)架构,支持通过点、线、面ROI或分类图生成标签数据,适用于多/高光谱影像的单一类别特征提取。; 适合人群:具备遥感图像处理基础,熟悉ENVI软件操作,从事地理信息、测绘、环境监测等相关领域的技术人员或研究人员,尤其是希望将深度学习技术应用于遥感目标识别的初学者与实践者。; 使用场景及目标:①在遥感影像中自动识别和提取特定地物目标(如车辆、建筑、道路、集装箱等);②掌握ENVI环境下深度学习模型的训练流程与关键参数设置(如Patch Size、Epochs、Class Weight等);③通过模型调优与结果反馈提升分类精度,实现高效自动化信息提取。; 阅读建议:建议结合实际遥感项目边学边练,重点关注标签数据制作、模型参数配置与结果后处理环节,充分利用ENVI Modeler进行自动化建模与参数优化,同时注意软硬件环境(特别是NVIDIA GPU)的配置要求以保障训练效率。
内容概要:本文系统阐述了企业新闻发稿在生成式引擎优化(GEO)时代下的全渠道策略与效果评估体系,涵盖当前企业传播面临的预算、资源、内容与效果评估四大挑战,并深入分析2025年新闻发稿行业五大趋势,包括AI驱动的智能化转型、精准化传播、首发内容价值提升、内容资产化及数据可视化。文章重点解析央媒、地方官媒、综合门户和自媒体四类媒体资源的特性、传播优势与发稿策略,提出基于内容适配性、时间节奏、话题设计的策略制定方法,并构建涵盖品牌价值、销售转化与GEO优化的多维评估框架。此外,结合“传声港”工具实操指南,提供AI智能投放、效果监测、自媒体管理与舆情应对的全流程解决方案,并针对科技、消费、B2B、区域品牌四大行业推出定制化发稿方案。; 适合人群:企业市场/公关负责人、品牌传播管理者、数字营销从业者及中小企业决策者,具备一定媒体传播经验并希望提升发稿效率与ROI的专业人士。; 使用场景及目标:①制定科学的新闻发稿策略,实现从“流量思维”向“价值思维”转型;②构建央媒定调、门户扩散、自媒体互动的立体化传播矩阵;③利用AI工具实现精准投放与GEO优化,提升品牌在AI搜索中的权威性与可见性;④通过数据驱动评估体系量化品牌影响力与销售转化效果。; 阅读建议:建议结合文中提供的实操清单、案例分析与工具指南进行系统学习,重点关注媒体适配性策略与GEO评估指标,在实际发稿中分阶段试点“AI+全渠道”组合策略,并定期复盘优化,以实现品牌传播的长期复利效应。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值