We study the problem of minimizing regret in multi-mode advertisement settings, where an influence provider allocates advertising resources such as social network seeds and billboard slots to multiple advertisers with specified influence demands and payments. Unlike prior work focusing on a single mode of advertising, we consider the interplay between online and offline modes and introduce a novel regret model that captures their interaction effect. This leads to a regret minimization problem that is non-monotone, non-submodular, and NP-hard to approximate within any constant factor. To address this, we propose a monotone, approximately bisubmodular influence model and develop two algorithmic solutions: Projected Subgradient Method based on the Lovász extension of the regret function, and an Approximate Bisubmodular Local Search algorithm with provable guarantees. Experiments on large-scale real-world datasets, including billboard and trajectory data from major U.S. cities, as well as social network graphs, demonstrate that our methods outperform existing baselines in minimizing total regret while satisfying advertiser demands. Our framework is broadly applicable to other resource allocation scenarios beyond advertising.


翻译:我们研究了多模式广告场景中的遗憾最小化问题,其中影响力提供者将社交媒体种子用户和广告牌时段等广告资源分配给多个广告商,这些广告商具有特定的影响力需求和支付预算。与先前专注于单一广告模式的研究不同,我们考虑了线上与线下模式之间的相互作用,并引入了一种新的遗憾模型来捕捉它们的交互效应。这导致了一个非单调、非次模且无法在任意常数因子内近似求解的NP难遗憾最小化问题。为解决此问题,我们提出了一种单调的近似双次模影响力模型,并开发了两种算法解决方案:基于遗憾函数Lovász扩展的投影次梯度方法,以及具有可证明保证的近似双次模局部搜索算法。在大规模真实数据集上的实验,包括来自美国主要城市的广告牌与轨迹数据以及社交网络图,表明我们的方法在满足广告商需求的同时,在最小化总遗憾方面优于现有基线。我们的框架广泛适用于广告之外的其他资源分配场景。

0
下载
关闭预览

相关内容

【CVPR2022】提示分布学习
专知会员服务
31+阅读 · 2022年5月17日
UTC: 用于视觉对话的任务间对比学习的统一Transformer
专知会员服务
14+阅读 · 2022年5月4日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
22+阅读 · 2021年4月11日
[CVPR 2021] 序列到序列对比学习的文本识别
专知
10+阅读 · 2021年4月14日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
误差反向传播——CNN
统计学习与视觉计算组
31+阅读 · 2018年7月12日
使用CNN生成图像先验实现场景的盲图像去模糊
统计学习与视觉计算组
10+阅读 · 2018年6月14日
读论文Discriminative Deep Metric Learning for Face and KV
统计学习与视觉计算组
12+阅读 · 2018年4月6日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
18+阅读 · 2024年12月27日
Arxiv
175+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
499+阅读 · 2023年3月31日
Arxiv
83+阅读 · 2023年3月26日
Arxiv
27+阅读 · 2023年3月17日
VIP会员
相关资讯
[CVPR 2021] 序列到序列对比学习的文本识别
专知
10+阅读 · 2021年4月14日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
误差反向传播——CNN
统计学习与视觉计算组
31+阅读 · 2018年7月12日
使用CNN生成图像先验实现场景的盲图像去模糊
统计学习与视觉计算组
10+阅读 · 2018年6月14日
读论文Discriminative Deep Metric Learning for Face and KV
统计学习与视觉计算组
12+阅读 · 2018年4月6日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员