Motivated by applications where impatience is pervasive and evaluation times are uncertain, we study a selection model where options may expire at an unknown point in time and evaluation times are stochastic. Initially, the decision-maker (DM) has access to $n$ options with known non-negative values: these options have unknown stochastic evaluation and expiration times with known distributional information, which we assume to be independent. When the DM is free, we can select an available option that occupies the DM for an unknown amount of time and collect its value. The objective is to maximize the expected total value obtained from options selected by the DM. Natural formulations of this problem suffer from the curse of dimensionality. In fact, this problem is NP-hard even in the deterministic case. Hence, we focus on efficiently computable approximation algorithms that can provide high expected reward compared to the optimal expected value. Towards this end, we first provide a compact linear programming (LP) relaxation that gives an upper bound on the expected value obtained by the optimal policy. Then we design a polynomial-time algorithm that is nearly a $(1/2)\cdot (1-1/e)$-approximation to the optimal LP value (so also to the optimal expected value). We next shift our focus to the case of independent and identically distributed (i.i.d.) evaluation times. In this case, we show that the greedy policy that always selects the highest-valued option whenever the DM is free obtains a $1/2$-approximation to the optimal expected value. Our approaches extend effortlessly, and we demonstrate their flexibility by providing approximations to natural extensions of our problem. Finally, we evaluate our LP-based policies and the greedy policy empirically on synthetic and real datasets.


翻译:受评估时间不确定且普遍存在不耐烦情绪的应用场景启发,我们研究了一种选择模型:备选方案可能在未知时间点过期,且评估时间具有随机性。初始时,决策者拥有n个已知非负价值的备选方案,这些方案具有未知的随机评估时间和过期时间,其分布信息已知且假设相互独立。当决策者处于空闲状态时,可以选择一个可用方案(该方案将占用决策者未知时长的时间)并获得其价值。目标是通过决策者选择的方案最大化预期总价值。该问题的自然表述会遭遇维度灾难问题。事实上,即使在确定性情况下,该问题也是NP难问题。因此,我们专注于可高效计算的近似算法,使其在期望收益上能够接近最优期望值。为此,我们首先提出了一个紧凑的线性规划松弛模型,该模型能为最优策略获得的期望值提供上界。随后我们设计了一个多项式时间算法,该算法对最优线性规划值的近似比接近(1/2)·(1-1/e)(对最优期望值亦然)。接着我们将研究重点转向评估时间独立同分布的情况。在此情况下,我们证明当决策者空闲时始终选择最高价值备选方案的贪婪策略,能够获得最优期望值的1/2近似比。我们的方法具有可扩展性,并通过为问题的自然扩展形式提供近似解来展示其灵活性。最后,我们在合成数据集和真实数据集上对基于线性规划的策略及贪婪策略进行了实证评估。

0
下载
关闭预览

相关内容

事件抽取的再评价:过去、现在和未来的挑战
专知会员服务
25+阅读 · 2023年11月28日
【经典书】时间序列分析与预测导论,671页pdf
专知会员服务
153+阅读 · 2022年4月1日
【Google-BryanLim等】可解释深度学习时序预测
专知会员服务
64+阅读 · 2021年12月19日
专知会员服务
237+阅读 · 2020年12月15日
【干货书】贝叶斯推断随机过程,449页pdf
专知
30+阅读 · 2020年8月27日
论文浅尝 | 时序与因果关系联合推理
开放知识图谱
36+阅读 · 2019年6月23日
你真的懂时间序列预测吗?
腾讯大讲堂
104+阅读 · 2019年1月7日
应对时间序列问题有何妙招(Kaggle比赛亚军)
七月在线实验室
32+阅读 · 2018年3月19日
回归预测&时间序列预测
GBASE数据工程部数据团队
44+阅读 · 2017年5月17日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员