We study prior-independent pricing for selling a single item to a single buyer when the seller observes only a single sample from the valuation distribution, while the buyer knows the distribution. Classical robust pricing approaches either rely on distributional statistics, which typically require many samples to estimate, or directly use revealed samples to determine prices and allocations. We show that these two regimes can be bridged by leveraging the buyer's informational advantage: pricing policies that conventionally require the seller to know statistics such as the mean, $L^η$-norm, or superquantile can, in our framework, be implemented using only a single hidden sample. We introduce hidden pricing mechanisms, in which the seller commits ex ante to a pricing rule based on a single sample that is revealed only after the buyer's participation decision. We show that every concave pricing policy can be implemented in this way. To evaluate performance guarantees, we develop a general reduction for analyzing monotone pricing policies over $α$-regular distributions, enabling a tractable characterization of worst-case instances. Using this reduction, we characterize the optimal monotone hidden pricing mechanisms and compute their approximation ratios; in particular, we obtain an approximation ratio of approximately $0.79$ for monotone hazard rate (MHR) distributions. We further establish impossibility results for general concave pricing policies and for all prior-independent mechanisms. Finally, we show that our framework also applies to statistic-based robust pricing, thereby unifying sample-based and statistic-based approaches.


翻译:暂无翻译

0
下载
关闭预览

相关内容

【ICML2024】揭示Graph Transformers 中的过全局化问题
专知会员服务
21+阅读 · 2024年5月27日
【知识图谱@ACL2020】Knowledge Graphs in Natural Language Processing
专知会员服务
66+阅读 · 2020年7月12日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
开源书:PyTorch深度学习起步
专知会员服务
51+阅读 · 2019年10月11日
【赠书】TensorFlow自然语言处理
AINLP
17+阅读 · 2019年7月14日
强化学习三篇论文 避免遗忘等
CreateAMind
20+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强推!《PyTorch中文手册》来了
新智元
33+阅读 · 2019年2月14日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
手把手教 | 深度学习库PyTorch(附代码)
数据派THU
27+阅读 · 2018年3月15日
自然语言处理 (三) 之 word embedding
DeepLearning中文论坛
19+阅读 · 2015年8月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月27日
VIP会员
相关资讯
【赠书】TensorFlow自然语言处理
AINLP
17+阅读 · 2019年7月14日
强化学习三篇论文 避免遗忘等
CreateAMind
20+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强推!《PyTorch中文手册》来了
新智元
33+阅读 · 2019年2月14日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
手把手教 | 深度学习库PyTorch(附代码)
数据派THU
27+阅读 · 2018年3月15日
自然语言处理 (三) 之 word embedding
DeepLearning中文论坛
19+阅读 · 2015年8月3日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员