Let $\exp[x_0,x_1,\dots,x_n]$ denote the divided difference of the exponential function. (i) We prove that exponential divided differences are log-submodular. (ii) We establish the four-point inequality $ \exp[a,a,b,c]\,\exp[d,d,b,c]+\exp[b,b,a,d]\,\exp[c,c,a,d]-\exp[a,b,c,d]^2 \ge 0 $ for all $ a,b,c,d \in \mathbb{R} $. (iii) We obtain sharp two-sided bounds for $\exp[x_0,\dots,x_n]$ at fixed mean and variance; as a consequence, we derive their large-input asymptotics. (iv) We present closed-form identities for divided differences of the exponential function, including a convolution identity and summation formulas for repeated arguments.


翻译:令 $\exp[x_0,x_1,\dots,x_n]$ 表示指数函数的差商。(i) 我们证明指数差商是对数次模的。(ii) 我们建立了四点不等式 $ \exp[a,a,b,c]\,\exp[d,d,b,c]+\exp[b,b,a,d]\,\exp[c,c,a,d]-\exp[a,b,c,d]^2 \ge 0 $ 对所有 $ a,b,c,d \in \mathbb{R} $ 成立。(iii) 我们在固定均值和方差的条件下,获得了 $\exp[x_0,\dots,x_n]$ 的尖锐双边界;作为推论,我们导出了其在大输入量下的渐近性态。(iv) 我们给出了指数函数差商的闭式恒等式,包括一个卷积恒等式以及关于重复参数的求和公式。

0
下载
关闭预览

相关内容

【ACL2020】多模态信息抽取,365页ppt
专知会员服务
151+阅读 · 2020年7月6日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
RL解决'BipedalWalkerHardcore-v2' (SOTA)
CreateAMind
31+阅读 · 2019年7月17日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
CNN 反向传播算法推导
统计学习与视觉计算组
30+阅读 · 2017年12月29日
Layer Normalization原理及其TensorFlow实现
深度学习每日摘要
32+阅读 · 2017年6月17日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
69+阅读 · 2022年9月7日
Arxiv
16+阅读 · 2022年5月17日
Arxiv
18+阅读 · 2021年3月16日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
VIP会员
相关VIP内容
相关资讯
RL解决'BipedalWalkerHardcore-v2' (SOTA)
CreateAMind
31+阅读 · 2019年7月17日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
CNN 反向传播算法推导
统计学习与视觉计算组
30+阅读 · 2017年12月29日
Layer Normalization原理及其TensorFlow实现
深度学习每日摘要
32+阅读 · 2017年6月17日
相关论文
Arxiv
69+阅读 · 2022年9月7日
Arxiv
16+阅读 · 2022年5月17日
Arxiv
18+阅读 · 2021年3月16日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员