The error exponent of fixed-length lossy source coding was established by Marton. Ahlswede showed that this exponent can be discontinuous at a rate $R$, depending on the probability distribution $P$ of the given information source and the distortion measure $d(x,y)$. The reason for the discontinuity in the error exponent is that there exists $(d,\Delta)$ such that the rate-distortion function $R(\Delta|P)$ is neither concave nor quasi-concave with respect to $P$. Arimoto's algorithm for computing the error exponent in lossy source coding is based on Blahut's parametric representation of the error exponent. However, Blahut's parametric representation is a lower convex envelope of Marton's exponent, and the two do not generally agree. The contribution of this paper is to provide a parametric representation that perfectly matches with the inverse function of Marton's exponent, thus avoiding the problem of the rate-distortion function being non-convex with respect to $P$. The optimal distribution for fixed parameters can be obtained using Arimoto's algorithm. Performing a nonconvex optimization over the parameters successfully yields the inverse function of Marton's exponent.


翻译:暂无翻译

0
下载
关闭预览

相关内容

专知会员服务
51+阅读 · 2020年12月14日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年6月5日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员