成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
相对熵
关注
0
相对熵(relative entropy),又被称为Kullback-Leibler散度(Kullback-Leibler divergence)或信息散度(information divergence),是两个概率分布(probability distribution)间差异的非对称性度量。在在信息理论中,相对熵等价于两个概率分布的信息熵(Shannon entropy)的差值.
综合
百科
VIP
热门
动态
论文
精华
Tumula information and doubly minimized Petz Renyi lautum information
Arxiv
0+阅读 · 3月17日
Reweighted information inequalities
Arxiv
0+阅读 · 3月13日
Quantum Soft Covering with Relative Entropy Criterion
Arxiv
0+阅读 · 2月23日
Quantum-Enhanced Change Detection and Joint Communication-Detection
Arxiv
0+阅读 · 3月10日
Complete Diagrammatic Axiomatisations of Relative Entropy
Arxiv
0+阅读 · 3月4日
Effective Reinforcement Learning Control using Conservative Soft Actor-Critic
Arxiv
0+阅读 · 2月24日
On Estimating the Quantum Tsallis Relative Entropy
Arxiv
0+阅读 · 2月23日
Modelling the Diachronic Emergence of Phoneme Frequency Distributions
Arxiv
0+阅读 · 3月10日
Tight any-shot quantum decoupling
Arxiv
0+阅读 · 2月19日
Map of Encoders -- Mapping Sentence Encoders using Quantum Relative Entropy
Arxiv
0+阅读 · 2月9日
Data Compression with Stochastic Codes
Arxiv
0+阅读 · 2月7日
Data Compression with Relative Entropy Coding
Arxiv
0+阅读 · 2月7日
Estimation of discrete distributions in relative entropy, and the deviations of the missing mass
Arxiv
0+阅读 · 1月23日
Generative modeling using evolved quantum Boltzmann machines
Arxiv
0+阅读 · 2025年12月2日
Performance Guarantees for Quantum Neural Estimation of Entropies
Arxiv
0+阅读 · 2025年11月24日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top