成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
信息增益
关注
0
信息增益(Kullback–Leibler divergence)又叫做information divergence,relative entropy 或者KLIC。 在概率论和信息论中,信息增益是非对称的,用以度量两种概率分布P和Q的差异。信息增益描述了当使用Q进行编码时,再使用P进行编码的差异。通常P代表样本或观察值的分布,也有可能是精确计算的理论分布。Q代表一种理论,模型,描述或者对P的近似。
综合
百科
VIP
热门
动态
论文
精华
Improving Sampling for Masked Diffusion Models via Information Gain
Arxiv
0+阅读 · 3月18日
Maximin Robust Bayesian Experimental Design
Arxiv
0+阅读 · 3月14日
A Proper Scoring Rule for Virtual Staining
Arxiv
0+阅读 · 2月26日
Improving Sampling for Masked Diffusion Models via Information Gain
Arxiv
0+阅读 · 2月20日
ICYM2I: The illusion of multimodal informativeness under missingness
Arxiv
0+阅读 · 3月2日
Posterior Sampling Reinforcement Learning with Gaussian Processes for Continuous Control: Sublinear Regret Bounds for Unbounded State Spaces
Arxiv
0+阅读 · 3月9日
Homotopic information gain for sparse active target tracking
Arxiv
0+阅读 · 2月20日
Selective Training for Large Vision Language Models via Visual Information Gain
Arxiv
0+阅读 · 2月19日
B$^3$-Seg: Camera-Free, Training-Free 3DGS Segmentation via Analytic EIG and Beta-Bernoulli Bayesian Updates
Arxiv
0+阅读 · 2月19日
SIGHT: Reinforcement Learning with Self-Evidence and Information-Gain Diverse Branching for Search Agent
Arxiv
0+阅读 · 2月12日
Conversational Decision Support for Information Search Under Uncertainty: Effects of Gist and Verbatim Feedback
Arxiv
0+阅读 · 2月16日
Legal$Δ$: Enhancing Legal Reasoning in LLMs via Reinforcement Learning with Chain-of-Thought Guided Information Gain
Arxiv
0+阅读 · 2月9日
Supercharging Simulation-Based Inference for Bayesian Optimal Experimental Design
Arxiv
0+阅读 · 2月6日
SPICE: Submodular Penalized Information-Conflict Selection for Efficient Large Language Model Training
Arxiv
0+阅读 · 1月30日
Active Causal Experimentalist (ACE): Learning Intervention Strategies via Direct Preference Optimization
Arxiv
0+阅读 · 2月2日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top