KL Divergence KL散度

news/2025/1/13 7:38:07/

在概率论或信息论中,KL散度( Kullback–Leibler divergence),又称相对熵(relative entropy),是描述两个概率分布P和Q差异的一种方法。它是非对称的,这意味着D(P||Q) ≠ D(Q||P)。特别的,在信息论中,D(P||Q)表示当用概率分布Q来拟合真实分布P时,产生的信息损耗,其中P表示真实分布,Q表示P的拟合分布。
有人将KL散度称为KL距离,但事实上,KL散度并不满足距离的概念,应为:1)KL散度不是对称的;2)KL散度不满足三角不等式。

相对熵(relative entropy)又称为KL散度(Kullback–Leibler divergence,简称KLD),信息散度(information divergence),信息增益(information gain)。

KL散度是两个**概率分布**P和Q差别的非对称性的度量。
对一个离散随机变量的两个概率分布P和Q来说,他们的KL散度定义为:
这里写图片描述
对于连续的随机变量,定义类似:这里写图片描述

对于KL散度新的应用参考Clustering Uncertain Data Based on Probability Distribution Similarity


http://www.ppmy.cn/news/163695.html

相关文章

【BZOJ】【双倍的幸福】【双(三)倍的经验】

楼主表示可用的只有 17861831 10561862 32931045 19342768 28182820 24622351 30472125 31901007 F.A.QsHomeProblemSetStatusRanklistContestModifyUser zkyLogout Notice:1:欢迎添加试题到OJ上,要求难度在省选之上,相关资料请发到lydsy201…

炉石传说基础战斗数值系统分析

炉石传说对战中,最重要的属性数值为攻击,血量和水晶(相当于法力值/体力值,下文简称为费用)。这三者紧密相连,互相影响。本文尝试分析炉石传说如此设定角色以及卡牌的属性的原因。 一 英雄的血量与法力水晶…

【三】分布式训练---单机多卡与多机多卡组网(飞桨paddle2.0+)更加推荐spawn方式!

1. 单机多卡启动并行训练 飞桨2.0增加paddle.distributed.spawn函数来启动单机多卡训练,同时原有的paddle.distributed.launch的方式依然保留。 paddle.distributed.launch通过指定启动的程序文件,以文件为单位启动多进程来实现多卡同步训练。以前在ai…

CCF201609-3 炉石传说(100分)

试题编号:201609-3试题名称:炉石传说时间限制:1.0s内存限制:256.0MB问题描述: 问题描述 《炉石传说:魔兽英雄传》(Hearthstone: Heroes of Warcraft,简称炉石传说)是暴雪…

CDH 的Kerberos认证配置

CDH 的Kerberos认证配置 博客分类: Hadoop http://xubo8118.blog.163.com/blog/static/1855523322013918103857226/ 关于: hadoop的安全机制 hadoop kerberos的安全机制 参考Cloudera官方文档: Configuring Hadoop Security in CDH3 一、部…

cobaltstrike使用和巨龙拉冬9.0

最近看到了office钓鱼的文就对cobaltstrike进行一些学习 这里带来最一些讲解希望能对一些学cs的同学带来帮助也算是扫盲吧(大佬勿喷) 安装,运行,介绍 1.准备一台linux服务器,一台Windows主机(windows主机用来查看,linux服务器用来进行攻击 注…

一文懂KL散度KL Divergence

本文翻译自https://naokishibuya.medium.com/demystifying-kl-divergence-7ebe4317ee68 KL散度中的KL全称是Kullback-Leibler,分别表示Solomon Kullback和Richard A.Leibler这两个人。 一、KL散度的定义 KL散度表明概率分布Q和概率分布P之间的相似性,由…

机器学习:KL散度详解

KL 散度,是一个用来衡量两个概率分布的相似性的一个度量指标。 我们知道,现实世界里的任何观察都可以看成表示成信息和数据,一般来说,我们无法获取数据的总体,我们只能拿到数据的部分样本,根据数据的部分样…