当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.compat.v1.distributions.Bernoulli.kl_divergence用法及代码示例


用法

kl_divergence(
    other, name='kl_divergence'
)

参数

返回

  • kl_divergence self.dtype Tensor 与形状 [B1, ..., Bn] 表示 n 对 Kullback-Leibler 散度的不同计算。

计算 Kullback-Leibler 散度。

p 表示此分布 (self),用 q 表示 other 分布。假设 p, q 相对于参考测量 r 绝对连续,则 KL 散度定义为:

KL[p, q] = E_p[log(p(X)/q(X))]
         = -int_F p(x) log q(x) dr(x) + int_F p(x) log p(x) dr(x)
         = H[p, q] - H[p]

其中F表示随机变量的支持度X ~ p , H[., .]表示(Shanon)交叉熵,H[.]表示(Shanon)熵。

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.compat.v1.distributions.Bernoulli.kl_divergence。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。