当前位置: 首页 > article >正文

信源熵的概念

目录

  • 信源
  • 熵函数
  • 两点分布的熵函数
  • 最大不确定性
  • 随机变量的熵

信源

信源是一个二元有序对 φ = ( S , P ) \varphi=(\mathcal{S},\mathcal{P}) φ=(S,P),其中,S = { x 1 = \{ x_1 ={x1, ⋯ \cdots , x n } x_n\} xn}称为信源字母集合,而 P 表示 S 的概率分布。通常用 p i p_i pi或 p(xi)表示 x i x_i xi发生的概率。

显然,上述定义中的 p(x)的值满足 0 ≤ p ( x i ) ≤ 1 , ∑ i = 1 n p ( x i ) = 1 0\leq p(x_i)\leq1,\sum_{i=1}^np(x_i)=1 0p(xi)1,i=1np(xi)=1,
它反应 x i x_i xi发生的不确定性。
如:p( x i x_i xi) = 1 意味着 x i x_i xi 的发生是必然事件,而 x j x_j xj( j ≠ \neq =i) 的发生是不可能事件。这时,信源 φ = ( S , P ) \varphi=(\mathcal{S},\mathcal{P}) φ=(S,P)没有任何不确定性。

如果对每个 x i x_i xi, 都有 0<p( x i x_i xi) < 1, 则信源 φ = ( \varphi = ( φ=(S, P) 蕴含着不确定性,并且这种不确定性直观上应在 p ( x 1 ) = p ( x 2 ) = ⋯ = ( \mathrm{x} _1) = \mathrm{p( x}_2) = \cdots = (x1)=p(x2)==p( x n x_n xn) 时达到最大。



熵函数

为了刻画信源的不确定性, 使用一个函数给出信源的平均不确定性的度量,这个函数就是 “熵” 的概念。

信源  φ = ( S , P )  的熵函数 H ( p 1 , ⋯   , p n )  定义为 H ( p 1 , ⋯   , p n ) = ∑ i = 1 n p ( x i ) log ⁡ 1 p ( x i ) = − ∑ i = 1 n p ( x i ) log ⁡ p ( x i ) . \text{信源 }\varphi=(\mathrm{S},\mathrm{P})\text{ 的熵函数 H}(\mathrm{p}_1,\cdots,\mathrm{p}_\mathrm{n})\text{ 定义为}\\\mathrm{H(p_1,\cdots,p_n)=\sum_{i=1}^np(x_i)\log\frac1{p(x_i)}=-\sum_{i=1}^np(x_i)\log p(x_i).} 信源 φ=(S,P) 的熵函数 H(p1,,pn) 定义为H(p1,,pn)=i=1np(xi)logp(xi)1=i=1np(xi)logp(xi).

由于当 x → 0 x\to0 x0 时, x l o g x → 0 x logx \to 0 xlogx0。以后约定 0 log ⁡ 0 = 0 0\log0=0 0log0=0,这样即使有部
分 p ( x i ) = 0 ( x_i) = 0 (xi)=0,熵函数 H ( p 1 ( p_1 (p1, ⋯ \cdots , p n ) p_n) pn)也有意义,还能保证熵函数
H( p 1 p_1 p1, ⋯ \cdots , p n p_n pn) 的连续性。上述熵函数定义中对数的底如果等于 b,则
H( p 1 p_1 p1, ⋯ \cdots , p n p_n pn) 也常常记作 H b H_b Hb( p 1 p_1 p1, ⋯ \cdots , p n p_n pn) .



两点分布的熵函数

对应两点分布的信源的熵函数是 H 2 ( p , 1 − p ) = p log ⁡ 2 1 p + ( 1 − p ) log ⁡ 2 1 1 − p \mathrm{H} _2(p, 1- p) = p\log _2\frac 1p+ ( 1- p) \log _2\frac 1{1- p} H2(p,1p)=plog2p1+(1p)log21p1. 常常把它简记为 H( p) 。它的图像从(0,0)单调增加到点 ( 1 2 , 1 ) (\frac12,1) (21,1),再从 ( 1 2 , 1 ) (\frac12,1) (21,1)单调减到(1,0),图像特点为上凸的,并以 x = 1 2 =\frac{1}{2} =21为对称轴。
请添加图片描述



最大不确定性

利用微积分中的拉格朗日条件极值的计算方法或根据对数函数图像的上凸性, 可以得到结论:

信源 φ = ( \varphi=( φ=(S,P) 的熵函数 H ( p 1 , ⋯   , p n ) (\mathfrak{p}_1,\cdots,\mathfrak{p}_n) (p1,,pn)取得最大值当且仅当

p 1 = ⋯ = p n = 1 n \mathrm{p_1=\cdots=p_n=\frac1n} p1==pn=n1

此时, H ( 1 n , ⋯   , 1 n ) = l o g n H(\frac1{\mathrm{n}},\cdots,\frac1{\mathrm{n}})=logn H(n1,,n1)=logn

上面的定理表明, 当信源字符处于均匀分布时, 该信源的不确定性达到最 大, 这也和直观感觉相符的。



随机变量的熵

X X X是一个随机变量,其取值空间为 S = { x 1 , ⋯   , x n } =\{\mathrm{x}_1,\cdots,\mathrm{x}_{\mathrm{n}}\} ={x1,,xn},

P ( X = x i ) = p ( x i ) P( X= x_i) = p( x_i) P(X=xi)=p(xi) , 则 X X X 的熵 H ( X ) H(X) H(X) 定义为

H ( X ) = − ∑ i = 1 n p ( x i ) log ⁡ p ( x i ) \mathrm{H(X)=-\sum_{i=1}^np(x_i)\log p(x_i)} H(X)=i=1np(xi)logp(xi)

随机变量 X 的熵 H(X) 也可看成是一个新的随机变量的数学期望。根据定义 H ( X ) = ∑ i P ( X = x i ) log ⁡ 1 P ( X = x i ) H(X) = \sum _\mathrm{i}P(X= \mathrm{x} _\mathrm{i} ) \log \frac 1{\mathrm{P} ( \mathrm{X} = \mathrm{x} _\mathrm{i} ) } H(X)=iP(X=xi)logP(X=xi)1。如果我们定义一个随机变量 W,在 x x i x_i xi 处 的 函 数 值 W ( x i ) = log ⁡ 1 P ( X = x i ) W( x_i) = \log \frac 1{P( X= x_i) } W(xi)=logP(X=xi)1,那么

H ( X ) = E ( W ) . \mathrm{H(X)=E(W).} H(X)=E(W).




http://www.kler.cn/a/376992.html

相关文章:

  • 第四、五章补充:线代本质合集(B站:小崔说数)
  • H5通过URL Scheme唤醒手机地图APP
  • 【MySQL】深度学习数据库开发技术:使用CC++语言访问数据库
  • 微信小程序map组件所有markers展示在视野范围内
  • Web应用安全-漏洞扫描器设计与实现
  • 【大模型】百度千帆大模型对接LangChain使用详解
  • Java实现图片转pdf
  • ssm+jsp662教务信息平台的设计与实现
  • 如何将MySQL彻底卸载干净
  • 【MySQL】 运维篇—故障排除与性能调优:常见故障的排查与解决
  • STM32之串口字库更新
  • 安装双系统后ubuntu无法联网(没有wifi标识)网卡驱动为RTL8852BE
  • clickhouse运维篇(三):生产环境一键生成配置并快速部署ck集群
  • HTML 基础标签——元数据标签 <meta>
  • vue路由两种数据类型引用
  • vue3中使用mqtt数据传输(封装)
  • 使用Postman进行API测试
  • 论文翻译 | Ignore Previous Prompt: Attack Techniques For Language Models
  • 【OD-支持在线评测】周末爬山(200分)
  • 移植 AWTK 到 纯血鸿蒙 (HarmonyOS NEXT) 系统 (2) - 移植 nanovg
  • 《深入浅出HTTPS​​​​》读书笔记(4):密码学
  • Flutter报错信息Unhandled Exception: Binding has not yet been initialized.
  • Facebook直播按钮缺失现象的深入分析
  • expand,None索引,permute【pytorch】
  • 数据结构之——选择树
  • leetcode hot100【LeetCode 322. 零钱兑换】java实现