当前位置: 首页 > article >正文

隐蔽通信中KL散度多码字联合与单码字分布

假设多个码字的观测是独立的,KL散度的推导可以利用独立性的性质来进行。KL散度是两个概率分布之间的非对称度量,表示了从一个分布到另一个分布的信息丧失情况。设每个码字的两个观测分布分别为 P P P Q Q Q,我们想推导多个独立码字对应的两个观测分布 P multi P_{\text{multi}} Pmulti Q multi Q_{\text{multi}} Qmulti 之间的KL散度。

单个码字的KL散度

对于单个码字,KL散度的定义是:
D KL ( P ∥ Q ) = ∑ x P ( x ) log ⁡ P ( x ) Q ( x ) D_{\text{KL}}(P \| Q) = \sum_x P(x) \log \frac{P(x)}{Q(x)} DKL(PQ)=xP(x)logQ(x)P(x)
其中, P ( x ) P(x) P(x) Q ( x ) Q(x) Q(x) 是单个码字观测的两个分布。

多个独立码字的KL散度

假设我们有 n n n 个码字的独立观测,每个码字的分布是 P ( x ) P(x) P(x) Q ( x ) Q(x) Q(x)。由于这些观测是独立的,多个码字的联合分布 P multi P_{\text{multi}} Pmulti Q multi Q_{\text{multi}} Qmulti 分别是各个码字分布的乘积,即:
P multi ( x 1 , x 2 , … , x n ) = ∏ i = 1 n P ( x i ) P_{\text{multi}}(x_1, x_2, \dots, x_n) = \prod_{i=1}^n P(x_i) Pmulti(x1,x2,,xn)=i=1nP(xi)
Q multi ( x 1 , x 2 , … , x n ) = ∏ i = 1 n Q ( x i ) Q_{\text{multi}}(x_1, x_2, \dots, x_n) = \prod_{i=1}^n Q(x_i) Qmulti(x1,x2,,xn)=i=1nQ(xi)

因此,多个码字的联合分布间的KL散度为:
D KL ( P multi ∥ Q multi ) = ∑ x 1 , x 2 , … , x n P multi ( x 1 , x 2 , … , x n ) log ⁡ P multi ( x 1 , x 2 , … , x n ) Q multi ( x 1 , x 2 , … , x n ) D_{\text{KL}}(P_{\text{multi}} \| Q_{\text{multi}}) = \sum_{x_1, x_2, \dots, x_n} P_{\text{multi}}(x_1, x_2, \dots, x_n) \log \frac{P_{\text{multi}}(x_1, x_2, \dots, x_n)}{Q_{\text{multi}}(x_1, x_2, \dots, x_n)} DKL(PmultiQmulti)=x1,x2,,xnPmulti(x1,x2,,xn)logQmulti(x1,x2,,xn)Pmulti(x1,x2,,xn)
代入联合分布的表达式:
D KL ( P multi ∥ Q multi ) = ∑ x 1 , x 2 , … , x n ∏ i = 1 n P ( x i ) log ⁡ ∏ i = 1 n P ( x i ) ∏ i = 1 n Q ( x i ) D_{\text{KL}}(P_{\text{multi}} \| Q_{\text{multi}}) = \sum_{x_1, x_2, \dots, x_n} \prod_{i=1}^n P(x_i) \log \frac{\prod_{i=1}^n P(x_i)}{\prod_{i=1}^n Q(x_i)} DKL(PmultiQmulti)=x1,x2,,xni=1nP(xi)logi=1nQ(xi)i=1nP(xi)

利用对数的性质,得到:
D KL ( P multi ∥ Q multi ) = ∑ x 1 , x 2 , … , x n ∏ i = 1 n P ( x i ) ∑ i = 1 n log ⁡ P ( x i ) Q ( x i ) D_{\text{KL}}(P_{\text{multi}} \| Q_{\text{multi}}) = \sum_{x_1, x_2, \dots, x_n} \prod_{i=1}^n P(x_i) \sum_{i=1}^n \log \frac{P(x_i)}{Q(x_i)} DKL(PmultiQmulti)=x1,x2,,xni=1nP(xi)i=1nlogQ(xi)P(xi)
= ∑ i = 1 n ∑ x i P ( x i ) log ⁡ P ( x i ) Q ( x i ) = \sum_{i=1}^n \sum_{x_i} P(x_i) \log \frac{P(x_i)}{Q(x_i)} =i=1nxiP(xi)logQ(xi)P(xi)

这说明多个码字的联合分布的KL散度是每个独立码字的KL散度之和,即:
D KL ( P multi ∥ Q multi ) = ∑ i = 1 n D KL ( P ∥ Q ) D_{\text{KL}}(P_{\text{multi}} \| Q_{\text{multi}}) = \sum_{i=1}^n D_{\text{KL}}(P \| Q) DKL(PmultiQmulti)=i=1nDKL(PQ)

结论

对于 n n n 个独立的码字,联合分布的KL散度是单个码字的KL散度的简单叠加,即:
D KL ( P multi ∥ Q multi ) = n ⋅ D KL ( P ∥ Q ) D_{\text{KL}}(P_{\text{multi}} \| Q_{\text{multi}}) = n \cdot D_{\text{KL}}(P \| Q) DKL(PmultiQmulti)=nDKL(PQ)

这表明当观测是独立时,多个码字的KL散度就是每个码字的KL散度乘以码字的数量 n n n


http://www.kler.cn/news/323175.html

相关文章:

  • Spring Boot打造:小徐影院管理平台
  • SpringCloud Alibaba五大组件之——RocketMQ
  • 【Mysql】Mysql数据库基本操作-------DDL(下)
  • 前端大模型入门:Transformer.js 和 Xenova-引领浏览器端的机器学习变革
  • Kafka与RabbitMQ:深入理解两者之间的区别
  • Rce脚本自动化amp;批量
  • 目标检测系列(三)yolov2的全面讲解
  • ComfyUI 完全入门:基本功能详细介绍(附ComfyUI整合包)
  • 【开源免费】基于SpringBoot+Vue.JS体育馆管理系统(JAVA毕业设计)
  • Matlab基础练习
  • 一步步带你Linux内核编译与安装
  • AI编辑器CURSOR_CURSOR安装教程_使用AI进行编码的最佳方式。
  • 论文阅读《Co-clustering for Federated Recommender System》
  • Transformers 引擎,vLLM 引擎,Llama.cpp 引擎,SGLang 引擎,MLX 引擎
  • 每日OJ_牛客_OR59字符串中找出连续最长的数字串_双指针_C++_Java
  • 新茶饮卷出海,本土化成胜败关键
  • 牛肉高脂猫粮,福派斯猫粮新选择?乳鸽猫粮
  • zookeeper 服务搭建(单机)
  • 远程访问软路由
  • [半导体检测-8]:KLA Surfscan 系统设备组成
  • 深度学习----------------------语言模型
  • yolov10安装体验
  • ICM20948 DMP代码详解(48)
  • C# 字符串(String)的应用说明一
  • 机器学习入门
  • 单通道串口服务器
  • 【华为HCIP实战课程一】OSPF相关基础介绍及基础配置,网络工程师必修
  • 华为认证HCIA篇--网络通信基础
  • 3.5k star 一款开源简单好用的前端TAG标签组建库
  • 2024年最新C# ASP.NET+Vue斯诺克球馆购票系统,快速部署,抢占市场先机,优化球馆服务