当前位置: 首页 > article >正文

信号与噪声分析——第二节:随机变量的统计特征

2.1  单个随机变量的统计特征

        随机变量是什么?

                        当随机变量X的取值个数是有限个的时候,我们称它为离散随机变量

                        当随机变量X的取值个数是无限个的时候,我们称它为连续随机变量

1. 分布函数和概率密度

1.分布函数

           分布函数  F(x)  定义为随机变量 X小于或等于某个值 x 的概率,即:
                                     F(x) = P(X \leq x)            -\infty <x<\infty

这表示随机变量在 x 及其以下取值的累积概率。

分布函数具有以下性质:

单调非减性:对于任意 x_1 < x_2,有 F(x_1) \leq F(x_2)

                即:F(x_2)-F(x_1)= P\left \{x_1< X \leqslant x_2 \right \}\geqslant 0

且:P\left \{ x_1< X\leq x_2 \right \}=P\left \{ X\leq x_2 \right \}-P\left \{ X\leq x_1 \right \}=F(x_2)-F(x_1)


极限性质:x \to -\inftyF(x) \to 0;当 x \to +\inftyF(x) \to 1

2. 概率密度函数

        对于连续型随机变量,概率密度函数 p(x) 是分布函数的导数,即:
                                                ​​​​​​​ p(x) = \frac{dF(x)}{dx}
        概率密度函数通常用于描述连续型变量,表示在某个特定点附近随机变量取值的密度,而不是直接的概率值。

总的来说就是:概率密度函数并不直接表示某个点取值的概率,而是用来计算区间上的概率

比如区间对于 [a,b],有:
        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        P(a<X \leq b) = \int_a^b p(x) dx

概率密度函数的性质:

1. 非负性
                对于任意的 x,概率密度函数p(x)\geqslant 0
        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        p(x) \geq 0, \quad \forall x \in \mathbb{R}

2. 积分为1
                整个实数范围内的概率密度函数积分等于1

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        \int_{-\infty}^{+\infty} p(x) dx = 1

3. 在任意区间上的概率
        概率密度函数并不直接表示某个点取值的概率,而是用来计算区间上的概率                                                                       P(a<X \leq b) = \int_a^b p(x) dx

4. 概率密度函数等于分布函数对x求导:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        p(x) = \frac{dF(x)}{dx}

2. 随机变量的数字特征

        随机变量的数字特征是用来描述随机变量行为的统计量,主要包括数学期望、方差、协方差和相关系数

1. 数学期望(均值)

        数学期望是随机变量取值的加权平均,反映了随机变量的中心位置
对于连续型随机变量,其期望为:
        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        E(X) = \int_{-\infty}^{+\infty} x p(x) \, dx       (其中p(x)为随机变量的概率密度)

2. 方差

           方差衡量随机变量取值的波动性,定义为期望与其均值的偏差平方的期望:
        ​​​​​​​        ​​​​​​​      ​​​  D(X) = E[X - E(X)]^{2}= E(X^2) - E^{2}(X)=\sigma ^{2}_x

2.2 多个随机变量的统计特征

二维随机变量是两个随机变量 (X, Y) 组成的随机变量​​​​​向量。

连续型二维随机变量
如果X 和 Y 是连续型随机变量,它们的联合概率密度函数 p_{X,Y}(x, y) 定义为:
        ​​​​​​​        ​​​​​​​        P(a \leq X \leq b, c \leq Y \leq d) = \int_{a}^{b} \int_{c}^{d} p_{X,Y}(x, y) \, dx\, dy
该联合密度函数给出了X和 Y同时落在某些区间内的概率。

1. 二维随机变量的分布函数和概率密度函数:

1.联合分布函数:

对于两个随机变量 X 和 Y,其联合分布函数定义为:
        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        F(x, y) = P(X \leq x, Y \leq y)
这个函数表示随机变量 X 和 Y 同时小于或等于某个值的概率。

如果:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        F(x,y)=F(x)F(y)

则称X和Y相互独立

2. 联合概率密度函数:

对于连续型随机变量,联合概率密度函数p(x,y)定义为:
        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        p(x, y) = \frac{\partial^2 F(x, y)}{\partial x \partial y}

联合概率密度的归一性:

                                         \iint_{-\infty}^{+\infty} p(x, y) \, dx \, dy = 1

如果:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        p(x,y)=p(x)p(y)

则称X和Y相互独立

p(x,y)=p(x)p(y) , F(x,y)=F(x)F(y) 是X和Y相互独立的充要条件

3. 边缘分布

        边缘分布是从联合分布中提取单个随机变量的分布。对于联合概率密度函数,可以通过对其他变量积分得到边缘概率密度
        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​p_X(x) = \int_{-\infty}^{+\infty} p(x, y) \, dy
        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        p_Y(y) = \int_{-\infty}^{+\infty} p(x, y) \, dx

2. 二维随机变量的数字特征:

        二维随机变量的数字特征是用于定量描述两个随机变量之间的特性以及它们之间相互关系的统计量。

1. 联合期望

连续型随机变量:

                                        E(X+Y)=E(X)+E(Y)
        ​​​​​​​        ​​​​​​​        ​​​​​​​E(X) = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} x p_{X,Y}(x, y) \, dx \, dy
        ​​​​​​​        ​​​​​​​        ​​​​​​​E(Y) = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} y p_{X,Y}(x, y) \, dx \, dy
其中,p_{X,Y}(x, y) 是X和 Y的联合概率密度函数

如果:随机变量X和Y相互独立,且E(X)E(Y)存在,则E(XY)也存在,则有

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        E(XY)=E(X)E(Y)

2. 联合方差

对于 X 的方差:
        ​​​​​​​        D(X) = E[X - E(X)]^{2} = E(X^2) - E^{2}(X)

对于 Y 的方差:
        ​​​​​​​        D(Y) = E[Y - E(Y)]^{2} = E(Y^2) - E^{2}(Y)

对于连续型随机变量的联合方差:
        ​​​​​​​        ​​​​​​​        E(X^2) = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} x^2 p_{X,Y}(x, y) \, dx \, dy

3. 协方差

        协方差用于衡量两个随机变量之间的线性相关性。它反映了两个变量是如何一起变化的:当一个变量增加时,另一个变量是否也有增加(正相关)或减少(负相关)的趋势。

对于两个随机变量 X 和 Y,它们的协方差定义为: ​​​​​​​        

\text{Cov}(X, Y) = E[(X - E(X))(Y - E(Y))] =R(X,Y)-m_xm_y

          ​​​​​​​        ​​​​​​​        ​​​​​​​        \text{Cov}(X, Y) = E(XY) - E(X)E(Y)

4. 归一化协方差函数——相关系数

        相关系数是协方差的标准化形式,用于定量衡量两个随机变量之间的线性相关性。相关系数的取值范围为 [-1, 1]

        ​​​​​​​        ​​​​​​​                ​​​​​​​        ​​​​​​​       \rho_{X,Y} = \frac{\text{Cov}(X, Y)}{\sigma_X \sigma_Y}

其中 \sigma_X 和 \sigma_Y分别是 X和 Y 的标准差,定义为:
        ​​​​​​​        ​​​​​​​                ​​​​​​​        \sigma_X = \sqrt{D(X)}, \quad \sigma_Y = \sqrt{D(Y)}

5. 相关函数:

        ​​​​​​​        ​​​​​​​        R(X,Y)=E[XY]= \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} xy p_{X,Y}(x, y) \, dx \, dy


http://www.kler.cn/a/386767.html

相关文章:

  • 嵌入式硬件实战提升篇(一)-泰山派RK3566制作多功能小手机
  • 浪潮信息“源”Embedding模型登顶MTEB榜单第一名
  • Mysql数据库里的SSH连接
  • 【算法一周目】双指针(2)
  • npm list @types/node 命令用于列出当前项目中 @types/node 包及其依赖关系
  • C++《继承》
  • Pr:视频效果使用详解(全集 · 2025版)
  • flutter鸿蒙next 使用 InheritedWidget 实现跨 Widget 传递状态
  • 【物联网技术】ESP8266 WIFI模块在AP模式下实现UDP与电脑/手机网络助手通信——UDP数据透传
  • 【数字图像处理】一篇搞定傅里叶变换
  • Git 入门篇(二)
  • Centos7安装Redis 远程连接
  • 【LeetCode】【算法】206. 反转链表
  • nodejs 020: React语法规则 props和state
  • 采用macvlan绕过某些软件需要MAC授权的问题
  • Mac电脑中隐藏文件(即以 . 开头的文件/文件夹)的显示和隐藏的两种方法
  • javascript实现sha512和sha384算法(支持微信小程序),可分多次计算
  • Cesium着色器的创意和方法(五——Polyline)
  • opencv保姆级讲解-guI和pymsql实现人脸识别打卡(6)
  • 【WebRTC】视频编码链路中各个类的简单分析——VideoEncoder
  • C++20 概念与约束(2)—— 初识概念与约束
  • 三分钟学会Docker基本操作,快速入门容器技术!
  • 还在网盘?分享百兆级大文件传输工具--Wormhole:不限速在线文件传输下载利器
  • Java 类和对象
  • Spring Boot开发入门教程
  • 第二届计算机网络技术与电子信息工程国际学术会议(CNTEIE 2024,12月6-8日)