10.2  随机变量的独立性概念

10.2 随机变量的独立性概念

统计独立性是构成ICA基础的一个关键概念。考虑两个不同随机变量xy的情形,如果知道随机变量y的值并不能给出随机变量x取值的任何信息,那么我们说x独立于y。数学上,统计独立性是通过联合概率密度函数来定义的。若随机变量xy为独立的,需要满足式(10-4)的条件:

pxyxy)=pxxpyy)(10-4)

换句话说,xy的联合概率密度pxyxy)必须能分解成它们的边缘密度pxx)与pyy)的乘积。可以通过累积分布函数等价地来定义:在式(10-4)中将概率密度函数换成相应的累积分布函数,那么联合累积分布函数也必须是可分解的。

满足独立性的随机变量具有如下基本性质:

E{gxhy)}=E{gx)}E{hy)}(10-5)

式中,gx)和hy)分别是关于xy的任意绝对可积函数。这是因为:

978-7-111-59317-1-Chapter10-1.jpg

由式(10-4)可以推广到多个随机变量的情形。令xyz…是随机向量,

xyz…的独立性条件见式(10-7):

pxyz…(xyz…)=pxxpyypzz)… (10-7)

而基本性质式(10-5)则推广为式(10-8)所示:

E{gxxgyygzz)…}=E{gxx)}E{gyy)}E{gzz)}… (10-8)

式中,gxx)、gyy)和gzz)分别是随机变量xyz的任意函数,要求这些函数使得式(10-8)中定义的期望存在。

式(10-8)给出了统计独立性标准观念的一种推广。随机向量x的分量本身就是标量值的随机变量,yz也是一样。显而易见,x的各分量之间是可以相互关联的,但需要与其他随机向量的分量之间相互独立,对随机向量yz也有类似的论断,这样才能使得式(10-8)成立。