统计独立性
出自 MBA智库百科(https://wiki.mbalib.com/)
目录[隐藏] |
统计独立性是指概率论的基本概念之一。一些随机现象经过大量观察,在它们出现的结果之间不呈现显著联系,因此认为这些随机现象的规律性相互独立,称为统计独立性。概率论中通常考虑随机事件、随机变量、试验的独立性。
设A,B是两事件,如果满足等式
P(AB)=P(A)P(B),
则称事件A,B相互独立。
定理:
设A,B是两事件,且P(A)>0。若A,B相互独立,则P(B|A)=P(B)。反之亦然。
定义:
设A,B,C是三事件,如果具有等式
P (AB)=P(A)P(B),
P(BC)=P(B)P(C),
P(AC)=P(A)P(C),
则称事件A,B,C两两独立。
一般,当事件A,B,C两两独立时,等式P(ABC)=P(A)P(B)P(C)
不一定成立。
定义:
设A,B,C是三事件,如果具有等式
P (AB)=P(A)P(B),
P(BC)=P(B)P(C),
P(AC)=P(A)P(C).
P(ABC)=P(A)P(B)P(C),
则称事件A,B,C相互独立事件。
一般,设A1,A2,…,An是n个事件,如果对于任意k(1<k≤n),任意1≤i1<i2<…<ik≤n,具有等式
P(Ai1Ai2…Aik)=P(Ai1)P(Ai2)…P(Aik),
则称事件A1,A2,…,An相互独立事件。
统计相关性是经济学中常用的一种分析工具。相关性是指当两个因素之间存在联系的时候,一个典型的表现是:一个变量会随着另一个变量变化。相关又分成正相关和负相关两种情况。举例说明:下雪外面就会变冷,这是正相关。出太阳就不会下雨,这是负相关。
1、统计独立必不相关
两个随机过程保持统计独立时,它们必然是不相关的,但反过来则不一定成立,即不相关的两个随机过程不一定能保持统计独立,唯有在高斯随机过程中才是例外。这就是说,从统计角度看,统计独立的条件要比不相关要严格,前者表明一个随机变量的任一取值的变化都不会引起另一个变量的任何取值的变化;而不相关则是统计平均意义下相互无影响,即间或存在的相互影响,经集合平均后显示不出来,宏观影响为0。
统计独立的充要条件是两个随机变量的联合概率密度分布函数等于它们各自概率密度分布函数的乘积,即P(AB)=P(A)P(B)。
两个随机变量或两个随机过程,若它们的互相关或互相关函数等于两者均值之积,或者协方差和相关系数都等于0,则它们之间不相关。三个条件实质相同。
2、不相关与正交关系
在确知信号分析中已知,内积为零可作为两个信号之间正交的定义。对于随机过程来说,除了互协方差函数外,还要求至少其中有一个随机过程的均值等于零,这时两个随机过程才互相正交。因此正交的条件满足了,不相关的条件就自然满足,但是反过来就未必然。可见正交条件要比不相关条件严格些,如果统计独立的条件能满足,则正交条件也自然满足,但反过来也不一定成立,因此统计独立的条件最严格。