統計獨立性
出自 MBA智库百科(https://wiki.mbalib.com/)
目錄 |
統計獨立性是指概率論的基本概念之一。一些隨機現象經過大量觀察,在它們出現的結果之間不呈現顯著聯繫,因此認為這些隨機現象的規律性相互獨立,稱為統計獨立性。概率論中通常考慮隨機事件、隨機變數、試驗的獨立性。
設A,B是兩事件,如果滿足等式
P(AB)=P(A)P(B),
則稱事件A,B相互獨立。
定理:
設A,B是兩事件,且P(A)>0。若A,B相互獨立,則P(B|A)=P(B)。反之亦然。
定義:
設A,B,C是三事件,如果具有等式
P (AB)=P(A)P(B),
P(BC)=P(B)P(C),
P(AC)=P(A)P(C),
則稱事件A,B,C兩兩獨立。
一般,當事件A,B,C兩兩獨立時,等式P(ABC)=P(A)P(B)P(C)
不一定成立。
定義:
設A,B,C是三事件,如果具有等式
P (AB)=P(A)P(B),
P(BC)=P(B)P(C),
P(AC)=P(A)P(C).
P(ABC)=P(A)P(B)P(C),
則稱事件A,B,C相互獨立事件。
一般,設A1,A2,…,An是n個事件,如果對於任意k(1<k≤n),任意1≤i1<i2<…<ik≤n,具有等式
P(Ai1Ai2…Aik)=P(Ai1)P(Ai2)…P(Aik),
則稱事件A1,A2,…,An相互獨立事件。
統計相關性是經濟學中常用的一種分析工具。相關性是指當兩個因素之間存在聯繫的時候,一個典型的表現是:一個變數會隨著另一個變數變化。相關又分成正相關和負相關兩種情況。舉例說明:下雪外面就會變冷,這是正相關。出太陽就不會下雨,這是負相關。
1、統計獨立必不相關
兩個隨機過程保持統計獨立時,它們必然是不相關的,但反過來則不一定成立,即不相關的兩個隨機過程不一定能保持統計獨立,唯有在高斯隨機過程中才是例外。這就是說,從統計角度看,統計獨立的條件要比不相關要嚴格,前者表明一個隨機變數的任一取值的變化都不會引起另一個變數的任何取值的變化;而不相關則是統計平均意義下相互無影響,即間或存在的相互影響,經集合平均後顯示不出來,巨集觀影響為0。
統計獨立的充要條件是兩個隨機變數的聯合概率密度分佈函數等於它們各自概率密度分佈函數的乘積,即P(AB)=P(A)P(B)。
兩個隨機變數或兩個隨機過程,若它們的互相關或互相關函數等於兩者均值之積,或者協方差和相關係數都等於0,則它們之間不相關。三個條件實質相同。
2、不相關與正交關係
在確知信號分析中已知,內積為零可作為兩個信號之間正交的定義。對於隨機過程來說,除了互協方差函數外,還要求至少其中有一個隨機過程的均值等於零,這時兩個隨機過程才互相正交。因此正交的條件滿足了,不相關的條件就自然滿足,但是反過來就未必然。可見正交條件要比不相關條件嚴格些,如果統計獨立的條件能滿足,則正交條件也自然滿足,但反過來也不一定成立,因此統計獨立的條件最嚴格。