Wspólny rozkład prawdopodobieństwa

Czarne punkty uzyskane z pomiaru dwóch zmiennych losowych X, Y – większej gęstości punktów w pobliżu danego punktu (x, y) odpowiada większe wspólne prawdopodobieństwo, że X przyjmie wartość w pobliżu x, a Y w pobliżu y. Pokazano też rozkłady brzegowe P(X=x) oraz P(Y=y).

Wspólny rozkład prawdopodobieństwa (ang. joint probability distribution) – rodzaj rozkładu prawdopodobieństwa, który zmiennym losowym X, Y, .... przypisuje prawdopodobieństwo, iż zmienne X, Y, .... przyjmą określone wartości (ciągłe lub dyskretne, należące do specyficznych dla każdej z nich zbiorów wartości).

Jeśli mamy tylko dwie zmienne losowe, to rozkład nazywamy dwuwymiarowym, a dla większej liczby zmiennych losowych rozkład nazywamy wielowymiarowym.

Wspólny rozkład prawdopodobieństwa może zostać wyrażony także jako wspólna dystrybuanta, wspólna funkcja gęstości prawdopodobieństwa (w przypadku zmiennych ciągłych) lub wspólna funkcja masy prawdopodobieństwa (w przypadku zmiennych dyskretnych). Te z kolei mogą być wykorzystywane do znalezienia dwóch innych rodzajów rozkładów: rozkładu brzegowego (czyli rozkładu prawdopodobieństwa dla jakiejś jednej zmiennej losowej bez odniesienia do pozostałych zmiennych) oraz rozkładu warunkowego (czyli rozkładu prawdopodobieństwa dla wybranego podzbioru zmiennych losowych przy ustalonych wartościach pozostałych zmiennych).

Przykład

Pomyślmy, że toczymy kostką do gry i uznajmy, że A = 1, jeśli liczba jest parzysta (in. jeśli wytoczymy liczbę 2, 4 lub 6) oraz A = 0, jeśli liczba jest nieparzysta (in. jeśli wytoczymy liczbę 1, 3 lub 5). Ponadto rozważmy, że B = 1, jeśli wytoczymy liczbę pierwszą (czyli 2, 3, 5) oraz B = 0, jeśli wytoczymy inną liczbę.

1 2 3 4 5 6
A 0 1 0 1 0 1
B 0 1 1 0 1 0

Wtedy wspólny rozkład prawdopodobieństwa dla A i B, wyrażony jako funkcja masy prawdopodobieństwa, wynosi

P ( A = 0 , B = 0 ) = P { 1 } = 1 6 , {\displaystyle \mathrm {P} (A=0,B=0)=P\{1\}={\frac {1}{6}},}
P ( A = 1 , B = 0 ) = P { 4 , 6 } = 2 6 , {\displaystyle \mathrm {P} (A=1,B=0)=P\{4,6\}={\frac {2}{6}},}
P ( A = 0 , B = 1 ) = P { 3 , 5 } = 2 6 , {\displaystyle \mathrm {P} (A=0,B=1)=P\{3,5\}={\frac {2}{6}},}
P ( A = 1 , B = 1 ) = P { 2 } = 1 6 . {\displaystyle \mathrm {P} (A=1,B=1)=P\{2\}={\frac {1}{6}}.}

Ważne rodzaje rozkładów

Nazwanymi wspólnymi rozkładami, powstającymi często w statystykach, są: wielowymiarowy rozkład normalny, wielowymiarowy rozkład stabilny, rozkład wielomianu, negatywny rozkład wielomianu, wielowymiarowy rozkład hipergeometryczny i rozkład eliptyczny.

Dystrybuanta

Wspólny rozkład prawdopodobieństwa dla pary zmiennych losowych może być wyrażona w terminie ich dystrybuanty:

F ( x , y ) = P ( X x , Y y ) . {\displaystyle F(x,y)=P(X\leqslant x,Y\leqslant y).}

Funkcja gęstości lub funkcja masy

Rozkłady dyskretne

Wspólna funkcja masy prawdopodobieństwa dla dwóch zmiennych losowych dyskretnych jest równa

P ( X = x   i   Y = y ) = P ( Y = y X = x ) P ( X = x ) = P ( X = x Y = y ) P ( Y = y ) . {\displaystyle {\begin{aligned}\mathrm {P} (X=x\ \mathrm {i} \ Y=y)=\mathrm {P} (Y=y\mid X=x)\cdot \mathrm {P} (X=x)=\mathrm {P} (X=x\mid Y=y)\cdot \mathrm {P} (Y=y)\end{aligned}}.}

Wspólny rozkład prawdopodobieństwa n {\displaystyle n} zmiennych losowych dyskretnych X 1 , X 2 , , X n {\displaystyle X_{1},X_{2},\dots ,X_{n}} jest równy

P ( X 1 = x 1 , , X n = x n ) = P ( X 1 = x 1 ) ×   P ( X 2 = x 2 X 1 = x 1 ) ×   P ( X 3 = x 3 X 1 = x 1 , X 2 = x 2 ) ×   ×   P ( X n = x n X 1 = x 1 , X 2 = x 2 , , X n 1 = x n 1 ) . {\displaystyle {\begin{aligned}\mathrm {P} (X_{1}=x_{1},\dots ,X_{n}=x_{n})={}&\mathrm {P} (X_{1}=x_{1})\\\times \ &\mathrm {P} (X_{2}=x_{2}\mid X_{1}=x_{1})\\\times \ &\mathrm {P} (X_{3}=x_{3}\mid X_{1}=x_{1},X_{2}=x_{2})\\\times \ &\ldots \\\times \ &P(X_{n}=x_{n}\mid X_{1}=x_{1},X_{2}=x_{2},\dots ,X_{n-1}=x_{n-1}).\end{aligned}}}

Tożsamość ta jest znana jako reguła łańcucha prawdopodobieństwa.

Ponieważ są to prawdopodobieństwa, w przypadku dwóch zmiennych mamy

i j P ( X = x i   i   Y = y j ) = 1 , {\displaystyle \sum _{i}\sum _{j}\mathrm {P} (X=x_{i}\ \mathrm {i} \ Y=y_{j})=1,}

które uogólniają n {\displaystyle n} zmiennych losowych dyskretnych X 1 , X 2 , , X n {\displaystyle X_{1},X_{2},\dots ,X_{n}} do

i j k P ( X 1 = x 1 i , X 2 = x 2 j , , X n = x n k ) = 1. {\displaystyle \sum _{i}\sum _{j}\ldots \sum _{k}\mathrm {P} (X_{1}=x_{1i},X_{2}=x_{2j},\dots ,X_{n}=x_{nk})=1.}

Rozkłady ciągłe

Wspólna funkcja gęstości prawdopodobieństwa f X , Y ( x , y ) {\displaystyle f_{X,Y}(x,y)} dla zmiennych losowych ciągłych wynosi

f X , Y ( x , y ) = f Y X ( y | x ) f X ( x ) = f X Y ( x y ) f Y ( y ) , {\displaystyle f_{X,Y}(x,y)=f_{Y\mid X}(y|x)f_{X}(x)=f_{X\mid Y}(x\mid y)f_{Y}(y),}

gdzie f Y X ( y x ) {\displaystyle f_{Y\mid X}(y\mid x)} i f X Y ( x y ) {\displaystyle f_{X\mid Y}(x\mid y)} dają rozkład warunkowy, gdzie Y {\displaystyle Y} równa się X = x , {\displaystyle X=_{x},} a X {\displaystyle X} równa się Y = y , {\displaystyle Y=_{y},} natomiast f X ( x ) {\displaystyle f_{X}(x)} i f Y ( y ) {\displaystyle f_{Y}(y)} dają rozkład brzegowy odpowiednio dla X {\displaystyle X} i Y . {\displaystyle Y.}

Ponieważ są to rozkłady prawdopodobieństwa, po połączeniu ich uzyskamy:

x y f X , Y ( x , y ) d y d x = 1. {\displaystyle \int _{x}\int _{y}f_{X,Y}(x,y)\;dy\;dx=1.}

Wspólny rozkład dla zmiennych niezależnych

Jeśli dla zmiennych losowych dyskretnych P ( X = x   i   Y = y ) = P ( X = x ) P ( Y = y ) {\displaystyle P(X=x\ {\text{i}}\ Y=y)=P(X=x)\cdot P(Y=y)} dla wszystkich x {\displaystyle x} i y {\displaystyle y} całkowicie zmiennych losowych ciągłych f X , Y ( x , y ) = f X ( x ) f Y ( y ) {\displaystyle f_{X,Y}(x,y)=f_{X}(x)\cdot f_{Y}(y)} dla wszystkich x {\displaystyle x} i y , {\displaystyle y,} wtedy x {\displaystyle x} i y {\displaystyle y} są uważane za niezależne. Oznacza to, że pozyskiwanie informacji o wartości jednej lub więcej zmiennych losowych prowadzi do rozkładu warunkowego innych zmiennych, który jest identyczny do rozkładu bezwarunkowego (brzegowego), zatem nie zmienne są źródłem informacji o zmiennych losowych.

Wspólny rozkład dla zmiennych zależnych warunkowo

Jeśli podzbiór A {\displaystyle A} zmiennych X 1 , , X n {\displaystyle X_{1},\dots ,X_{n}} jest warunkowo zależny, podany przez inny podzbiór B {\displaystyle B} tych zmiennych, wtedy wspólny rozkład P ( X 1 , , X n ) {\displaystyle \mathrm {P} (X_{1},\dots ,X_{n})} jest równy P ( B ) P ( A B ) . {\displaystyle P(B)\cdot P(A\mid B).} W związku z tym może być skutecznie reprezentowany przez inne mniejsze wielowymiarowe rozkłady prawdopodobieństwa P ( B ) {\displaystyle P(B)} i P ( A B ) . {\displaystyle P(A\mid B).} Takie powiązania niezależności warunkowych (ang. conditional independence relations) mogą być reprezentowane w sieci bayesowskiej.

Zobacz też

Bibliografia

  • „Joint distribution”, Encyclopedia of Mathematics, ISBN 978-1-55608-010-4.
  • „Multi-dimensional distribution”, Encyclopedia of Mathematics, ISBN 978-1-55608-010-4.
  • Joint continuous density function
  • Eric W.E.W. Weisstein Eric W.E.W., Joint Distribution Function, [w:] MathWorld, Wolfram Research [dostęp 2020-12-12]  (ang.).