Wahrscheinlichkeitserzeugende Funktion

Eine wahrscheinlichkeitserzeugende Funktion, auch kurz erzeugende Funktion[1] oder Erzeugendenfunktion[2] genannt, ist in der Wahrscheinlichkeitstheorie eine spezielle reelle Funktion. Jeder diskreten Wahrscheinlichkeitsverteilung auf den natürlichen Zahlen und jeder Zufallsvariable mit Werten in den natürlichen Zahlen kann eine wahrscheinlichkeitserzeugende Funktion zugeordnet werden. Umgekehrt kann auch aus jeder wahrscheinlichkeitserzeugenden Funktion die Wahrscheinlichkeitsverteilung oder die Verteilung der Zufallsvariable eindeutig rekonstruiert werden.

Aufgrund dieser eindeutigen Zuordnung ermöglichen es wahrscheinlichkeitserzeugende Funktionen, gewisse Eigenschaften der Verteilungen und Operationen von Zufallsvariablen auf Eigenschaften und Operationen von Funktionen zu übertragen. So existiert beispielsweise eine Beziehung zwischen den Ableitungen der wahrscheinlichkeitserzeugenden Funktion und dem Erwartungswert, der Varianz und weiteren Momenten der Zufallsvariable. Ebenso entspricht der Addition von stochastisch unabhängigen Zufallsvariablen oder der Faltung der Wahrscheinlichkeitsverteilungen der Multiplikation der entsprechenden wahrscheinlichkeitserzeugenden Funktionen. Diese Vereinfachung wichtiger Operationen ermöglicht dann beispielsweise die Untersuchung von komplexen stochastischen Objekten wie dem Bienaymé-Galton-Watson-Prozess.

Definition

Die wahrscheinlichkeitserzeugende Funktion lässt sich auf zwei Arten angeben: einerseits mittels einer Wahrscheinlichkeitsverteilung, andererseits mittels der Verteilung einer Zufallsvariablen. Beide Arten sind äquivalent in dem Sinn, dass jede Wahrscheinlichkeitsverteilung als Verteilung einer Zufallsvariablen aufgefasst werden kann und jede Verteilung einer Zufallsvariable wieder eine Wahrscheinlichkeitsverteilung ist. Bei beiden Definitionen ist 0 0 := 1 {\displaystyle 0^{0}:=1} gesetzt. Mit N 0 {\displaystyle \mathbb {N} _{0}} sei die Menge der natürlichen Zahlen inklusive der 0 bezeichnet.

Für Wahrscheinlichkeitsverteilungen

Ist P {\displaystyle P} eine Wahrscheinlichkeitsverteilung auf ( N 0 , P ( N 0 ) ) {\displaystyle (\mathbb {N} _{0},{\mathcal {P}}(\mathbb {N} _{0}))} mit Wahrscheinlichkeitsfunktion f P ( k ) = P ( { k } ) {\displaystyle f_{P}(k)=P(\{k\})} , so heißt die Funktion

m P : [ 0 , 1 ] [ 0 , 1 ] {\displaystyle m_{P}\colon [0,1]\to [0,1]}

definiert durch

m P ( t ) = k = 0 f P ( k ) t k {\displaystyle m_{P}(t)=\sum _{k=0}^{\infty }f_{P}(k)t^{k}}

die wahrscheinlichkeitserzeugende Funktion von P {\displaystyle P} beziehungsweise von f P {\displaystyle f_{P}} .[3]

Für Zufallsvariablen

Für eine Zufallsvariable X {\displaystyle X} mit Werten in N 0 {\displaystyle \mathbb {N} _{0}} ist die wahrscheinlichkeitserzeugende Funktion

m X : [ 0 , 1 ] [ 0 , 1 ] {\displaystyle m_{X}\colon [0,1]\to [0,1]}

von X {\displaystyle X} beziehungsweise von P X {\displaystyle P_{X}} definiert als

m X ( t ) := m P X 1 ( t ) = k = 0 t k P [ X = k ] {\displaystyle m_{X}(t):=m_{P\circ X^{-1}}(t)=\sum _{k=0}^{\infty }t^{k}P[X=k]} .[4]

Somit ist die wahrscheinlichkeitserzeugende Funktion einer Zufallsvariable genau die wahrscheinlichkeitserzeugende Funktion ihrer Verteilung. Alternativ lässt sich die wahrscheinlichkeitserzeugende Funktion einer Zufallsvariable auch über den Erwartungswert definieren als

m X ( t ) := E [ t X ] {\displaystyle m_{X}(t):=\operatorname {E} \left[t^{X}\right]} .[4]

Elementare Beispiele

Gegeben sei eine Bernoulli-verteilte Zufallsvariable X {\displaystyle X} , also X Ber ( p ) {\displaystyle X\sim \operatorname {Ber} (p)} . Dann ist P ( X = 0 ) = 1 p {\displaystyle P(X=0)=1-p} und P ( X = 1 ) = p {\displaystyle P(X=1)=p} . Rein formell fasst man X {\displaystyle X} als Zufallsvariable mit Werten in ganz N 0 {\displaystyle \mathbb {N} _{0}} auf und setzt dann P ( X = n ) = 0 {\displaystyle P(X=n)=0} für n 2 {\displaystyle n\geq 2} . Dann ist

m X ( t ) = k = 0 t k P [ X = k ] = 1 p + p t {\displaystyle m_{X}(t)=\sum _{k=0}^{\infty }t^{k}P[X=k]=1-p+pt}

Ist die Zufallsvariable Y {\displaystyle Y} binomialverteilt mit Parametern n {\displaystyle n} und p {\displaystyle p} , also Y Bin n , p {\displaystyle Y\sim \operatorname {Bin} _{n,p}} , so ist für k n {\displaystyle k\leq n}

P ( X = k ) = ( n k ) p k ( 1 p ) n k {\displaystyle P(X=k)={\binom {n}{k}}p^{k}(1-p)^{n-k}}

und P ( X = k ) = 0 {\displaystyle P(X=k)=0} für k > n {\displaystyle k>n} . Die wahrscheinlichkeitserzeugende Funktion ist dann

m X ( t ) = k = 0 n ( n k ) ( p t ) k ( 1 p ) n k = ( p t + 1 p ) n {\displaystyle m_{X}(t)=\sum _{k=0}^{n}{\binom {n}{k}}(pt)^{k}(1-p)^{n-k}=(pt+1-p)^{n}} .

Dies folgt mittels des binomischen Lehrsatzes.

Eigenschaften

Eigenschaften als Funktion

Die wahrscheinlichkeitserzeugende Funktion ist eine Potenzreihe und hat einen Konvergenzradius von mindestens 1, sie konvergiert also für alle t [ 0 , 1 ] {\displaystyle t\in [0,1]} . Dies folgt daraus, dass alle Koeffizienten der Potenzreihe positiv sind und sich zu 1 aufsummieren. Daraus folgt dann k = 0 | t k P [ X = k ] | 1 {\displaystyle \sum _{k=0}^{\infty }\left|t^{k}P[X=k]\right|\leq 1} für t [ 1 , 1 ] {\displaystyle t\in [-1,1]} . Damit erben die wahrscheinlichkeitserzeugenden Funktionen auf dem untersuchten Intervall [ 0 , 1 ] {\displaystyle [0,1]} alle Eigenschaften der Potenzreihen: Sie sind stetig und auf dem Intervall [ 0 , 1 ) {\displaystyle [0,1)} unendlich oft differenzierbar.

Da jedes der Monome x k {\displaystyle x^{k}} konvex und monoton wachsend ist und diese Eigenschaften abgeschlossen bezüglich konischen Kombinationen sind, ist auch die wahrscheinlichkeitserzeugende Funktion konvex und monoton wachsend.

Umkehrbarkeit

Die wahrscheinlichkeitserzeugende Funktion bestimmt die Verteilung von X {\displaystyle X} eindeutig:

Sind X {\displaystyle X} und Y {\displaystyle Y} N 0 {\displaystyle \mathbb {N} _{0}} -wertige Zufallsvariable mit m X ( t ) = m Y ( t ) {\displaystyle m_{X}(t)=m_{Y}(t)} für alle t [ 0 , c ] {\displaystyle t\in [0,c]} mit einem c > 0 {\displaystyle c>0} , dann folgt P [ X = k ] = P [ Y = k ] {\displaystyle P[X=k]=P[Y=k]} für alle k N 0 {\displaystyle k\in \mathbb {N} _{0}} .

Es gilt dann nämlich nach der Taylor-Formel für alle k N 0 {\displaystyle k\in \mathbb {N} _{0}}

P [ X = k ] = m X ( k ) ( 0 ) k ! = m Y ( k ) ( 0 ) k ! = P [ Y = k ] {\displaystyle P[X=k]={\dfrac {m_{X}^{(k)}(0)}{k!}}={\dfrac {m_{Y}^{(k)}(0)}{k!}}=P[Y=k]} .

Dieser Zusammenhang zeigt, dass m X {\displaystyle m_{X}} die Wahrscheinlichkeiten P [ X = k ] {\displaystyle P[X=k]} „erzeugt“ und die Wahrscheinlichkeitsfunktion aus der wahrscheinlichkeitserzeugenden Funktion rekonstruiert werden kann.

Faltung und Summen von Zufallsvariablen

Sind X {\displaystyle X} und Y {\displaystyle Y} unabhängige N 0 {\displaystyle \mathbb {N} _{0}} -wertige Zufallsvariablen, so gilt für die wahrscheinlichkeitserzeugende Funktion von X + Y {\displaystyle X+Y}

m X + Y ( t ) = E ( t X + Y ) = E ( t X t Y ) = E ( t X ) E ( t Y ) = m X ( t ) m Y ( t ) {\displaystyle m_{X+Y}(t)=\operatorname {E} (t^{X+Y})=\operatorname {E} (t^{X}\cdot t^{Y})=\operatorname {E} (t^{X})\cdot \operatorname {E} (t^{Y})=m_{X}(t)\cdot m_{Y}(t)} ,

denn mit X {\displaystyle X} und Y {\displaystyle Y} sind auch t X {\displaystyle t^{X}} und t Y {\displaystyle t^{Y}} unabhängig. Das lässt sich direkt auf endliche Summen unabhängiger Zufallsvariabler verallgemeinern: Sind X 1 , , X n {\displaystyle X_{1},\ldots ,X_{n}} unabhängige N 0 {\displaystyle \mathbb {N} _{0}} -wertige Zufallsvariablen, dann gilt für S n = i = 1 n X i {\displaystyle S_{n}=\sum _{i=1}^{n}X_{i}}

m S n ( t ) = i = 1 n m X i ( t ) {\displaystyle m_{S_{n}}(t)=\prod _{i=1}^{n}m_{X_{i}}(t)} .

Daraus folgt dann direkt für die wahrscheinlichkeitserzeugende Funktion der Faltung P Q {\displaystyle P*Q} der Wahrscheinlichkeitsmaße P , Q {\displaystyle P,Q}

m P Q ( t ) = m P ( t ) m Q ( t ) {\displaystyle m_{P*Q}(t)=m_{P}(t)m_{Q}(t)} .

Beispiel

Seien X 1 , X 2 {\displaystyle X_{1},X_{2}} unabhängige, Bernoulli-verteilte Zufallsvariablen zum selben Parameter p {\displaystyle p} . Dann ist die Summe der Zufallsvariablen bekanntermaßen binomialverteilt zu den Parametern 2 {\displaystyle 2} und p {\displaystyle p} , also X 1 + X 2 Bin 2 , p {\displaystyle X_{1}+X_{2}\sim \operatorname {Bin} _{2,p}} . Mit den oben im Abschnitt Elementare Beispiele hergeleiteten wahrscheinlichkeitserzeugenden Funktionen für die Bernoulli-Verteilung und die Binomialverteilung folgt

m X 1 ( t ) m X 2 ( t ) = ( 1 p + p t ) 2 = m Bin 2 , p ( t ) = m X 1 + X 2 ( t ) {\displaystyle m_{X_{1}}(t)\cdot m_{X2}(t)=(1-p+pt)^{2}=m_{\operatorname {Bin} _{2,p}}(t)=m_{X_{1}+X_{2}}(t)} .

Momenterzeugung

Für eine N 0 {\displaystyle \mathbb {N} _{0}} -wertige Zufallsvariable X {\displaystyle X} und k N 0 {\displaystyle k\in \mathbb {N} _{0}} ist

E [ ( X k ) ] = lim t 1 m X ( k ) ( t ) k ! {\displaystyle \operatorname {E} \left[{\binom {X}{k}}\right]={\dfrac {\lim _{t\uparrow 1}m_{X}^{(k)}(t)}{k!}}}

beziehungsweise

E [ X ( X 1 ) ( X k + 1 ) ] = lim t 1 m X ( k ) ( t ) {\displaystyle \operatorname {E} \left[X(X-1)\dots (X-k+1)\right]=\lim _{t\uparrow 1}m_{X}^{(k)}(t)} .

Dabei sind beide Seiten der beiden Gleichungen genau dann endlich, wenn E [ X k ] {\displaystyle \operatorname {E} \left[X^{k}\right]} endlich ist.

Damit lassen sich insbesondere der Erwartungswert und die Varianz einer N 0 {\displaystyle \mathbb {N} _{0}} -wertigen Zufallsvariablen aus ihrer wahrscheinlichkeitserzeugenden Funktion ermitteln:

E [ X ] = lim t 1 m X ( t ) {\displaystyle \operatorname {E} \left[X\right]=\lim _{t\uparrow 1}m_{X}'(t)} ,
Var [ X ] = E [ X ( X 1 ) ] + E [ X ] E [ X ] 2 = lim t 1 ( m X ( t ) + m X ( t ) m X ( t ) 2 ) {\displaystyle \operatorname {Var} \left[X\right]=\operatorname {E} \left[X(X-1)\right]+\operatorname {E} \left[X\right]-\operatorname {E} \left[X\right]^{2}=\lim _{t\uparrow 1}\left(m_{X}''(t)+m_{X}'(t)-m_{X}'(t)^{2}\right)} .

Die Betrachtung des linksseitigen Grenzwertes ist hier notwendig, da die Differenzierbarkeit von Potenzreihen auf dem Rande des Konvergenzradius nicht notwendigerweise gegeben ist.

Beispiel

Sei X {\displaystyle X} eine binomialverteilte Zufallsvariable, also X Bin n , p {\displaystyle X\sim \operatorname {Bin} _{n,p}} . Dann ist

m X ( t ) = ( p t + 1 p ) n , m X ( t ) = n p ( p t + 1 p ) n 1  und  m X ( t ) = n ( n 1 ) p 2 ( p t + 1 p ) n 2 {\displaystyle m_{X}(t)=(pt+1-p)^{n},\quad m'_{X}(t)=np(pt+1-p)^{n-1}{\text{ und }}m''_{X}(t)=n(n-1)p^{2}(pt+1-p)^{n-2}}

Beide Ableitungen sind Polynome und können daher problemlos für t = 1 {\displaystyle t=1} ausgewertet werden, der linksseitige Grenzwert braucht also nicht betrachtet werden. Es ist

m X ( 1 ) = n p  und  m X ( 1 ) = n ( n 1 ) p 2 {\displaystyle m'_{X}(1)=np{\text{ und }}m''_{X}(1)=n(n-1)p^{2}} .

Damit folgt mit den obigen Ergebnissen

E ( X ) = m X ( 1 ) = n p , Var ( X ) = m X ( 1 ) + m X ( 1 ) m X ( 1 ) 2 = n p ( 1 p ) {\displaystyle \operatorname {E} (X)=m'_{X}(1)=np,\quad \operatorname {Var} (X)=m_{X}''(1)+m_{X}'(1)-m_{X}'(1)^{2}=np(1-p)} .

Lineare Transformation von Zufallsvariablen

Lineare Transformationen der Zufallsvariable wirken wie folgt auf die wahrscheinlichkeitserzeugende Funktion:

m a X + b ( t ) = t b m X ( t a ) {\displaystyle m_{aX+b}(t)=t^{b}m_{X}(t^{a})} .

Beispiel

Ist X {\displaystyle X} eine Bernoulli-verteilte Zufallsvariable, also X Ber ( p ) {\displaystyle X\sim \operatorname {Ber} (p)} , so ist für a , b N {\displaystyle a,b\in \mathbb {N} } die Zufallsvariable Y = a X + b {\displaystyle Y=aX+b} zweipunktverteilt auf { b , a + b } {\displaystyle \{b,a+b\}} . Die wahrscheinlichkeitserzeugende Funktion ist dann

m Y ( t ) = m a X + b ( t ) = t b m X ( t a ) = t b ( 1 p + p t a ) = ( 1 p ) t b + p t a + b {\displaystyle m_{Y}(t)=m_{aX+b}(t)=t^{b}m_{X}(t^{a})=t^{b}\cdot (1-p+pt^{a})=(1-p)t^{b}+pt^{a+b}} .

Konvergenz

Die punktweise Konvergenz der wahrscheinlichkeitserzeugenden Funktion lässt sich direkt mit der Konvergenz in Verteilung in Beziehung setzen:

Sind X , X 1 , X 2 , X 3 , {\displaystyle X,X_{1},X_{2},X_{3},\dots } Zufallsvariablen mit zugehörigen wahrscheinlichkeitserzeugenden Funktionen m , m 1 , m 2 , m 3 , {\displaystyle m,m_{1},m_{2},m_{3},\dots } , so konvergieren die X n {\displaystyle X_{n}} genau dann in Verteilung gegen X {\displaystyle X} , wenn die wahrscheinlichkeitserzeugenden Funktionen m n {\displaystyle m_{n}} für alle t [ 0 , ε ) {\displaystyle t\in [0,\varepsilon )} mit einem ε ( 0 , 1 ) {\displaystyle \varepsilon \in (0,1)} punktweise gegen m {\displaystyle m} konvergieren.[5]

Die Aussage gilt ebenso für die wahrscheinlichkeitserzeugenden Funktionen von Wahrscheinlichkeitsverteilungen und die schwache Konvergenz.

Wahrscheinlichkeitserzeugende Funktionen von zufälligen Summen

Mittels wahrscheinlichkeitserzeugender Funktionen lassen sich leicht Summen über eine zufällige Anzahl von Summanden berechnen. Sind ( X i ) i N {\displaystyle (X_{i})_{i\in \mathbb {N} }} unabhängig identisch verteilte Zufallsvariablen mit Werten in N 0 {\displaystyle \mathbb {N} _{0}} und T {\displaystyle T} eine weitere, von allen X i {\displaystyle X_{i}} unabhängige Zufallsvariable mit demselben Wertebereich. Dann hat die Zufallsvariable

Z = i = 1 T X i {\displaystyle Z=\sum _{i=1}^{T}X_{i}}

die wahrscheinlichkeitserzeugende Funktion

m Z ( t ) = m T ( m X 1 ( t ) ) {\displaystyle m_{Z}(t)=m_{T}(m_{X_{1}}(t))} .

Diese Eigenschaft macht man sich zum Beispiel bei der Analyse des Galton-Watson-Prozesses zunutze. Nach den obigen Regeln für die Berechnung des Erwartungswertes gilt dann mit der Kettenregel

E ( Z ) = E ( T ) E ( X 1 ) {\displaystyle \operatorname {E} (Z)=\operatorname {E} (T)\cdot \operatorname {E} (X_{1})} ,

was der Formel von Wald entspricht.

Für die Varianz gilt dann

Var ( Z ) = Var ( T ) E ( X 1 ) 2 + E ( T ) Var ( X 1 ) {\displaystyle \operatorname {Var} (Z)=\operatorname {Var} (T)\operatorname {E} (X_{1})^{2}+\operatorname {E} (T)\operatorname {Var} (X_{1})} .

Dies ist genau die Blackwell-Girshick-Gleichung. Auch sie folgt mittels der obigen Regeln zur Bestimmung der Varianz und der Produktregel.

Multivariate wahrscheinlichkeitserzeugende Funktion

Ist X = ( X 1 , , X k ) {\displaystyle X=(X_{1},\dots ,X_{k})} ein k {\displaystyle k} -dimensionaler Zufallsvektor mit Werten in N 0 k {\displaystyle \mathbb {N} _{0}^{k}} , so ist die wahrscheinlichkeitserzeugende Funktion von X {\displaystyle X} definiert als

m X ( t ) := m X ( t 1 , , t k ) = E ( i = 1 k t i X i ) = x 1 , , x k = 0 f P ( x 1 , , x k ) t 1 x 1 t k x k {\displaystyle m_{X}(t):=m_{X}(t_{1},\dots ,t_{k})=\operatorname {E} \left(\prod _{i=1}^{k}t_{i}^{X_{i}}\right)=\sum _{x_{1},\ldots ,x_{k}=0}^{\infty }f_{P}(x_{1},\ldots ,x_{k})t_{1}^{x_{1}}\dots t_{k}^{x_{k}}}

mit f P ( x 1 , , x k ) = P ( X 1 = x 1 , , X k = x k ) {\displaystyle f_{P}(x_{1},\ldots ,x_{k})=P(X_{1}=x_{1},\dotsc ,X_{k}=x_{k})} .

Erwartungswert, Varianz und Kovarianz

Analog zum eindimensionalen Fall gilt

E ( X i ) = m X t i ( 1 , , 1 ) i { 1 , , k } {\displaystyle \operatorname {E} (X_{i})={\frac {\partial m_{X}}{\partial t_{i}}}(1,\dots ,1)\quad \forall i\in \{1,\dots ,k\}}

sowie

Var ( X i ) = 2 m X t i 2 ( 1 , , 1 ) + m X t i ( 1 , , 1 ) ( 1 m X t i ( 1 , , 1 ) ) i { 1 , , k } {\displaystyle \operatorname {Var} (X_{i})={\frac {\partial ^{2}m_{X}}{{\partial t_{i}}^{2}}}(1,\dots ,1)+{\frac {\partial m_{X}}{\partial t_{i}}}(1,\dots ,1)\left(1-{\frac {\partial m_{X}}{\partial t_{i}}}(1,\dots ,1)\right)\quad \forall i\in \{1,\dots ,k\}}

und

Cov ( X i , X j ) = 2 m X t i t j ( 1 , , 1 ) m X t i ( 1 , , 1 ) m X t j ( 1 , , 1 ) i , j { 1 , , k } {\displaystyle \operatorname {Cov} (X_{i},X_{j})={\frac {\partial ^{2}m_{X}}{\partial t_{i}\partial t_{j}}}(1,\dots ,1)-{\frac {\partial m_{X}}{\partial t_{i}}}(1,\dots ,1)\cdot {\frac {\partial m_{X}}{\partial t_{j}}}(1,\dots ,1)\quad \forall i,j\in \{1,\dots ,k\}}

Beispiele

In der Tabelle sind einige wahrscheinlichkeitserzeugende Funktionen von gängigen diskreten Verteilungen aufgeführt. Wahrscheinlichkeitserzeugende Funktionen von Wahrscheinlichkeitsverteilungen, die hier nicht aufgeführt sind, stehen in dem jeweiligen Artikel der Wahrscheinlichkeitsfunktion.

Verteilung Wahrscheinlichkeitserzeugende Funktion m X ( t ) {\displaystyle m_{X}(t)}
Bernoulli-Verteilung m X ( t ) = 1 p + p t {\displaystyle m_{X}(t)=1-p+pt}
Zweipunktverteilung m X ( t ) = ( 1 p ) t a + p t b {\displaystyle m_{X}(t)=(1-p)t^{a}+pt^{b}}
Binomialverteilung B ( n , p ) {\displaystyle B(n,p)} m X ( t ) = ( 1 p + p t ) n {\displaystyle m_{X}(t)=(1-p+pt)^{n}}
Geometrische Verteilung G ( p ) {\displaystyle G(p)} m X ( t ) = p 1 ( 1 p ) t {\displaystyle m_{X}(t)={\frac {p}{1-(1-p)t}}}
Negative Binomialverteilung N B ( r , p ) {\displaystyle NB(r,p)} m X ( t ) = ( p 1 ( 1 p ) t ) r {\displaystyle m_{X}(t)=\left({\frac {p}{1-(1-p)t}}\right)^{r}}
Diskrete Gleichverteilung auf { 1 , , n } {\displaystyle \{1,\dotsc ,n\}} m X ( t ) = k = 1 n 1 n t k = t n + 1 t n ( t 1 ) {\displaystyle m_{X}(t)=\sum _{k=1}^{n}{\frac {1}{n}}t^{k}={\frac {t^{n+1}-t}{n(t-1)}}}
Logarithmische Verteilung m X ( t ) = ln ( 1 p t ) ln ( 1 p ) {\displaystyle m_{X}(t)={\frac {\ln(1-pt)}{\ln(1-p)}}}
Poisson-Verteilung P λ {\displaystyle P_{\lambda }} m X ( t ) = e λ ( t 1 ) {\displaystyle m_{X}(t)=\mathrm {e} ^{\lambda (t-1)}}
Verallgemeinerte Binomialverteilung G B ( p ) {\displaystyle GB(p)} m X ( t ) = j = 1 n ( 1 p j + p j t ) {\displaystyle m_{X}(t)=\prod \limits _{j=1}^{n}(1-{p_{j}}+{p_{j}}{t})}
Multivariate Verteilungen
Multinomialverteilung m X ( t ) = ( i = 1 k p i t i ) n {\displaystyle m_{X}(t)={\biggl (}\sum _{i=1}^{k}p_{i}t_{i}{\biggr )}^{n}}

Insbesondere ist die wahrscheinlichkeitserzeugende Funktion der Binomialverteilung gleich dem n-fachen Produkt der wahrscheinlichkeitserzeugenden Funktion der Bernoulli-Verteilung, da die Binomialverteilung genau die Summe von unabhängigen Bernoulli-Verteilungen ist. Dasselbe gilt für die geometrische Verteilung und die negative Binomialverteilung.

Zusammenhang mit weiteren erzeugenden Funktionen

Die wahrscheinlichkeitserzeugende Funktion einer Zufallsvariable X {\displaystyle X} mit Wahrscheinlichkeitsfunktion p {\displaystyle p} ist ein Spezialfall einer erzeugenden Funktion mit a i = p ( i ) {\displaystyle a_{i}=p\left({i}\right)} für i N 0 {\displaystyle i\in \mathbb {N} _{0}} . Außer der wahrscheinlichkeitserzeugenden Funktion gibt es noch drei weitere erzeugende Funktionen in der Stochastik, die aber nicht nur für diskrete Verteilungen definiert werden. Die momenterzeugende Funktion ist definiert als M X ( t ) := E ( e t X ) {\displaystyle M_{X}\left(t\right):=\operatorname {E} \left(e^{tX}\right)} . Demnach gilt m X ( e t ) = M X ( t ) {\displaystyle m_{X}\left(e^{t}\right)=M_{X}\left(t\right)} Die charakteristische Funktion ist definiert als φ X ( t ) := E ( e i t X ) {\displaystyle \varphi _{X}\left(t\right):=\operatorname {E} \left(e^{itX}\right)} . Demnach gilt m X ( e i t ) = φ X ( t ) {\displaystyle m_{X}\left(e^{it}\right)=\varphi _{X}\left(t\right)} .

Außerdem gibt es noch die kumulantenerzeugende Funktion als Logarithmus der momenterzeugenden Funktion. Aus ihr wird der Begriff der Kumulante abgeleitet.

Literatur

  • Klaus D. Schmidt: Maß und Wahrscheinlichkeit. Springer, Berlin Heidelberg 2009, ISBN 978-3-540-89729-3, S. 370 ff.
  • Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6. 
  • Ulrich Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Für Studium, Berufspraxis und Lehramt. 8. Auflage. Vieweg, Wiesbaden 2005, ISBN 3-8348-0063-5. 
  • Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7. 
  • Christian Hesse: Angewandte Wahrscheinlichkeitstheorie. 1. Auflage. Vieweg, Wiesbaden 2003, ISBN 3-528-03183-2. 

Einzelnachweise

  1. Ehrhard Behrends: Elementare Stochastik. Ein Lernbuch – von Studierenden mitentwickelt. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-8348-1939-0, S. 108, doi:10.1007/978-3-8348-2331-1. 
  2. Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, S. 79, doi:10.1007/978-3-642-36018-3. 
  3. Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 111, doi:10.1515/9783110215274. 
  4. a b Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 114, doi:10.1515/9783110215274. 
  5. Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, S. 83, doi:10.1007/978-3-642-36018-3.