Diskrete statistische Verteilungen#

Überblick#

Diskrete Zufallsvariablen nehmen nur eine abzählbare Anzahl von Werten an. Die gebräuchlichsten Verteilungen sind in SciPy enthalten und werden in diesem Dokument beschrieben. Jede diskrete Verteilung kann einen zusätzlichen ganzzahligen Parameter annehmen: \(L.\) Die Beziehung zwischen der allgemeinen Verteilung \(p\) und der Standardverteilung \(p_{0}\) ist

\[p\left(x\right) = p_{0}\left(x-L\right)\]

was eine Verschiebung der Eingabe ermöglicht. Wenn ein Verteilungsgenerator initialisiert wird, kann die diskrete Verteilung entweder den Anfangs- und Endwert (Ganzzahl) \(a\) und \(b\) angeben, wobei gelten muss

\[p_{0}\left(x\right) = 0\quad x < a \textrm{ oder } x > b\]

in diesem Fall wird angenommen, dass die Dichtefunktion auf den ganzen Zahlen \({a+mk\leq b}\) angegeben ist, wobei \({k}\) eine nicht-negative ganze Zahl ist ( \({0,1,2,\ldots}\) ) und \({m}\) ein positiver ganzzahliger Multiplikator ist. Alternativ können die beiden Listen \({x_{k}}\) und \({p\left(x_{k}\right)}\) direkt angegeben werden, in welchem Fall intern ein Wörterbuch eingerichtet wird, um Wahrscheinlichkeiten auszuwerten und Zufallsvariablen zu generieren.

Wahrscheinlichkeitsmassenfunktion (PMF)#

Die Wahrscheinlichkeitsmassenfunktion einer Zufallsvariablen X ist definiert als die Wahrscheinlichkeit, dass die Zufallsvariable einen bestimmten Wert annimmt.

\[p\left(x_{k}\right)=P\left[X=x_{k}\right]\]

Diese wird manchmal auch als Wahrscheinlichkeitsdichtefunktion bezeichnet, obwohl technisch gesehen

\[f\left(x\right)=\sum_{k}p\left(x_{k}\right)\delta\left(x-x_{k}\right)\]

die Wahrscheinlichkeitsdichtefunktion für eine diskrete Verteilung ist [1] .

Kumulative Verteilungsfunktion (CDF)#

Die kumulative Verteilungsfunktion ist

\[F\left(x\right)=P\left[X\leq x\right]=\sum_{x_{k}\leq x}p\left(x_{k}\right)\]

und es ist auch nützlich, sie berechnen zu können. Beachten Sie, dass

\[F\left(x_{k}\right)-F\left(x_{k-1}\right)=p\left(x_{k}\right)\]

Überlebensfunktion#

Die Überlebensfunktion ist einfach

\[S\left(x\right)=1-F\left(x\right)=P\left[X>k\right]\]

die Wahrscheinlichkeit, dass die Zufallsvariable strikt größer als \({k}\) ist.

Perzentilpunktfunktion (inverse CDF)#

Die Perzentilpunktfunktion ist die Umkehrfunktion der kumulativen Verteilungsfunktion und ist

\[G\left(q\right)=F^{-1}\left(q\right)\]

für diskrete Verteilungen muss dies für Fälle modifiziert werden, in denen kein \({x_{k}}\) existiert, so dass \({F\left(x_{k}\right)=q.}\) In diesen Fällen wählen wir \({G\left(q\right)}\) als den kleinsten Wert \({x_{k}=G\left(q\right)}\), für den \({F\left(x_{k}\right)\geq q}\) gilt. Wenn \({q=0}\) ist, definieren wir \({G\left(0\right)=a-1}\). Diese Definition ermöglicht es, Zufallsvariablen auf die gleiche Weise wie bei kontinuierlichen Zufallsvariablen zu definieren, indem die inverse CDF auf einer Gleichverteilung verwendet wird, um Zufallsvariablen zu generieren.

Inverse Überlebensfunktion#

Die inverse Überlebensfunktion ist die Umkehrfunktion der Überlebensfunktion

\[Z\left(\alpha\right)=S^{-1}\left(\alpha\right)=G\left(1-\alpha\right)\]

und ist somit die kleinste nicht-negative ganze Zahl \({k}\), für die \({F\left(k\right)\geq1-\alpha}\) gilt, oder die kleinste nicht-negative ganze Zahl \({k}\), für die \({S\left(k\right)\leq\alpha.}\)

Gefahrenfunktionen#

Falls gewünscht, können die Gefahrenfunktion und die kumulative Gefahrenfunktion wie folgt definiert werden:

\[h\left(x_{k}\right)=\frac{p\left(x_{k}\right)}{1-F\left(x_{k}\right)}\]

und

\[H\left(x\right)=\sum_{x_{k}\leq x}h\left(x_{k}\right)=\sum_{x_{k}\leq x}\frac{F\left(x_{k}\right)-F\left(x_{k-1}\right)}{1-F\left(x_{k}\right)}.\]

Momente#

Nichtzentrale Momente werden mithilfe der Dichtefunktion definiert

\[\mu_{m}^{\prime}=E\left[X^{m}\right]=\sum_{k}x_{k}^{m}p\left(x_{k}\right).\]

Zentrale Momente werden ähnlich berechnet \(\mu=\mu_{1}^{\prime}\)

\begin{eqnarray*} \mu_{m}=E\left[\left(X-\mu\right)^{m}\right] & = & \sum_{k}\left(x_{k}-\mu\right)^{m}p\left(x_{k}\right)\\ & = & \sum_{k=0}^{m}\left(-1\right)^{m-k}\left(\begin{array}{c} m\\ k\end{array}\right)\mu^{m-k}\mu_{k}^{\prime}\end{eqnarray*}

Der Mittelwert ist das erste Moment

\[\mu=\mu_{1}^{\prime}=E\left[X\right]=\sum_{k}x_{k}p\left(x_{k}\right)\]

die Varianz ist das zweite zentrale Moment

\[\mu_{2}=E\left[\left(X-\mu\right)^{2}\right]=\sum_{x_{k}}x_{k}^{2}p\left(x_{k}\right)-\mu^{2}.\]

Die Schiefe ist definiert als

\[\gamma_{1}=\frac{\mu_{3}}{\mu_{2}^{3/2}}\]

während die (Fisher-)Kurtosis ist

\[\gamma_{2}=\frac{\mu_{4}}{\mu_{2}^{2}}-3,\]

sodass eine Normalverteilung eine Kurtosis von Null hat.

Momentenerzeugende Funktion#

Die momentenerzeugende Funktion ist definiert als

\[M_{X}\left(t\right)=E\left[e^{Xt}\right]=\sum_{x_{k}}e^{x_{k}t}p\left(x_{k}\right)\]

Momente werden als Ableitungen der momentenerzeugenden Funktion, ausgewertet bei \({0.}\), ermittelt.

Anpassung von Daten#

Um Daten an eine Verteilung anzupassen, ist die Maximierung der Likelihood-Funktion üblich. Alternativ haben einige Verteilungen bekannte Schätzer mit minimaler Varianz, die unverzerrt sind. Diese werden standardmäßig gewählt, aber die Likelihood-Funktion wird immer zur Minimierung zur Verfügung stehen.

Wenn \({f_{i}\left(k;\boldsymbol{\theta}\right)}\) die Dichtefunktion einer Zufallsvariablen ist, wobei \(\boldsymbol{\theta}\) ein Vektor von Parametern ist ( *z. B.* \({L}\) und \({S}\) ), dann ist für eine Sammlung von \({N}\) unabhängigen Stichproben aus dieser Verteilung die gemeinsame Verteilung des Zufallsvektors \(\mathbf{k}\)

\[f\left(\mathbf{k};\boldsymbol{\theta}\right)=\prod_{i=1}^{N}f_{i}\left(k_{i};\boldsymbol{\theta}\right).\]

Die Maximum-Likelihood-Schätzung der Parameter \(\boldsymbol{\theta}\) sind die Parameter, die diese Funktion maximieren, wobei \(\mathbf{x}\) fest und durch die Daten gegeben ist.

\begin{eqnarray*} \hat{\boldsymbol{\theta}} & = & \arg\max_{\boldsymbol{\theta}}f\left(\mathbf{k};\boldsymbol{\theta}\right)\\ & = & \arg\min_{\boldsymbol{\theta}}l_{\mathbf{k}}\left(\boldsymbol{\theta}\right).\end{eqnarray*}

Wobei

\begin{eqnarray*} l_{\mathbf{k}}\left(\boldsymbol{\theta}\right) & = & -\sum_{i=1}^{N}\log f\left(k_{i};\boldsymbol{\theta}\right)\\ & = & -N\overline{\log f\left(k_{i};\boldsymbol{\theta}\right)}\end{eqnarray*}

Standardnotation für den Mittelwert#

Wir werden verwenden

\[\overline{y\left(\mathbf{x}\right)}=\frac{1}{N}\sum_{i=1}^{N}y\left(x_{i}\right)\]

wobei \({N}\) aus dem Kontext ersichtlich sein sollte.

Kombinationen#

Beachten Sie, dass

\[k!=k\cdot\left(k-1\right)\cdot\left(k-2\right)\cdot\cdots\cdot1=\Gamma\left(k+1\right)\]

und besondere Fälle hat von

\begin{eqnarray*} 0! & \equiv & 1\\ k! & \equiv & 0\quad k<0\end{eqnarray*}

und

\[\begin{split}\left(\begin{array}{c} n\\ k\end{array}\right)=\frac{n!}{\left(n-k\right)!k!}.\end{split}\]

Wenn \({n<0}\) oder \({k<0}\) oder \({k>n}\) definieren wir \(\left(\begin{array}{c} n\\ k\end{array}\right)=0\)

Diskrete Verteilungen in scipy.stats#