entropy#
- Normal.entropie(*, methode=None)[source]#
Differentielle Entropie
In Bezug auf die Wahrscheinlichkeitsdichtefunktion \(f(x)\) und den Träger \(\chi\) ist die differentielle Entropie (oder einfach „Entropie“) einer kontinuierlichen Zufallsvariable \(X\)
\[h(X) = - \int_{\chi} f(x) \log f(x) dx\]Die Definition für eine diskrete Zufallsvariable ist analog, wobei die Wahrscheinlichkeitsmassenfunktion (PMF) die Wahrscheinlichkeitsdichtefunktion (PDF) ersetzt und eine Summe über den Träger das Integral ersetzt.
- Parameter:
- method{None, ‘formula’, ‘logexp’, ‘quadrature’}
Die Strategie zur Auswertung der Entropie. Standardmäßig (
None) wählt die Infrastruktur aus den folgenden Optionen, aufgeführt in der Reihenfolge der Priorität.'formula': Verwendung einer Formel für die Entropie selbst'logexp': Auswertung der Log-Entropie und anschließende Exponentiation'quadrature': Numerische Integration (oder im diskreten Fall Summierung) des Entropie-Integranden (Summand)
Nicht alle method-Optionen sind für alle Verteilungen verfügbar. Wenn die ausgewählte method nicht verfügbar ist, wird ein
NotImplementedErrorausgelöst.
- Rückgabe:
- outarray
Die Entropie der Zufallsvariable.
Siehe auch
Hinweise
Diese Funktion berechnet die Entropie mithilfe des natürlichen Logarithmus; d.h. des Logarithmus zur Basis \(e\). Folglich wird der Wert in (dimensionslosen) „Einheiten“ von Nats ausgedrückt. Um die Entropie in andere Einheiten umzurechnen (d.h. entsprechend einer anderen Basis), dividieren Sie das Ergebnis durch den natürlichen Logarithmus der gewünschten Basis.
Referenzen
[1]Differential entropy, Wikipedia, https://en.wikipedia.org/wiki/Differential_entropy
Beispiele
Instanziieren Sie eine Verteilung mit den gewünschten Parametern
>>> from scipy import stats >>> X = stats.Uniform(a=-1., b=1.)
Auswertung der Entropie
>>> X.entropy() 0.6931471805599454