Stabile Verteilungen. Statistische Analyse numerischer Werte (nichtparametrische Statistik)

Stabilen und unendlich teilbaren Verteilungen wird in der Literatur, die sich mit der Modellierung des Verhaltens von Wechselkursen von Währungen und Finanzindizes befasst, große Aufmerksamkeit gewidmet.

Stabile und unendlich teilbare Verteilungen wurden in den Werken von P. Levy, J. Polya, A.Ya. untersucht. Chinchin.

Bleiben wir bei der Definition stabiler Verteilungen. Es gibt zwei äquivalente Definitionen. Geben wir einen davon

Definition. Eine Zufallsvariable heißt stabil, wenn es für jede auch solche gibt

wo sind unabhängige Kopien der Zufallsvariablen. Wenn in (81) =0, d.h.

dann heißt die Zufallsvariable streng stabil.

Es ist bemerkenswert, dass die folgende Tatsache bewiesen ist

für einige. Dies wird als Nachhaltigkeitsindex bezeichnet.

Geben wir ein Beispiel. Betrachten wir das Normalgesetz, dann wird die Summe nach dem Normalgesetz verteilt und die Zufallsvariable wird auf die gleiche Weise verteilt. Hier. Daraus folgt, dass das Gaußsche Gesetz ein stabiles Gesetz mit einem Stabilitätsindex ist. Darüber hinaus ist es streng stabil, wenn.

Um das Bild zu vervollständigen, sollten wir die Tatsache beachten, dass eine stabile Verteilung als eine Verteilung unendlicher Summen unabhängiger und identisch verteilter Zufallsvariablen charakterisiert ist.

Eine stabile Verteilung hat einen Anziehungsbereich in dem Sinne, dass es eine Folge unabhängiger, identisch verteilter Zufallsvariablen und Folgen positiver und reeller Zahlen gibt

Betrachten Sie die charakteristische Verteilungsfunktion einer Zufallsvariablen

Charakteristische Funktion der Summe unabhängiger Kopien

Vergleichen wir (86) und (82) und erhalten wir das für eine streng stabile Verteilung

Daher wird in der Sprache der charakteristischen Funktionen eine Verteilung als streng stabil bezeichnet, wenn für jede eine positive Zahl existiert, so dass (87) erfüllt ist. Denn dann nimmt (87) die Form an:

Betrachten Sie die Poisson-Verteilung

Charakteristische Poisson-Verteilungsfunktion:

Daher ist die Poisson-Verteilung keine stabile Verteilung. Die Eigenschaft der strikten Stabilität ist mit einer anderen Eigenschaft des Verteilungsgesetzes verbunden. Denken Sie daran, dass die Faltung von Verteilungsfunktionen als Verteilungsfunktion bezeichnet wird. Wenn Verteilungsfunktionen Dichten haben, dann hat die Verteilungsfunktion auch Dichte und. Wenn außerdem die Zufallsvariablen und unabhängig sind, dann. Lassen Sie uns die Notation einführen. In dieser Notation ist die Verteilungsfunktion der Summe. Daher muss die Verteilungsfunktion eines streng stabilen Gesetzes die Eigenschaft haben:

Wenn es Dichte gibt, dann

Betrachten Sie in diesem Zusammenhang die Cauchy-Verteilung:

Durch direkte Integration und Induktion lässt sich dies leicht überprüfen

Daraus folgt, dass die Cauchy-Verteilung streng stabil mit einem Stabilitätsindex ist.

Beachten Sie, dass ein bemerkenswertes Ergebnis der Wahrscheinlichkeitstheorie (P. Levy, A.Ya. Khinchin) die folgende Darstellung der charakteristischen Funktion einer stabilen Zufallsvariablen liefert:


Wo. Die Bedeutung der Parameter ist wie folgt:

Nachhaltigkeitsindex,

Verteilungsdichte-Skew-Parameter,

Skalierungsparameter

Positionsparameter.

Der Parameter bestimmt die Geschwindigkeit, mit der die Enden der Verteilung abnehmen.

a ist die Gammafunktion.

Betrachten wir einen Fall. Aus (95) folgt das

Das ist die charakteristische Funktion des Normalgesetzes. Die Stabilität eines Normalgesetzes mit einem Stabilitätsindex wurde bereits oben erwähnt. Beachten Sie, dass das Produkt daher nicht eindeutig bestimmt ist. Das ist allgemein anerkannt.

Aus Sicht des Verhaltens der Verteilungsschwänze unterscheiden sich die Fälle erheblich. In der Tat, dann lass es sein

Ein Vergleich von (98) mit (95) und (96) lässt den Schluss zu, dass die Enden der Verteilung gegen Null tendieren, wenn sie langsamer ist. Daher werden solche Verteilungen üblicherweise als Heavy-Tailed-Verteilungen bezeichnet. Wie statistische Studien zeigen, weisen viele Finanzinstrumente logarithmische Renditen auf, deren Verteilungen starke Ausläufer aufweisen. Diese statistische Tatsache macht stabile Verteilungen attraktiv für die Beschreibung des Verhaltens logarithmischer Renditen.

Beachten Sie, dass genau dann, wenn. Wenn ja, dann folgt aus (95) und (96) Folgendes. Wenn, dann folgt aus der Ungleichung. Aus der Ungleichung folgt dann das.

Im Zusammenhang mit der exponentiellen Asymptotik konzentrieren wir uns auf die Pareto-Verteilung, deren Dichte ist

Mit Parametern (Nachhaltigkeitsindex) und. Das Diagramm der Pareto-Verteilungsdichte ist in Abbildung 8 dargestellt.


Reis. 8.

Verteilungsfunktion

und Wahrscheinlichkeit. Der Vergleich mit (95) zeigt, dass sich stabile Verteilungen im Unendlichen genauso verhalten wie die Pareto-Verteilung. Daher gehört der Schwanzteil stabiler Verteilungen zum Pareto-Typ.

Wir können die symmetrische Pareto-Verteilung betrachten:

was beim Modellieren einer Sequenz natürlicher aussieht. Der Parameter Schiefe (Skewness) bestimmt, wie asymmetrisch die Verteilung ist. Wenn, dann ist das so

dann ist die Verteilung relativ symmetrisch. Je näher an der Einheit, desto ausgeprägter ist die Asymmetrie der Verteilung. Darüber hinaus ist die Verteilung stärker nach links und nach rechts geneigt.

Der Parameter ist ein Skalenparameter.

Wann ist der Fall der Normalverteilung. Wann - es gibt keine Streuung. Daher weicht der Parameter von der Standardabweichung ab.

Der Parameter ist der Positionsparameter bei, wie oben erwähnt, und es gibt eine mathematische Erwartung. Wenn der erwartete Wert möglicherweise nicht definiert ist, sollte er nicht als erwarteter Wert interpretiert werden.

Die traditionelle Notation für stabile Verteilungen ist die Notation. Beachten Sie, wann

Die Normalverteilung (Gaußverteilung) spielt in der Wahrscheinlichkeitstheorie seit jeher eine zentrale Rolle, da sie sehr oft durch den Einfluss vieler Faktoren entsteht, deren Beitrag für jeden einzelnen vernachlässigbar ist. Der Zentrale Grenzwertsatz (CLT) findet in praktisch allen angewandten Wissenschaften Anwendung und macht den statistischen Apparat universell. Es kommt jedoch sehr häufig vor, dass seine Verwendung unmöglich ist und die Forscher versuchen, die Anpassung der Ergebnisse an die Gaußsche Funktion auf jede erdenkliche Weise zu organisieren. Ich erzähle Ihnen nun von einer alternativen Vorgehensweise bei mehreren Einflussfaktoren auf die Verteilung.

Kurze Geschichte von CPT. Noch zu Newtons Lebzeiten bewies Abraham de Moivre in einer Reihe unabhängiger Tests einen Satz über die Konvergenz der zentrierten und normalisierten Anzahl von Beobachtungen eines Ereignisses mit der Normalverteilung. Im gesamten 19. und frühen 20. Jahrhundert diente dieser Satz als wissenschaftliches Modell für Verallgemeinerungen. Laplace bewies den Fall der Gleichverteilung, Poisson bewies einen lokalen Satz für den Fall mit unterschiedlichen Wahrscheinlichkeiten. Poincaré, Legendre und Gauß entwickelten eine umfassende Theorie der Beobachtungsfehler und die Methode der kleinsten Quadrate, die auf der Konvergenz der Fehler zur Normalverteilung beruhte. Chebyshev bewies einen noch stärkeren Satz für die Summe zufälliger Variablen, indem er die Methode der Momente entwickelte. Lyapunov bewies 1900 unter Berufung auf Chebyshev und Markov das CLT in seiner heutigen Form, jedoch nur mit der Existenz von Momenten dritter Ordnung. Und erst 1934 machte Feller damit Schluss und zeigte, dass die Existenz von Momenten zweiter Ordnung sowohl eine notwendige als auch hinreichende Bedingung ist.

Die CLT lässt sich wie folgt formulieren: Wenn Zufallsvariablen unabhängig und identisch verteilt sind und eine endliche Varianz ungleich Null haben, dann konvergieren die Summen (zentriert und normalisiert) dieser Variablen zum Normalgesetz. In dieser Form wird dieser Satz an Universitäten gelehrt und sehr oft von Beobachtern und Forschern verwendet, die keine professionellen Mathematikkenntnisse haben. Was stimmt damit nicht? Tatsächlich ist der Satz perfekt auf die Bereiche anwendbar, an denen Gauß, Poincaré, Tschebyschew und andere Genies des 19. Jahrhunderts gearbeitet haben, nämlich: die Theorie der Beobachtungsfehler, die statistische Physik, die kleinsten Quadrate, demografische Studien und vielleicht noch etwas anderes. Aber Wissenschaftler, denen es an Originalität für Entdeckungen mangelt, sind mit Verallgemeinerungen beschäftigt und wollen diesen Satz auf alles anwenden oder die Normalverteilung einfach an den Ohren ziehen, wo sie einfach nicht existieren kann. Wenn Sie Beispiele wollen, ich habe sie.

Intelligenzquotient IQ. Impliziert zunächst, dass die Intelligenz der Menschen normalverteilt ist. Sie führen einen Test durch, der im Vorfeld so vorbereitet ist, dass außergewöhnliche Fähigkeiten nicht berücksichtigt werden, sondern mit den gleichen Anteilsfaktoren separat berücksichtigt werden: logisches Denken, mentales Design, Rechenfähigkeiten, abstraktes Denken und etwas anderes. Die Fähigkeit, Probleme zu lösen, die für die meisten unzugänglich sind, oder das Bestehen eines Tests in superschneller Zeit wird in keiner Weise berücksichtigt, und ein früheres Bestehen des Tests erhöht das Ergebnis (aber nicht die Intelligenz) in der Zukunft. Und dann glauben die Spießbürger, dass „niemand doppelt so schlau sein kann wie sie“, „nehmen wir es den klugen Leuten weg und teilen wir es auf.“

Zweites Beispiel: Veränderungen der Finanzkennzahlen. Die Untersuchung von Veränderungen bei Aktienkursen, Währungskursen und Rohstoffoptionen erfordert den Einsatz mathematischer Statistiken, und gerade hier ist es wichtig, sich nicht mit der Art der Verteilung zu verwechseln. Ein typisches Beispiel: 1997 wurde der Nobelpreis für Wirtschaftswissenschaften für das Black-Scholes-Modell verliehen, das auf der Annahme einer Normalverteilung des Aktienmarktwachstums (dem sogenannten weißen Rauschen) basierte. Gleichzeitig stellten die Autoren klar fest, dass dieses Modell einer Klärung bedarf, doch die meisten weiteren Forscher entschieden sich lediglich dafür, einfach die Poisson-Verteilung zur Normalverteilung hinzuzufügen. Hier kommt es natürlich zu Ungenauigkeiten bei der Untersuchung langer Zeitreihen, da die Poisson-Verteilung die CLT zu gut erfüllt und bereits mit 20 Termen nicht mehr von der Normalverteilung zu unterscheiden ist. Schauen Sie sich das Bild unten an (es stammt aus einem sehr seriösen Wirtschaftsmagazin). Es zeigt, dass trotz einer ziemlich großen Anzahl von Beobachtungen und offensichtlichen Verzerrungen eine Annahme über die Normalität der Verteilung getroffen wird.


Es ist sehr offensichtlich, dass die Lohnverteilung unter der Stadtbevölkerung, die Größe der Dateien auf der Festplatte, die Bevölkerung von Städten und Ländern nicht normal sein werden.

Gemeinsam ist den Verteilungen aus diesen Beispielen das Vorhandensein eines sogenannten „Heavy Tail“, also Werte, die weit vom Durchschnitt entfernt liegen, und einer auffälligen Asymmetrie, meist nach rechts. Lassen Sie uns überlegen, welche anderen Verteilungen wie diese außer normal sein könnten. Beginnen wir mit dem zuvor erwähnten Poisson: Es hat einen Schwanz, aber wir möchten, dass das Gesetz für eine Reihe von Gruppen wiederholt wird, in denen es jeweils eingehalten wird (berechnet die Größe der Dateien für ein Unternehmen, die Gehälter für mehrere Städte) oder skaliert (willkürlich das Black-Scholes-Modellintervall vergrößern oder verkleinern), wie Beobachtungen zeigen, verschwinden die Ausläufer und die Asymmetrie nicht, aber die Poisson-Verteilung sollte laut CLP normal werden. Aus den gleichen Gründen sind Erlang, Beta, Lognormal und alle anderen mit Dispersionsverteilungen nicht geeignet. Es bleibt nur noch, die Pareto-Verteilung abzuschneiden, sie ist jedoch aufgrund der Übereinstimmung des Modus mit dem Minimalwert, die bei der Analyse von Beispieldaten fast nie auftritt, nicht geeignet.

Es gibt Verteilungen, die über die erforderlichen Eigenschaften verfügen und als stabile Verteilungen bezeichnet werden. Auch ihre Geschichte ist sehr interessant, und der Hauptsatz wurde ein Jahr nach Fellers Arbeit, im Jahr 1935, durch die gemeinsamen Bemühungen des französischen Mathematikers Paul Levy und des sowjetischen Mathematikers A. Ya. bewiesen. Chinchin. Die CLT wurde verallgemeinert; die Bedingung für das Vorliegen einer Dispersion wurde daraus entfernt. Anders als beim Normalen wird weder die Dichte noch die Verteilungsfunktion stabiler Zufallsvariablen ausgedrückt (mit seltenen Ausnahmen, die weiter unten diskutiert werden), alles, was über sie bekannt ist, ist die charakteristische Funktion (die inverse Fourier-Transformation der Verteilungsdichte, aber Das Wesentliche zu verstehen ist nicht möglich.
Also der Satz: Wenn Zufallsvariablen unabhängig und identisch verteilt sind, dann konvergieren die Summen dieser Variablen zu einem stabilen Gesetz.

Jetzt die Definition. Zufälliger Wert X ist genau dann stabil, wenn der Logarithmus seiner charakteristischen Funktion in der Form dargestellt wird:

Wo .

Tatsächlich gibt es hier nichts sehr Kompliziertes, Sie müssen nur die Bedeutung der vier Parameter erklären. Die Parameter Sigma und Mu entsprechen dem üblichen Maßstab und Versatz, da in der Normalverteilung Mu gleich dem mathematischen Erwartungswert ist, wenn er existiert, und er existiert, wenn Alpha größer als eins ist. Der Beta-Parameter ist Asymmetrie; wenn er gleich Null ist, ist die Verteilung symmetrisch. Aber Alpha ist ein charakteristischer Parameter, er gibt an, in welcher Größenordnung die Momente einer Größe existieren. Je näher es an zwei liegt, desto ähnlicher ist die Verteilung der Normalverteilung. Wenn sie gleich zwei ist, wird die Verteilung normal, und zwar nur in diesem Fall Hat es Momente großer Ordnung, so degeneriert auch im Fall der Normalverteilung die Asymmetrie. Für den Fall, dass Alpha gleich eins und Beta gleich Null ist, wird die Cauchy-Verteilung erhalten, und für den Fall, dass Alpha gleich halb und Beta gleich eins ist, wird die Lévy-Verteilung erhalten, in anderen Fällen gibt es keine Darstellung in Quadraturen für die Dichteverteilung solcher Größen.
Im 20. Jahrhundert wurde eine umfangreiche Theorie stabiler Größen und Prozesse (sogenannte Lévy-Prozesse) entwickelt, ihr Zusammenhang mit gebrochenen Integralen aufgezeigt, verschiedene Methoden der Parametrisierung und Modellierung eingeführt, Parameter auf verschiedene Arten geschätzt und die Konsistenz bestimmt und Stabilität der Schätzungen wurde gezeigt. Schauen Sie sich das Bild an, es zeigt eine simulierte Flugbahn des Levy-Prozesses mit einem 15-fach vergrößerten Fragment.


Während Benoit Mandelbrot solche Prozesse und ihre Anwendung im Finanzwesen untersuchte, kam er auf die Fraktale. Allerdings war es nicht überall so gut. Die zweite Hälfte des 20. Jahrhunderts verlief unter dem allgemeinen Trend der angewandten und kybernetischen Wissenschaften, und dies bedeutete eine Krise der reinen Mathematik, jeder wollte produzieren, aber nicht denken, Humanisten besetzten mit ihrem Journalismus mathematische Sphären. Beispiel: Buch „Fifty Entertaining Probabilistic Problems with Solutions“ des amerikanischen Mosteller, Aufgabe Nr. 11:


Die Lösung des Autors für dieses Problem ist einfach eine Niederlage des gesunden Menschenverstandes:

Ähnlich verhält es sich mit Aufgabe 25, wo DREI widersprüchliche Antworten gegeben werden.

Aber kehren wir zu stabilen Distributionen zurück. Im weiteren Verlauf des Artikels werde ich versuchen zu zeigen, dass es bei der Arbeit mit ihnen keine zusätzlichen Schwierigkeiten geben sollte. Es gibt nämlich numerische und statistische Methoden, mit denen man Parameter schätzen, die Verteilungsfunktion berechnen und modellieren kann, also wie bei jeder anderen Verteilung funktioniert.

Modellierung stabiler Zufallsvariablen. Da man alles durch Vergleich lernt, erinnere ich mich zunächst an die aus rechnerischer Sicht bequemste Methode zur Generierung eines Normalwerts (die Box-Muller-Methode): if sind die grundlegenden Zufallsvariablen (gleichmäßig verteilt auf )