Gesetze der Verteilung von Funktionen zufälliger Variablen. Funktion von einem und zwei Zufallsargumenten

Faltungsformel. Stabilität der Normalverteilung.

o Wenn jedes Paar möglicher Werte der Zufallsvariablen X und Y einem möglichen Wert der Zufallsvariablen Z entspricht, dann heißt Z Funktion zweier Zufallsargumente X und Y:

Weitere Beispiele zeigen, wie man die Verteilung einer Funktion aus bekannten Termverteilungen ermittelt. Dieses Problem tritt in der Praxis häufig auf. Wenn X beispielsweise der Fehler in den Messwerten eines Messgeräts ist (gleichmäßig verteilt), dann stellt sich die Aufgabe, das Verteilungsgesetz der Fehlersumme zu finden.

Fall 1. Seien X und Y- diskrete unabhängige Zufallsvariablen. Um das Verteilungsgesetz für die Funktion Z=X+Y aufzustellen, ist es notwendig, alle möglichen Werte von Z und ihre Wahrscheinlichkeiten zu finden. Mit anderen Worten: Es wird eine Verteilungsreihe der Zufallsvariablen Z erstellt.

Beispiel 1. Diskrete unabhängige Zufallsvariablen X und Y, spezifiziert durch Verteilungen

X
R 0,4 0,6
Y
P 0,2 0,8

Erstellen Sie eine Verteilung der Zufallsvariablen Z=X+Y.

Mögliche Werte von Z sind die Summe jedes möglichen Wertes von X mit allen möglichen Werten von X.

Lassen Sie uns die Wahrscheinlichkeit dieser möglichen Werte ermitteln. Damit Z=4 ist, reicht es aus, dass der Wert X die Werte x 1 =1 und der Wert Y-Wert y 1 =3 annimmt. Die Wahrscheinlichkeiten dieser möglichen Werte betragen, wie sich aus diesen Verteilungsgesetzen ergibt, jeweils 0,4 und 0,2.

Da die Zufallsvariablen Satz ist gleich 0,4 0, 2=0,08.

Wir können ähnlich finden

Schreiben wir die erforderliche Verteilung, indem wir zunächst die Wahrscheinlichkeiten der inkompatiblen Ereignisse Z=z 2 und Z=z 3 addieren. (0,32+0,12=0,44)

Z
P 0,08 0,44 0,48

Kontrolle: 0,08+0,44+0,48=1.

Betrachten wir den allgemeinen Fall:

Seien X und Y unabhängige Zufallsvariablen, die Werte annehmen. Bezeichnen wir mit, .

Z=X+H. Bezeichnen wir mit

Auf diese Weise, - Faltungsformel.

Fall 2. Seien X und Y kontinuierliche Zufallsvariablen.

Satz. Wenn X und Y unabhängige kontinuierliche Zufallsvariablen sind, ist die Zufallsvariable Z = X + Y ebenfalls kontinuierlich und die Verteilungsdichte der Zufallsvariablen Z ist die Faltungsformel.

Ö Summenverteilungsdichte unabhängige Zufallsvariablen heißt Komposition.

Kommentar. Wenn die möglichen Werte von X und Y nicht negativ sind, dann Faltungsformel .

Ö Das Gesetz der Wahrscheinlichkeitsverteilung heißt nachhaltig , wenn die Zusammensetzung solcher Gesetze das gleiche Verteilungsgesetz ist (im Allgemeinen in Parametern unterschiedlich). Das Normalgesetz hat Stabilitätseigenschaften, d.h. Die Zusammensetzung normaler Gesetze weist ebenfalls eine Normalverteilung auf, und der mathematische Erwartungswert und die Varianz dieser Zusammensetzung sind gleich den Summen der mathematischen Erwartungen bzw. Varianzen der Terme:

Insbesondere wenn X~N(0,1) und Y~N(0,1), dann Z=X+Y~N(0,2).

Beispiel 2. Die Zufallsvariablen X 1,...,X k seien unabhängig und hätten eine Exponentialverteilung mit Parameter λ>0, d.h. .

Finden Sie die Verteilungsdichte.

Wenn x≤0, dann.

Wenn wir ähnliche Überlegungen anstellen, erhalten wir:

Numerische Eigenschaften des Systems

Zwei Zufallsvariablen.

Um ein System aus zwei Zufallsvariablen zu beschreiben, werden neben mathematischen Erwartungen und Varianzen auch andere Merkmale verwendet. Dazu gehören Kovarianz und Korrekturfaktor.

Ö Kovarianz zwischen Zufallsvariablen X und Y heißt eine Zahl, wo.

Für kontinuierliche Zufallsvariablen X und Y verwenden Sie die Formel.

Zeigen wir, dass, wenn die Zufallsvariablen X und Y unabhängig sind, dann. Seien X und Y kontinuierliche Zufallsvariablen

Ö Korrelationskoeffizient zwischen den Zufallsvariablen X und Y heißt Zahl.

Korrelationseigenschaften.

Eigentum 1. Der Absolutwert des Korrelationskoeffizienten überschreitet Eins nicht, d.h. .

Eigentum 2. Damit ist es notwendig und ausreichend, dass die Zufallsvariablen X und Y durch eine lineare Beziehung verknüpft sind. Diese. mit Wahrscheinlichkeit 1.

Eigentum 3. Wenn Zufallsvariablen unabhängig sind, dann sind sie unkorreliert, d.h. r=0.

Seien X und Y unabhängig, dann aufgrund der Eigenschaft der mathematischen Erwartung

o Es werden zwei Zufallsvariablen X und Y aufgerufen korreliert, wenn ihr Korrelationskoeffizient von Null verschieden ist.

Ö Zufallsvariablen X und Y heißen unkorreliert wenn ihr Korrelationskoeffizient 0 ist.

Kommentar. Die Korrelation zweier Zufallsvariablen impliziert deren Abhängigkeit, aber die Abhängigkeit impliziert noch keine Korrelation. Aus der Unabhängigkeit zweier Zufallsvariablen folgt, dass sie unkorreliert sind, aus der Unkorrelation lässt sich jedoch immer noch nicht auf die Unabhängigkeit dieser Variablen schließen.

Der Korrelationskoeffizient charakterisiert die Tendenz von Zufallsvariablen zur linearen Abhängigkeit. Je größer der Absolutwert des Korrelationskoeffizienten ist, desto größer ist die Tendenz zur linearen Abhängigkeit.

Jede Zufallsvariable wird vollständig durch sie bestimmt Verteilungsfunktion.

Wenn x . eine Zufallsvariable ist, dann ist die Funktion F(X) = Fx(X) = P(X< X) wird genannt Verteilungsfunktion Zufallsvariable x. Hier P(X<X) – die Wahrscheinlichkeit, dass die Zufallsvariable x einen Wert kleiner als annimmt X.

Es ist wichtig zu verstehen, dass die Verteilungsfunktion der „Pass“ einer Zufallsvariablen ist: Sie enthält alle Informationen über die Zufallsvariable und damit die Untersuchung einer Zufallsvariablen besteht in der Untersuchung ihrer Verteilungsfunktion, was oft einfach genannt wird Verteilung.

Die Verteilungsfunktion einer beliebigen Zufallsvariablen hat die folgenden Eigenschaften:

Funktion zweier Zufallsargumente:IfJedes Paar möglicher Werte von Zufallsvariablen entspricht einem möglichen Wert einer Zufallsvariablen, dann werden sie aufgerufen Funktion zweier Zufallsargumente und und schreibe:

Wenn und diskrete unabhängige Zufallsvariablen sind, ist es zum Ermitteln der Verteilung der Funktion erforderlich, alle möglichen Werte zu finden, wofür es ausreicht, jeden möglichen Wert mit allen möglichen Werten zu addieren; die Wahrscheinlichkeiten der gefundenen Werte sind gleich den Produkten der aus den Werten aufsummierten Wahrscheinlichkeiten Und.

19. Gesetz der großen Zahlen. Sätze des Gesetzes der großen Zahlen begründen den Zusammenhang zwischen Zufall und Notwendigkeit.

Das Gesetz der großen Zahlen ist eine verallgemeinerte Bezeichnung für mehrere Theoreme, woraus folgt, dass bei unbegrenzter Zunahme der Anzahl der Tests die Durchschnittswerte zu bestimmten Konstanten tendieren.

Tschebyscheffs Ungleichung.

Lemma: Wenn eine Zufallsvariable X einen endlichen Erwartungswert M(X) und eine endliche Varianz D(X) hat, dann ist die Ungleichung für jedes positive e wahr

Satz von Chebyshev: Für eine ausreichend große Anzahl unabhängiger Zufallsvariablen X 1, X 2, X 3, ..., X n, deren Varianz jeweils die gleiche konstante Zahl B nicht überschreitet, für eine beliebige beliebige kleine Zahl e es gilt folgende Ungleichung:

Aus dem Satz folgt, dass das arithmetische Mittel von Zufallsvariablen mit zunehmender Anzahl die Eigenschaft der Stabilität aufweist, d. h. in der Wahrscheinlichkeit zu einem nicht zufälligen Wert tendiert, der das arithmetische Mittel der mathematischen Erwartungen dieser Größen ist, d. h. die Wahrscheinlichkeit einer absoluten Abweichung des arithmetischen Mittels von Zufallsvariablen vom arithmetischen Mittel ihrer mathematischen Erwartungen ist kleiner als e Wenn n ins Unendliche zunimmt, tendiert es gegen 1, d. h. wird zu einem fast sicheren Ereignis.



ein Sonderfall des Satzes von Tschebyscheff: Let In n Versuchen werden n Werte einer Zufallsvariablen beobachtet X, eine mathematische Erwartung haben M(X) und Varianz D(X). Die erhaltenen Werte können als Zufallsvariablen betrachtet werden X 1, X 2, X 3, ..., X n,. Es sollte so verstanden werden. Eine Reihe von P Tests werden wiederholt durchgeführt. Daher ist als Ergebnis des i-ten Tests i=l, 2, 3, ..., P, In jeder Testreihe erscheint der eine oder andere Wert einer Zufallsvariablen X, nicht im Voraus bekannt. Somit, d.h Der Wert xi der im i-ten Test erhaltenen Zufallsvariablen ändert sich zufällig, wenn von einer Testreihe zur anderen übergegangen wird. Somit kann jeder Wert x i als Zufallsvariable betrachtet werden Xi.

Satz von Bernoulli. Satz von Bernoulli: Wenn die Wahrscheinlichkeit des Ereignisses A in jedem der n unabhängigen Versuche konstant und gleich p ist, dann gilt für ausreichend großes n für beliebiges e>0 Ungleichheit ist wahr

Bis ans Limit gehen wir Der Satz von Bernoulli stellt einen Zusammenhang zwischen der Wahrscheinlichkeit des Eintretens eines Ereignisses und seiner relativen Häufigkeit des Auftretens her und ermöglicht eine ungefähre Vorhersage, wie hoch diese Häufigkeit sein wird P Tests. Aus dem Satz geht hervor, dass das Verhältnis t/n hat die Eigenschaft der Stabilität bei unbegrenzter Erhöhung der Anzahl der Tests.

Manchmal (bei der Lösung praktischer Probleme) ist es notwendig, die Wahrscheinlichkeit abzuschätzen, dass die Abweichung der Anzahl m des Auftretens eines Ereignisses in n Versuchen vom erwarteten Ergebnis pr eine bestimmte Zahl e nicht überschreitet. Für diese Schätzung wird die Ungleichung umgeschrieben als

20. Zentrale Grenzwertsätze (C.L.T.)- eine Klasse von Sätzen in der Wahrscheinlichkeitstheorie, die besagen, dass die Summe einer ausreichend großen Anzahl schwach abhängiger Zufallsvariablen mit annähernd gleichen Skalen (keiner der Terme dominiert oder einen entscheidenden Beitrag zur Summe leistet) eine Verteilung nahe der Normalverteilung aufweist.



Da viele Zufallsvariablen in Anwendungen unter dem Einfluss mehrerer schwach abhängiger Zufallsfaktoren gebildet werden, gilt ihre Verteilung als normal. Dabei muss die Bedingung erfüllt sein, dass keiner der Faktoren dominant ist. Zentrale Grenzwertsätze rechtfertigen in diesen Fällen die Verwendung der Normalverteilung.

Wenn jedes Paar Zufallsvariablen ist
Und entspricht einem der möglichen Werte der Zufallsvariablen , Das
eine Funktion aus zwei zufälligen Argumenten genannt
Und . In der Praxis besteht die häufigste Aufgabe darin, das Verteilungsgesetz der Funktion zu finden
nach bekannten Termverteilungen. Zum Beispiel, wenn
ist der Fehler der Messwerte eines Messgeräts (normalerweise normalverteilt) und - der Rundungsfehler der Messwerte dieses Geräts (gleichmäßig verteilt), dann stellt sich die Aufgabe, das Verteilungsgesetz der Fehlersumme zu finden
.


die durch ihre Verteilungsgesetze spezifiziert sind. Dann die möglichen Werte der Zufallsvariablen
- das sind alles mögliche Werte der Wertesummen
Und und die Wahrscheinlichkeiten der entsprechenden Werte werden als Produkte der entsprechenden Wertwahrscheinlichkeiten gefunden
Und enthalten

und als Summen dieser Produkte, wenn ein Wert der Summe verschiedenen Wertekombinationen entspricht
Und .

Beispiel 1. Gegeben sei die Verteilungsreihe diskreter Zufallsvariablen
Und .

Dann die Funktion
nimmt die Werte an: 1, 3, 4, 6, 7, 8, 9. Wir finden die Wahrscheinlichkeiten dieser Werte mithilfe der Sätze der Multiplikation und Addition von Wahrscheinlichkeiten wie folgt:

Wir erhalten die Verteilungsreihe der Zufallsvariablen :

Die Summe der Wahrscheinlichkeiten in der unteren Zeile ist gleich 1, daher gibt diese Tabelle tatsächlich die Verteilungsreihe der Zufallsvariablen an
.

7.2. Lass es jetzt
Und -kontinuierliche Zufallsvariablen. Wenn
Und - unabhängig sind, dann kennen Sie die Verteilungsdichten von Zufallsvariablen
Und -
bzw. die Verteilungsdichte der Zufallsvariablen

kann mit einer der folgenden Formeln ermittelt werden:

;

.

Insbesondere, wenn
Nehmen Sie im Intervall nur positive Werte an
, dann die folgenden Formeln erfüllen:


BEISPIEL 2. Lassen Sie unabhängige Zufallsvariablen
Und sind durch ihre Verteilungsdichten gegeben:


Finden Sie das Verteilungsgesetz einer Zufallsvariablen
.

Auf diese Weise,

Es lässt sich leicht überprüfen, ob die Haupteigenschaft der Verteilungsdichte erfüllt ist, nämlich

§ 8. Systeme von Zufallsvariablen

8.1 Verteilungsgesetze eines Systems von Zufallsvariablen.

Alle bisher betrachteten Zufallsvariablen wurden durch eine Zahl (ein Argument) definiert – eindimensionale Zufallsvariablen. Darüber hinaus können wir aber auch Größen berücksichtigen, die von zwei, drei oder mehr Argumenten abhängen, die sogenannten mehrdimensionalen Zufallsvariablen, die als Systeme eindimensionaler Zufallsvariablen betrachtet werden können. Durch
- bezeichnen eine zweidimensionale Zufallsvariable und jeden ihrer Werte
Und - angerufen Komponente (Komponente) .

Eine zweidimensionale Zufallsvariable heißt diskret , wenn seine Komponenten diskrete Zufallsvariablen sind.

Kontinuierlich eine zweidimensionale Zufallsvariable genannt, deren Komponenten kontinuierliche Zufallsvariablen sind.

Das Verteilungsgesetz einer diskreten zweidimensionalen Zufallsvariablen eine Tabelle der Form genannt:

Seit Ereignissen
,

eine vollständige Gruppe inkompatibler Ereignisse bilden, dann ist die Summe aller Wahrscheinlichkeiten in der Tabelle gleich eins.

Wenn Sie das Verteilungsgesetz einer zweidimensionalen Zufallsvariablen kennen, können Sie das Verteilungsgesetz jeder Komponente finden:

(Summe der Wahrscheinlichkeiten in der Tabellenspalte);

(Summe der Wahrscheinlichkeiten in der Tabellenzeile).

Beispiel 1. Das Verteilungsgesetz des zweidimensionalen Zufalls Mengen:

Erstellen Sie Gesetze zur Verteilung von Zufallsvariablen
Und .

Zufälliger Wert
hat eine Verteilung:

Definition. Verteilungsfunktion einer zweidimensionalen Zufallsvariablen heißt eine Funktion, die sowohl für diskrete als auch für kontinuierliche Zufallsvariablen sinnvoll ist. Geometrisch kann diese Gleichheit als die Wahrscheinlichkeit interpretiert werden, dass ein zufälliger Punkt vorliegt
fällt in ein unendliches Quadrat, dessen Scheitelpunkt an diesem Punkt liegt
, befindet sich links und unterhalb dieses Scheitelpunkts.

GRUNDLEGENDE EIGENSCHAFTEN DER VERTEILUNGSFUNKTION:

Eigentum 1.
.

Eigentum 2. Die Verteilungsfunktion ist für beide Argumente eine nicht abnehmende Funktion, d. h.

Eigentum 3. Für alle Und Es gelten folgende Beziehungen:

Eigentum 4. Die Verteilungsfunktionen der Komponenten ergeben sich aus den Gleichungen:

Definition.Dichte der gemeinsamen Verteilung Die Wahrscheinlichkeiten einer zweidimensionalen kontinuierlichen Zufallsvariablen werden als zweite gemischte Ableitung der Verteilungsfunktion bezeichnet, d.h.

.

Beispiel 2. Die Verteilungsfunktion des Zufallsvariablensystems ist angegeben
:
Finden Sie seine Verteilungsdichte.

Die Verteilungsdichte des Zufallsvariablensystems sei bekannt
-
. Dann kann die Verteilungsfunktion mithilfe der Gleichung ermittelt werden:

,

Dies ergibt sich direkt aus der Definition der Verteilungsdichte.

Trefferwahrscheinlichkeit
zur Region
wird durch die Gleichheit bestimmt

EIGENSCHAFTEN DER ZWEIDIMENSIONALEN VERTEILUNGSDICHTE.

Eigentum 1. Die zweidimensionale Verteilungsdichte ist immer positiv:

Eigentum 2. Das doppelte uneigentliche Integral mit unendlichen Integrationsgrenzen für die Verteilungsdichte ist gleich Eins

Wenn die gemeinsame Wahreines Systems aus zwei Zufallsvariablen bekannt ist, können die Verteilungsdichten jeder Komponente ermittelt werden.
Aber
. Dann

.

Auf ähnliche Weise erhalten wir

,

Beispiel 3. Gegeben sei die zweidimensionale Verteilungsdichte

Finden Sie die Verteilungsdichte von Zufallsvariablen
Und

bei
und ist außerhalb dieses Intervalls gleich Null. Ebenso aufgrund der Symmetrie der Funktion
verhältnismäßig Und , wir bekommen:

      Bedingte Verteilungsgesetze.

Ein Konzept, das dem Konzept der bedingten Wahrscheinlichkeit für Zufallsereignisse ähnelt
kann eingeführt werden, um die Abhängigkeit zwischen Zufallsvariablen zu charakterisieren.

Betrachten wir getrennt die Fälle diskreter und kontinuierlicher zweidimensionaler Zufallsvariablen.

A) Für eine diskrete zweidimensionale Zufallsgröße gilt: gegebene Tabelle:

Bedingte Wahrscheinlichkeiten werden mit den Formeln berechnet:

Kommentar. Die Summen der entsprechenden bedingten Wahrscheinlichkeiten sind gleich eins, d.h.

Beispiel 4. Eine diskrete Zufallsvariable sei durch die Tabelle gegeben:

Finden Sie das bedingte Verteilungsgesetz der Komponente
vorausgesetzt, dass die Zufallsvariable nahm die Bedeutung an .

Offensichtlich ist die Summe dieser Wahrscheinlichkeiten gleich eins.

b) Für Kontinuierliche zweidimensionale Zufallsvariable bedingte Verteilungsdichte
Komponente
bei einem bestimmten Wert
Haltung genannt

,

ähnlich, bedingte Verteilungsdichte
bei einem bestimmten Wert
-
.

Beispiel 5. Die gemeinsame Verteilungsdichte sei eine kontinuierliche zweidimensionale Zufallsvariable
gegeben durch die Funktion:
. Finden Sie die bedingte Verteilungsdichte der Komponenten.


Die Berechnungen verwendeten das Poisson-Integral

Dann haben die bedingten Verteilungsdichten die Form:

      Bedingte mathematische Erwartung.

Definition.Bedingte mathematische Erwartung diskrete Zufallsvariable bei
ist die Summe der Produkte möglicher Werte zu ihren bedingten Wahrscheinlichkeiten:

ähnlich

Beispiel 6. Eine zweidimensionale diskrete Zufallsvariable sei durch die Tabelle gegeben:

Finden Sie bedingte mathematische Erwartungen: bei
Und
bei

Dann

Dann

Für kontinuierliche Mengen:

      Abhängige und unabhängige Zufallsvariablen.

Definition. Es werden zwei Zufallsvariablen aufgerufen unabhängig , wenn das Verteilungsgesetz einer von ihnen nicht davon abhängt, welche möglichen Werte die andere Zufallsvariable annahm. Aus dieser Definition folgt, dass die bedingten Verteilungsgesetze unabhängiger Zufallsvariablen gleich ihren unbedingten Verteilungsgesetzen sind.

SATZ.
Und unabhängig wären, ist es notwendig und ausreichend, dass die Gleichheit gilt:

Wir werden den Satz nicht beweisen, aber als Konsequenz erhalten wir:

Folge. Damit es Zufallsvariablen gibt
Und unabhängig wären, ist es notwendig und ausreichend, dass die Dichte der gemeinsamen Verteilung des Systems
war gleich dem Produkt der Verteilungsdichten der Komponenten, d.h.

      Numerische Eigenschaften eines Systems aus zwei Zufällen

Mengen Korrelationsmoment. Koeffizient

Zusammenhänge.

Definition.Korrelationsmoment
Systeme von Zufallsvariablen
Und Der mathematische Erwartungswert des Produkts der Abweichungen dieser Größen heißt:

Anmerkung 1. Es ist leicht zu erkennen, dass das Korrelationsmoment in der Form geschrieben werden kann:

Anmerkung 2. Das Korrelationsmoment zweier unabhängiger Zufallsvariablen ist gleich Null.

Dies folgt aus der Bedingung der Unabhängigkeit von Zufallsvariablen.

Notiz 3. Für das Korrelationsmoment von Zufallsvariablen
Und Ungleichheit gilt

Definition.Korrelationskoeffizient
zufällige Variablen
Und heißt das Verhältnis des Korrelationsmoments zum Produkt der Standardabweichungen dieser Größen, d.h.

(2)

Wenn Zufallsvariablen unabhängig sind, ist ihr Korrelationsmoment gleich Null und dementsprechend ist ihr Korrelationskoeffizient gleich Null.

Unter Berücksichtigung von Bemerkung 3 erhalten wir die Haupteigenschaft des Korrelationskoeffizienten:

(3)

Beispiel 7. Betrachten wir den Fall eines Systems diskreter Zufallsvariablen, deren Verteilung in der Tabelle angegeben ist:

Finden Sie die mathematischen Erwartungen und Varianzen der Komponenten und ermitteln Sie den Korrelationskoeffizienten für sie .

Lassen Sie uns eindimensionale Gesetze der Verteilung von Komponenten finden

und ihre numerischen Eigenschaften.

Für

Für

Mathematische Erwartung des Produkts:

Dann ist das Korrelationsmoment gleich:

Und schließlich ist der Korrelationskoeffizient:

Dies bedeutet, dass Zufallsvariablen
Und habe eine sehr schwache Abhängigkeit.

Betrachten wir ein ähnliches Problem für den Fall kontinuierlicher Zufallsvariablen.

Beispiel 8. Lassen Sie das System der Zufallsvariablen
unterliegt dem Verteilungsgesetz mit Dichte:

Wo ist die Fläche? Parameterwert finden , numerische Eigenschaften von Zufallsvariablen
Und und ihr Korrelationskoeffizient .

Region
- Das ist ein Dreieck:

0 2

Zuerst ermitteln wir den Wert des Parameters , unter Berücksichtigung der Grundbedingung der Verteilungsdichte:

In unserem Fall,

Von hier,
und die Verteilungsdichte hat die Form:

Lassen Sie uns die numerischen Eigenschaften der Komponenten ermitteln.

Da die Funktion
und Region
symmetrisch bezüglich Und , dann die numerischen Eigenschaften von Zufallswerten
Und zusammenfallen, d.h.

Mathematische Erwartung eines Produkts von Zufallsvariablen


Das Korrelationsmoment ist gleich:

Und schlussendlich,

      Korrelation und Abhängigkeit von Zufall

Mengen

Definition. Zwei Zufallsvariablen
Und angerufen korreliert , wenn ihr Korrelationsmoment (oder äquivalent der Korrelationskoeffizient) von Null verschieden ist.

Korrelierte Größen sind abhängig. Die umgekehrte Annahme trifft nicht immer zu, d. h. Abhängige Zufallsvariablen können entweder korreliert oder unkorreliert sein. Wenn Zufallsvariablen unabhängig sind, sind sie notwendigerweise unkorreliert.

Lassen Sie uns anhand eines Beispiels sehen, dass zwei abhängige Größen unkorreliert sein können.

Beispiel. Sei eine zweidimensionale Zufallsvariable
für – gegeben durch die Verteilungsdichte:

Beweise das
Und - unkorrelierte Größen.

Die Verteilungsdichten der Komponenten sind, wie leicht zu erkennen ist, innerhalb einer gegebenen Ellipse durch die entsprechenden Formeln gegeben und sind außerhalb der Ellipse gleich Null.

Seit damals
Und - abhängige Zufallsvariablen.

Da die Funktion
ist dann symmetrisch zur Oy-Achse
, ähnlich,
, aufgrund der Symmetrie
relativ zur Ox-Achse (gerade Funktionen).

da das interne Integral gleich Null ist (das Integral einer ungeraden Funktion ist gleich einer geraden Funktion und die Integrationsgrenzen sind symmetrisch). Dann

diese. Diese abhängigen Zufallsvariablen sind nicht korreliert.

Anmerkung 1. Für normalverteilte Komponenten einer zweidimensionalen Zufallsvariablen sind die Konzepte der Unkorrelation und der Unabhängigkeit gleichwertig.

Anmerkung 2. Wenn die Komponenten
Und sind durch eine lineare Abhängigkeit verbunden, d.h.
, Das

BIBLIOGRAPHISCHES VERZEICHNIS

    Gmurman V.E. Wahrscheinlichkeitstheorie und mathematische Statistik - M.: Vyssh. Schule, 2001.

    Gmurman V.E. Ein Leitfaden zur Lösung von Problemen in der Wahrscheinlichkeitstheorie und der mathematischen Statistik - M.: Vyssh. Schule , 2001

    Gursky E.I. Wahrscheinlichkeitstheorie mit Elementen der mathematischen Statistik - M.: Vyssh. Schule, 1971.

    Izosova L.A., Izosov A.V. Zufallsvariablen //Indikationsmethode// - Magnitogorsk, 2003.

    Izosova L.A., Izosov A.V. Zufallsvariablen und Gesetze ihrer Verteilung //individuelle Zuordnungen/ – Magnitogorsk, 2004.

    Kremer N.Sh. Wahrscheinlichkeitstheorie und mathematische Statistik - M.: Unity, 2000.

    Tschistjakow V.P. Kurs zur Wahrscheinlichkeitstheorie - M.: Nauka, 1982.

Xv X2, ..., PS Funktionstyp Z= vgl. (Xp X2, ..., XJ und sie
(Ökonometrie)
  • X mit Verteilungsdichte px. Eine weitere Zufallsvariable bei bei
  • Erwartete und eingebildete Unfälle in den internationalen Beziehungen
    Der Fall ist Gottes Pseudonym, wenn er nicht mit seinem eigenen Namen unterschreiben möchte. Anatole Frankreich Die Theorie der internationalen Beziehungen hat die Idee ihres systemischen Charakters fest verankert. Die Entdeckung von Unterschieden in der Ausprägung der wichtigsten systemischen Merkmale ermöglichte es, die Geschichte der internationalen ... aufzubauen.
    (Soziologie der Imagination internationaler Beziehungen)
  • Bestimmung numerischer Eigenschaften von Funktionen zufälliger Argumente
    Betrachten wir das Problem der Bestimmung der numerischen Eigenschaften von Funktionen zufälliger Argumente in der folgenden Formulierung. Die Zufallsvariable Z ist eine Funktion des Systems der Zufallsargumente Xv X2, ..., PS Funktionstyp Z= vgl. (Xp X2, ..., XJ und sie Die Parameter sind bekannt, aber die numerischen Eigenschaften ...
    (Ökonometrie)
  • Gesetze der Verteilung von Funktionen zufälliger Argumente
    Es gibt eine kontinuierliche Zufallsvariable X mit Verteilungsdichte px. Eine weitere Zufallsvariable bei hängt mit ihr durch die funktionale Abhängigkeit der Verteilungsdichte der Menge zusammen bei im Fall einer monotonen Funktion ist / entsprechend wie folgt definiert: wobei /_1...
    (Numerische probabilistische Analyse unsicherer Daten)
  • ANWENDUNG DER ZUFÄLLIGEN SUCHMETHODE MIT KONSEQUENTER REDUZIERUNG DES FORSCHUNGSGEBIETS
    ZUFÄLLIGES SUCHVERFAHREN MIT FOLGENDER VERRINGERUNG DES FORSCHUNGSGEBIETS Beschreibung der globalen Extremum-Suchstrategie Die Methode der zufälligen Suche nach einem globalen Extremum mit sequentieller Reduzierung des Untersuchungsgebiets, die Luus-Jakola-Methode (Luus-Jakola, LJ), ist zur Lösung des Problems anwendbar...
    (Metaheuristische Algorithmen zur Suche nach optimaler Programmsteuerung)