Abhängige und unabhängige Zufallsereignisse. Abhängige und unabhängige Zufallsvariablen

Zwei zufällige Variablen$X$ und $Y$ heißen unabhängig, wenn sich das Verteilungsgesetz einer Zufallsvariablen nicht ändert, je nachdem, welche möglichen Werte die andere Zufallsvariable annimmt. Das heißt, für jedes $x$ und $y$ sind die Ereignisse $X=x$ und $Y=y$ unabhängig. Da die Ereignisse $X=x$ und $Y=y$ unabhängig sind, dann nach dem Produkt-der-Wahrscheinlichkeits-Theorem unabhängige Veranstaltungen$P\left(\left(X=x\right)\left(Y=y\right)\right)=P\left(X=x\right)P\left(Y=y\right)$.

Beispiel 1 . Lassen Sie die Zufallsvariable $X$ den Geldgewinn aus den Spielscheinen einer Lotterie „Russisches Lotto“ ausdrücken und die Zufallsvariable $Y$ den Geldgewinn aus den Spielscheinen einer anderen Lotterie „Goldener Schlüssel“ ausdrücken. Es ist offensichtlich, dass die Zufallsvariablen $X,\Y$ unabhängig sein werden, da die Gewinne aus den Losen einer Lotterie nicht vom Gesetz der Gewinnverteilung aus den Losen einer anderen Lotterie abhängen. Für den Fall, dass die Zufallsvariablen $X,\Y$ die Gewinne derselben Lotterie ausdrücken würden, wären diese Zufallsvariablen offensichtlich abhängig.

Beispiel 2 . Zwei Arbeiter arbeiten in verschiedenen Werkstätten und stellen verschiedene Produkte her, die weder durch Fertigungstechnologien noch durch die verwendeten Rohstoffe miteinander in Zusammenhang stehen. Das Verteilungsgesetz für die Anzahl fehlerhafter Produkte, die der erste Arbeiter pro Schicht herstellt, sieht wie folgt aus:

$\begin(array)(|c|c|)
\hline
Anzahl \ defekter \ Produkte \ x & 0 & 1 \\
\hline
Wahrscheinlichkeit & 0,8 & 0,2 \\
\hline
\end(array)$

Die Anzahl der fehlerhaften Produkte, die der zweite Arbeiter pro Schicht produziert, unterliegt dem folgenden Verteilungsgesetz.

$\begin(array)(|c|c|)
\hline
Anzahl \ defekter \ Produkte \ y & 0 & 1 \\
\hline
Wahrscheinlichkeit & 0,7 & 0,3 \\
\hline
\end(array)$

Finden wir das Verteilungsgesetz für die Anzahl fehlerhafter Produkte, die von zwei Arbeitern pro Schicht hergestellt werden.

Die Zufallsvariable $X$ sei die Anzahl der fehlerhaften Produkte, die der erste Arbeiter pro Schicht produziert, und $Y$ die Anzahl der fehlerhaften Produkte, die der zweite Arbeiter pro Schicht produziert. Aufgrund der Bedingung sind die Zufallsvariablen $X,\Y$ unabhängig.

Die Anzahl fehlerhafter Produkte, die von zwei Arbeitern pro Schicht hergestellt werden, ist eine Zufallsvariable $X+Y$. Seine möglichen Werte sind $0,\ 1$ und $2$. Lassen Sie uns die Wahrscheinlichkeiten ermitteln, mit denen die Zufallsvariable $X+Y$ ihre Werte annimmt.

$P\left(X+Y=0\right)=P\left(X=0,\ Y=0\right)=P\left(X=0\right)P\left(Y=0\right) =0,8\cdot 0,7=0,56.$

$P\left(X+Y=1\right)=P\left(X=0,\ Y=1\ oder\ X=1,\ Y=0\right)=P\left(X=0\right )P\left(Y=1\right)+P\left(X=1\right)P\left(Y=0\right)=0.8\cdot 0.3+0.2\cdot 0.7 =0.38.$

$P\left(X+Y=2\right)=P\left(X=1,\ Y=1\right)=P\left(X=1\right)P\left(Y=1\right) =0,2\cdot 0,3=0,06.$

Dann das Gesetz der Verteilung der Anzahl fehlerhafter Produkte, die von zwei Arbeitern pro Schicht hergestellt werden:

$\begin(array)(|c|c|)
\hline
Anzahl \ defekter \ Produkte & 0 & 1 & 2 \\
\hline
Wahrscheinlichkeit & 0,56 & 0,38 & 0,06\\
\hline
\end(array)$

Im vorherigen Beispiel haben wir eine Operation an Zufallsvariablen $X,\Y$ durchgeführt, nämlich ihre Summe $X+Y$ ermittelt. Lassen Sie uns nun eine strengere Definition von Operationen (Addition, Differenz, Multiplikation) über Zufallsvariablen geben und Beispiele für Lösungen geben.

Definition 1. Das Produkt $kX$ einer Zufallsvariablen $X$ durch eine konstante Variable $k$ ist eine Zufallsvariable, die Werte $kx_i$ mit den gleichen Wahrscheinlichkeiten $p_i$ $\left(i=1,\ 2,\ \dots ,\ n\ right)$.

Definition 2. Die Summe (Differenz oder Produkt) der Zufallsvariablen $X$ und $Y$ ist eine Zufallsvariable, die alle möglichen Werte der Form $x_i+y_j$ ($x_i-y_i$ oder $x_i\cdot y_i$) annimmt. , wobei $i=1 ,\ 2,\dots ,\ n$, mit Wahrscheinlichkeiten $p_(ij)$, dass die Zufallsvariable $X$ den Wert $x_i$ annimmt, und $Y$ den Wert $y_j$:

$$p_(ij)=P\left[\left(X=x_i\right)\left(Y=y_j\right)\right].$$

Da die Zufallsvariablen $X,\Y$ unabhängig sind, gilt nach dem Wahrscfür unabhängige Ereignisse: $p_(ij)=P\left(X=x_i\right)\cdot P\left(Y=y_j\ rechts)= p_i\cdot p_j$.

Beispiel 3 . Unabhängige Zufallsvariablen $X,\ Y$ werden durch ihre Wahrsspezifiziert.

$\begin(array)(|c|c|)
\hline
x_i & -8 & 2 & 3 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end(array)$

$\begin(array)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end(array)$

Formulieren wir das Verteilungsgesetz der Zufallsvariablen $Z=2X+Y$. Die Summe der Zufallsvariablen $X$ und $Y$, also $X+Y$, ist eine Zufallsvariable, die alle möglichen Werte der Form $x_i+y_j$ annimmt, wobei $i=1,\ 2 ,\dots ,\ n$ , mit Wahrscheinlichkeiten $p_(ij)$, dass die Zufallsvariable $X$ den Wert $x_i$ und $Y$ den Wert $y_j$ annimmt: $p_(ij)=P\left [\left(X=x_i\right )\left(Y=y_j\right)\right]$. Da die Zufallsvariablen $X,\Y$ unabhängig sind, gilt gemäß dem Wahrscfür unabhängige Ereignisse: $p_(ij)=P\left(X=x_i\right)\cdot P\left(Y=y_j\ rechts)= p_i\cdot p_j$.

Es gibt also Verteilungsgesetze für die Zufallsvariablen $2X$ bzw. $Y$.

$\begin(array)(|c|c|)
\hline
x_i & -16 & 4 & 6 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end(array)$

$\begin(array)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end(array)$

Um alle Werte der Summe $Z=2X+Y$ und ihre Wahrscheinlichkeiten leichter zu finden, erstellen wir eine Hilfstabelle, in deren linker Ecke wir in jeder Zelle die Werte der Summe $ platzieren Z=2X+Y$, und in der rechten Ecke - die Wahrscheinlichkeiten dieser Werte, die man als Ergebnis der Multiplikation der Wahrscheinlichkeiten der entsprechenden Werte der Zufallsvariablen $2X$ und $Y$ erhält.

Als Ergebnis erhalten wir die Verteilung $Z=2X+Y$:

$\begin(array)(|c|c|)
\hline
z_i & -14 & -8 & 6 & 12 & 10 & 16 \\
\hline
p_i & 0,12 & 0,28 & 0,03 & 0,07 & 0,15 & 0,35 \\
\hline
\end(array)$

Daraus schließen wir, dass m1, m2 die mathematischen Erwartungen der Komponenten X, Y einer zweidimensionalen normalen Zufallsvariablen (X, Y) sind und σ1, σ2 die Standardabweichungen ihrer Komponenten sind.

Zweidimensionaler Graph normale Dichte Im Raum gibt es eine hügelförmige Oberfläche, die über der gesamten xOy-Ebene liegt und sich dieser asymptotisch nähert, wenn sie ins Unendliche entfernt wird, symmetrisch um die vertikale Achse, die durch das Zentrum (m1, m2) verläuft, und mit dem Scheitelpunkt an diesem Punkt. Jeder Abschnitt der Oberfläche eines Normaldichtediagramms durch eine Ebene senkrecht zu xOy ist eine Gaußsche Kurve.

6.5 Abhängigkeit und Unabhängigkeit zweier Zufallsvariablen

Definition. Zufallsvariablen X, Y heißen unabhängig, wenn Ereignisse X unabhängig sind< x и Y < y для любых вещественных x, y. В противном случае случайные величины (X, Y) называются зависимыми.

Satz. Allgemeine notwendige und hinreichende Bedingung für die Unabhängigkeit zweier Zufallsvariablen:

FXY (x, y) = FX (x) FY (y)

für jedes reelle x und y.

Diese Bedingung ist eine anders geschriebene notwendige und hinreichende Bedingung für die Unabhängigkeit zweier Ereignisse: P (AB) = P (A)P (B) für den Fall von Ereignissen A = (X< x), B = (Y < y).

Satz. Eine notwendige und hinreichende Bedingung für die Unabhängigkeit zweier kontinuierlicher Zufallsvariablen:

fXY (x, y) = fX (x) fY (y), x, y.

Satz. Notwendige und hinreichende Bedingung für die Unabhängigkeit zweier diskreter Zufallsvariablen:

p ik= p i · p k

für jedes i = 1, 2, . . . , M; k = 1, 2, . . . , N.

Kommentar. Die Gleichheit des Korrelationskoeffizienten ρ mit Null ist eine notwendige und hinreichende Bedingung für die Unabhängigkeit der Komponenten X, Y einer zweidimensionalen normalen Zufallsvariablen (X, Y).

6.6 Bedingte Verteilungsgesetze. Numerische Eigenschaften einer zweidimensionalen Zufallsvariablen. Beziehung zwischen Zufallsvariablen

6.6.1 Bedingte Verteilungsgesetze

Definition. Bedingtes Recht Verteilung Eine der eindimensionalen Komponenten einer zweidimensionalen Zufallsvariablen (X, Y) wird als ihr Verteilungsgesetz bezeichnet und unter der Bedingung berechnet, dass die andere Komponente einen bestimmten Wert annimmt (oder hineinfällt). einige Intervalle).

Bei diskreten Zufallsvariablen haben die Formeln zur Ermittlung bedingter Wahrscheinlichkeiten die Form:

pj(xi) =

P [(X = xi )(Y = yj )]

Pi(yj) =

P [(X = xi )(Y = yj )]

P(Y=yj)

P (X = xi)

Bei kontinuierlichen Zufallsvariablen haben diese Formeln die Form

fY(x) =

fXY(x, y)

FX(y)=

fXY(x, y)

fY(y)

fX(x)

diese. Die bedingte Wahrscheinlichkeitsdichte einer der eindimensionalen Komponenten einer zweidimensionalen Zufallsvariablen ist gleich dem Verhältnis ihrer gemeinsamen Dichte zur Wahrscheinlichkeitsdichte ihrer anderen Komponente.

Diese Verhältnisse, geschrieben im Formular

fXY (x, y) = fX (x)fX (y) = fX (y)fY (x),

werden als Satz (Regel) zur Multiplikation von Verteilungsdichten bezeichnet.

Unter Verwendung von Formeln zum Erhalten eindimensionaler Komponenten einer kontinuierlichen Zufallsvariablen schreiben wir Formeln für bedingte Komponenten:

fY(x) =

fXY(x, y)

FX(y)=

fXY(x, y)

fXY (x, y)dx

fXY (x, y)dy

6.6.2 Numerische Eigenschaften

Betrachten Sie die Zufallsvariable ϕ(X, Y), die eine Funktion der Komponenten X, Y der zweidimensionalen Zufallsvariablen (X, Y) ist. Es gelten die allgemeinen Formeln:

für einen diskreten Fall.

Dabei ist fXY (x, y) die Wahrscheinlichkeitsdichte der Zufallsvariablen (X, Y) und pik = P (X = xi, Y = yk) (i = 1, . . . , m; k = 1, . . , n) - Verteilungsgesetz einer diskreten zweidimensionalen Zufallsvariablen

Mithilfe dieser Formeln können Sie Formeln für den mathematischen Erwartungswert und die Streuung eindimensionaler Komponenten einer diskreten Zufallsvariablen schreiben.

Die Formeln zur Ermittlung der mathematischen Erwartung lauten:

M(X) = Z Z

xfXY (x, y)dxdy;

M(Y) = yfXY (x, y)dxdy

für kontinuierliche Zufallsvariablen;

M(X) = xi pik ;

M(Y) = yk pik

für einen diskreten Fall.

Formeln zur Berechnung der Varianz eindimensionaler Komponenten einer zweidimensionalen Zufallsvariablen haben die Form:

D(Y) = M[(Y − M(Y))2 ] = (yk − M(Y))pik

für einen diskreten Fall.

6.6.3 Korrelationsmoment und Korrelationskoeffizient

Die funktionalen Merkmale der Abhängigkeit zweier Zufallsvariablen wurden oben formuliert. Betrachten wir nun die numerischen Eigenschaften der Beziehung zwischen Zufallsvariablen.

Definition. Korrelationsmoment K XY, sonst - Kovarianz , zwei Zufallsvariablen X, Y heißt erwarteter Wert das Produkt der Abweichungen dieser Zufallsvariablen von ihren mathematischen Erwartungen:

KXY = M[(X − mX )(Y − mY )].

Offensichtlich ist KXY = KY X.

Formeln zur Berechnung von KXY sind:

KXY =Z Z

(x − mX )(y − mY )fXY (x, y)dxdyXY = ρY X .

Das Korrelationsmoment und der Korrelationskoeffizient sind numerische Merkmale einer zweidimensionalen Zufallsvariablen, und ρXY ist ein dimensionsloses Merkmal. Aus ihren Eigenschaften folgt, dass sie die Beziehung zwischen Zufallsvariablen charakterisieren.

Eigenschaften des Korrelationsmoments und Korrelationskoeffizienten. Eigentum 1.

KXY = M − mX mY .

Diese Formel lässt sich bequem zur Berechnung der Kovarianz verwenden.

Eigentum 2.

−1 ≤ ρ ≤ 1.

Diese Eigenschaft bedeutet, dass der Korrelationskoeffizient ein normalisiertes Merkmal ist. Eigenschaft 3. Für unabhängige Zufallsvariablen X, Y ihr Korrelationsmoment,

und folglich ist der Korrelationskoeffizient gleich Null.

Kommentar. Der umgekehrte Satz ist im Allgemeinen falsch, d. h. Es gibt unabhängige Zufallsvariablen (X, Y), für die KXY = 0 ist.

Definition. Es werden zwei Zufallsvariablen X, Y aufgerufen unkorreliert, wenn ihr Korrelationsmoment gleich Null. Wenn KXY 6= 0, dann sagt man, dass X, Y miteinander korrelieren.

Kommentar. Wenn KXY 6= 0, dann sind die Zufallsvariablen X, Y abhängig.

Eigenschaft 4. Für Zufallsvariablen X, Y = aX + b, bezogen lineare Abhängigkeit, der Korrelationskoeffizient ist 1, wenn a > 0, und −1, wenn a< 0.

Eigenschaft 5. Wenn |ρXY | = 1, dann hängen die Zufallsvariablen X, Y durch eine lineare Abhängigkeit mit der Wahrscheinlichkeit Eins zusammen.

Kommentar. Die Größe M = α 1,1 wird als zweites gemischtes Anfangsmoment bezeichnet zweidimensionale Zufallsvariable (X, Y) und ihr Korrelationsmoment K XY-

zweiter gemischter zentraler Moment.

Zufallsvariablen heißen unabhängig, wenn das Verteilungsgesetz einer von ihnen nicht vom Wert der anderen Zufallsvariablen abhängt. Das Konzept der Abhängigkeit von Zufallsvariablen ist in der Wahrscheinlichkeitstheorie sehr wichtig. Bedingte Verteilungen unabhängiger Zufallsvariablen sind gleich ihren unbedingten Verteilungen. Lassen Sie uns die notwendigen und ausreichenden Bedingungen für die Unabhängigkeit von Zufallsvariablen bestimmen.

Satz. Damit die Zufallsvariablen X und Y unabhängig sind, ist es notwendig und ausreichend, dass die Verteilungsfunktion des Systems (X, Y) gleich dem Produkt der Verteilungsfunktionen der Komponenten ist.

Für die Verteilungsdichte lässt sich ein ähnlicher Satz formulieren:

Satz. Damit die Zufallsvariablen X und Y unabhängig sind, ist es notwendig und ausreichend, dass die Dichte gemeinsame Verteilung System (X, Y) war gleich dem Produkt der Verteilungsdichten der Komponenten.

Das Korrelationsmoment mxy der Zufallsvariablen X und Y ist der mathematische Erwartungswert des Produkts der Abweichungen dieser Werte.

In der Praxis werden folgende Formeln verwendet:

Für diskrete Zufallsvariablen:

Für kontinuierliche Zufallsvariablen:

Das Korrelationsmoment dient zur Charakterisierung der Beziehung zwischen Zufallsvariablen. Wenn Zufallsvariablen unabhängig sind, ist ihr Korrelationsmoment gleich Null.

Das Korrelationsmoment hat eine Dimension gleich dem Produkt der Dimensionen der Zufallsvariablen X und Y. Diese Tatsache ist ein Nachteil dieser numerischen Eigenschaft, weil Mit unterschiedlichen Maßeinheiten erhält man unterschiedliche Korrelationsmomente, was den Vergleich der Korrelationsmomente verschiedener Zufallsvariablen erschwert.

Um diesen Nachteil zu beseitigen, wird ein weiteres Merkmal verwendet – der Korrelationskoeffizient.

Der Korrelationskoeffizient rxy der Zufallsvariablen X und Y ist das Verhältnis des Korrelationsmoments zum Produkt der Standardabweichungen dieser Werte.

Der Korrelationskoeffizient ist eine dimensionslose Größe. Der Korrelationskoeffizient unabhängiger Zufallsvariablen ist Null.

Eigenschaft: Der Absolutwert des Korrelationsmoments zweier Zufallsvariablen X und Y überschreitet nicht das geometrische Mittel ihrer Varianzen.

Eigenschaft: Der absolute Wert des Korrelationskoeffizienten überschreitet nicht eins.

Zufallsvariablen heißen korreliert, wenn ihr Korrelationsmoment von Null verschieden ist, und unkorreliert, wenn ihr Korrelationsmoment gleich Null ist.

Wenn Zufallsvariablen unabhängig sind, dann sind sie unkorreliert, aber aus der Unkorrelation kann man nicht auf ihre Unabhängigkeit schließen.

Wenn zwei Größen abhängig sind, können sie entweder korreliert oder unkorreliert sein.

Oft kann man aus einer gegebenen Verteilungsdichte eines Systems von Zufallsvariablen die Abhängigkeit oder Unabhängigkeit dieser Variablen bestimmen.

Neben dem Korrelationskoeffizienten kann der Grad der Abhängigkeit von Zufallsvariablen durch eine weitere Größe charakterisiert werden, die als Kovarianzkoeffizient bezeichnet wird. Der Kovarianzkoeffizient wird durch die Formel bestimmt:

Beispiel. Gegeben ist die Verteilungsdichte des Systems der Zufallsvariablen X und Y.

Finden Sie heraus, ob die Zufallsvariablen X und Y unabhängig sind.

Um dieses Problem zu lösen, transformieren wir die Verteilungsdichte:

Somit könnte die Verteilungsdichte als Produkt zweier Funktionen dargestellt werden, von denen eine nur von x und die andere nur von y abhängt. Diese. Zufallsvariablen X und Y sind unabhängig. Natürlich werden sie auch unkorreliert sein.

Bedingte Verteilungsgesetze. Rückschritt.

Definition. Das bedingte Verteilungsgesetz einer der eindimensionalen Komponenten einer zweidimensionalen Zufallsvariablen (X, Y) ist ihr Verteilungsgesetz, das unter der Bedingung berechnet wird, dass die andere Komponente einen bestimmten Wert annimmt (oder in ein bestimmtes Intervall fällt). In der vorherigen Vorlesung haben wir uns mit der Suche nach bedingten Verteilungen für diskrete Zufallsvariablen befasst. Dort sind auch Formeln für bedingte Wahrscheinlichkeiten angegeben:

Bei kontinuierlichen Zufallsvariablen ist es notwendig, die Wahrscheinlichkeitsdichten der bedingten Verteilungen j y (x) und j X (y) zu bestimmen. Zu diesem Zweck ersetzen wir in den angegebenen Formeln die Wahrscheinlichkeiten von Ereignissen durch ihre „Wahrscheinlichkeitselemente“!

nach Reduktion um dx und dy erhalten wir:

diese. Die bedingte Wahrscheinlichkeitsdichte einer der eindimensionalen Komponenten einer zweidimensionalen Zufallsvariablen ist gleich dem Verhältnis ihrer gemeinsamen Dichte zur Wahrscheinlichkeitsdichte der anderen Komponente. Diese Beziehungen werden in das Formular geschrieben

werden als Satz (Regel) zur Multiplikation von Verteilungsdichten bezeichnet.

Bedingte Dichten j y (x) und j X (y). haben alle Eigenschaften der „bedingungslosen“ Dichte.

Bei der Untersuchung zweidimensionaler Zufallsvariablen werden die numerischen Eigenschaften der eindimensionalen Komponenten X und Y berücksichtigt – mathematische Erwartungen und Varianzen. Für eine kontinuierliche Zufallsvariable (X, Y) werden sie durch die Formeln bestimmt:

Daneben werden auch die numerischen Eigenschaften bedingter Verteilungen berücksichtigt: bedingte mathematische Erwartungen M x (Y) und M y (X) sowie bedingte Varianzen D x (Y) und D Y (X). Diese Merkmale werden mithilfe der üblichen mathematischen Erwartungs- und Varianzformeln ermittelt, bei denen anstelle von Ereigniswahrscheinlichkeiten oder Wahrscheinlichkeitsdichten bedingte Wahrscheinlichkeiten oder bedingte Wahrscheinlichkeitsdichten verwendet werden.

Bedingte mathematische Erwartung einer Zufallsvariablen Y bei X = x, d. h. M x (Y) ist eine Funktion von x, die als Regressionsfunktion oder einfach als Regression von Y auf X bezeichnet wird. Ebenso wird M Y (X) als Regressionsfunktion oder einfach als Regression von X auf Y bezeichnet. Die Graphen dieser Funktionen werden Regressionsgeraden (oder Regressionskurven) Y mal X bzw. X mal Y genannt.

Abhängige und unabhängige Zufallsvariablen.

Definition. Zufallsvariablen X und Y heißen unabhängig, wenn ihre gemeinsame Verteilungsfunktion F(x,y) als Produkt der Verteilungsfunktionen F 1 (x) und F 2 (y) dieser Zufallsvariablen dargestellt wird, d.h.

Ansonsten heißen die Zufallsvariablen X und Y abhängig.

Wenn wir die Gleichheit zweimal nach den Argumenten x und y differenzieren, erhalten wir

diese. Für unabhängige kontinuierliche Zufallsvariablen X und Y ist ihre gemeinsame Dichte j(x,y) gleich dem Produkt der Wahrscheinlichkeitsdichten j 1 (x) und j 2 (y) dieser Zufallsvariablen.

Bisher kennen wir das Konzept einer funktionalen Beziehung zwischen den Variablen X und Y, bei der jeder Wert x einer Variablen einem genau definierten Wert der anderen entspricht. Zum Beispiel die Beziehung zwischen zwei Zufallsvariablen – die Anzahl der ausgefallenen Ausrüstungsteile pro bestimmten Zeitraum Zeit und ihre Kosten - funktional.

Im Allgemeinen sind sie mit einer anderen Art von Abhängigkeit konfrontiert, die weniger schwerwiegend ist als die funktionelle.

Definition. Die Beziehung zwischen zwei Zufallsvariablen wird als probabilistisch (stochastisch oder statistisch) bezeichnet, wenn jeder Wert einer von ihnen einer bestimmten (bedingten) Verteilung der anderen entspricht.

Im Falle einer probabilistischen (stochastischen) Abhängigkeit ist es unmöglich, den Wert der anderen Größe genau zu bestimmen, wenn man den Wert einer von ihnen kennt, sondern man kann nur die Verteilung der anderen Größe angeben. Zum Beispiel das Verhältnis zwischen der Anzahl der Geräteausfälle und den Kosten ihrer vorbeugenden Reparaturen, das Gewicht und die Größe einer Person, die Zeit, die ein Schulkind damit verbringt, Fernsehsendungen anzusehen und Bücher zu lesen usw. sind probabilistisch (stochastisch).

In Abb. Abbildung 5.10 zeigt Beispiele für abhängige und unabhängige Zufallsvariablen X und Y.

Bei der Untersuchung von Zufallsvariablensystemen sollte stets auf den Grad und die Art ihrer Abhängigkeit geachtet werden. Diese Abhängigkeit kann mehr oder weniger ausgeprägt, mehr oder weniger eng sein. In manchen Fällen kann die Beziehung zwischen Zufallsvariablen so eng sein, dass Sie, wenn Sie den Wert einer Zufallsvariablen kennen, den Wert einer anderen genau angeben können. Im anderen Extremfall ist die Abhängigkeit zwischen Zufallsvariablen so schwach und weit entfernt, dass sie praktisch als unabhängig betrachtet werden können.

Das Konzept der unabhängigen Zufallsvariablen ist eines der wichtigen Konzepte der Wahrscheinlichkeitstheorie.

Eine Zufallsvariable heißt unabhängig von einer Zufallsvariablen, wenn das Verteilungsgesetz der Variablen nicht davon abhängt, welchen Wert die Variable annimmt.

Für kontinuierliche Zufallsvariablen kann die Unabhängigkeitsbedingung wie folgt geschrieben werden:

auf jeden Fall.

Im Gegenteil, wenn es darauf ankommt, dann

.

Beweisen wir, dass die Abhängigkeit oder Unabhängigkeit von Zufallsvariablen immer gegenseitig ist: wenn der Wert nicht davon abhängt.

Lassen Sie es in der Tat nicht davon abhängen:

. (8.5.1)

Aus den Formeln (8.4.4) und (8.4.5) ergibt sich:

woraus wir unter Berücksichtigung von (8.5.1) erhalten:

Q.E.D.

Da die Abhängigkeit und Unabhängigkeit von Zufallsvariablen immer gegenseitig sind, können wir eine neue Definition unabhängiger Zufallsvariablen geben.

Zufallsvariablen heißen unabhängig, wenn das Verteilungsgesetz jeder von ihnen nicht vom Wert der anderen abhängt. Ansonsten heißen die Größen abhängig.

Für unabhängige kontinuierliche Zufallsvariablen hat der Multiplikationssatz für Verteilungsgesetze die Form:

, (8.5.2)

Das heißt, die Verteilungsdichte eines Systems unabhängiger Zufallsvariablen ist gleich dem Produkt der Verteilungsdichten einzelner im System enthaltener Variablen.

Bedingung (8.5.2) kann als notwendige und hinreichende Bedingung für die Unabhängigkeit von Zufallsvariablen angesehen werden.

Oft kann man schon aus der Form der Funktion schließen, dass die Zufallsvariablen unabhängig sind, nämlich wenn die Verteilungsdichte in das Produkt zweier Funktionen zerfällt, von denen die eine nur von, die andere nur von den Zufallsvariablen abhängt sind unabhängig.

Beispiel. Die Verteilungsdichte des Systems hat die Form:

.

Bestimmen Sie, ob Zufallsvariablen und abhängig oder unabhängig sind.

Lösung. Unter Berücksichtigung des Nenners erhalten wir:

.

Aus der Tatsache, dass sich die Funktion in das Produkt zweier Funktionen aufspaltet, von denen die eine nur von und die andere nur von abhängt, schließen wir, dass die Größen und unabhängig sein müssen. Wenn wir die Formeln (8.4.2) und (8.4.3) anwenden, erhalten wir tatsächlich:

;

ähnlich

Wie können wir das sicher sein?

und daher sind die Mengen und unabhängig.

Das obige Kriterium zur Beurteilung der Abhängigkeit oder Unabhängigkeit von Zufallsvariablen basiert auf der Annahme, dass uns das Verteilungsgesetz des Systems bekannt ist. In der Praxis ist das Gegenteil häufiger der Fall: Das Verteilungsgesetz des Systems ist nicht bekannt; Es sind nur die Verteilungsgesetze der einzelnen im System enthaltenen Größen bekannt, und es gibt Grund zu der Annahme, dass die Mengen unabhängig sind. Dann können wir die Verteilungsdichte des Systems als Produkt der Verteilungsdichten der einzelnen im System enthaltenen Größen schreiben.

Lassen Sie uns näher auf die wichtigen Konzepte „Abhängigkeit“ und „Unabhängigkeit“ von Zufallsvariablen eingehen.

Das Konzept der „Unabhängigkeit“ von Zufallsvariablen, das wir in der Wahrscheinlichkeitstheorie verwenden, unterscheidet sich etwas vom üblichen Konzept der „Abhängigkeit“ von Variablen, das wir in der Mathematik verwenden. Tatsächlich meinen wir mit „Abhängigkeit“ von Größen normalerweise nur eine Art von Abhängigkeit – vollständige, starre, sogenannte funktionale Abhängigkeit. Zwei Größen werden als funktional abhängig bezeichnet, wenn Sie den Wert der anderen genau angeben können, wenn Sie den Wert einer von ihnen kennen.

In der Wahrscheinlichkeitstheorie stoßen wir auf eine andere, allgemeinere Art von Abhängigkeit – eine probabilistische oder „stochastische“ Abhängigkeit. Wenn eine Größe durch eine probabilistische Abhängigkeit mit einer Größe zusammenhängt, ist es bei Kenntnis des Wertes von nicht möglich, den genauen Wert von anzugeben, sondern nur sein Verteilungsgesetz, das davon abhängt, welchen Wert die Größe angenommen hat.

Die probabilistische Beziehung kann mehr oder weniger eng sein; Mit zunehmender Nähe der probabilistischen Abhängigkeit nähert sie sich immer mehr der funktionalen Abhängigkeit an. Somit kann die funktionale Abhängigkeit als extremer Grenzfall der engsten probabilistischen Abhängigkeit betrachtet werden. Ein weiterer Extremfall ist die völlige Unabhängigkeit von Zufallsvariablen. Zwischen diesen beiden Extremfällen liegen alle Abstufungen der probabilistischen Abhängigkeit – von der stärksten bis zur schwächsten. Diese physikalische Quantitäten, die wir in der Praxis als funktional abhängig betrachten, sind tatsächlich durch eine sehr enge probabilistische Abhängigkeit verbunden: Bei einem gegebenen Wert einer dieser Größen schwankt die andere in so engen Grenzen, dass sie praktisch als ganz bestimmt angesehen werden kann. Andererseits stehen diejenigen Größen, die wir in der Praxis und in der Realität als unabhängig betrachten, oft in einer Art gegenseitiger Abhängigkeit, aber diese Abhängigkeit ist so schwach, dass sie aus praktischen Gründen vernachlässigt werden kann.

Wahrscheinlichkeitsabhängige Abhängigkeiten zwischen Zufallsvariablen sind in der Praxis weit verbreitet. Wenn Zufallsvariablen in einer probabilistischen Abhängigkeit stehen, bedeutet dies nicht, dass sich bei einer Wertänderung der Wert auf ganz bestimmte Weise ändert; es bedeutet lediglich, dass sich die Größe tendenziell auch ändert, wenn sich die Größe ändert (z. B. zunimmt oder abnimmt, wenn sie zunimmt). Dieser Trend ist nur „im Durchschnitt“ zu beobachten allgemeiner Überblick, Abweichungen davon sind im Einzelfall möglich.

Betrachten Sie zum Beispiel zwei solcher Zufallsvariablen: - die zufällig ausgewählte Größe einer Person, - ihr Gewicht. Offensichtlich stehen die Mengen und in einer gewissen probabilistischen Beziehung; es drückt sich darin aus, dass im Allgemeinen Menschen mit großer Körpergröße haben mehr Gewicht. Sie können sogar eine empirische Formel erstellen, die diese probabilistische Abhängigkeit annähernd durch eine funktionale ersetzt. Dies ist beispielsweise eine bekannte Formel, die näherungsweise den Zusammenhang zwischen Körpergröße und Gewicht ausdrückt.