Normalisierte Korrelationsfunktion eines Zufallsprozesses. Korrelationsfunktion eines stationären Prozesses

Erwartung und Streuung sind wichtige Merkmale eines Zufallsprozesses, sie bieten jedoch keinen ausreichenden Einblick in die Natur einzelner Implementierungen eines Zufallsprozesses. Dies ist aus Abb. ersichtlich. 9.3, das die Implementierung zweier Zufallsprozesse zeigt, die in ihrer Struktur völlig unterschiedlich sind, obwohl sie dies getan haben

die gleichen Werte der mathematischen Erwartung und Varianz. Gestrichelte Linien in Abb. Abbildung 9.3 zeigt die Werte für zufällige Prozesse.

Der in Abb. 9.3, a, von einem Abschnitt zum anderen verläuft relativ reibungslos, und der Prozess in Abb. 9.3 weist b eine starke Variabilität von Abschnitt zu Abschnitt auf. Daher ist der statistische Zusammenhang zwischen Abschnitten im ersten Fall größer als im zweiten, was jedoch weder durch die mathematische Erwartung noch durch die Streuung festgestellt werden kann.

Um die innere Struktur eines Zufallsprozesses einigermaßen zu charakterisieren, also die Beziehung zwischen den Werten eines Zufallsprozesses zu verschiedenen Zeitpunkten zu berücksichtigen oder mit anderen Worten, den Grad von zu berücksichtigen Variabilität eines Zufallsprozesses ist es notwendig, das Konzept der Korrelationsfunktion (Autokorrelationsfunktion) eines Zufallsprozesses einzuführen.

Korrelationsfunktion eines Zufallsprozesses heißt eine nichtzufällige Funktion zweier Argumente, die für jedes Paar willkürlich gewählter Werte der Argumente (Zeitpunkte) gleich dem mathematischen Erwartungswert des Produkts zweier Zufallsvariablen der entsprechenden Abschnitte des Zufalls ist Verfahren:

wo ist die zweidimensionale Wahrscheinlichkeitsdichte; - zentrierter Zufallsprozess; - mathematische Erwartung (Durchschnittswert) eines Zufallsprozesses.

Verschiedene Zufallsprozesse werden je nachdem, wie sich ihre statistischen Eigenschaften im Laufe der Zeit ändern, in stationäre und instationäre unterteilt. Es wird zwischen Stationarität im engeren Sinne und Stationarität im weiteren Sinne unterschieden.

Stationär im engeren Sinne heißt ein Zufallsprozess, wenn seine n-dimensionalen Verteilungsfunktionen und Wahrscheinlichkeitsdichten für jeden Zeitpunkt nicht von der Verschiebung aller Punkte abhängen

Entlang der Zeitachse um den gleichen Betrag, d.h.

Dies bedeutet, dass die beiden Prozesse für jeden die gleichen statistischen Eigenschaften haben, d. h. die statistischen Eigenschaften eines stationären Zufallsprozesses sind über die Zeit konstant.

Ein stationärer Zufallsprozess ist eine Art Analogon eines stetigen Prozesses in deterministischen Systemen. Jeder Übergangsprozess ist nicht stationär.

Stationär im weitesten Sinne ist ein Zufallsprozess, dessen mathematische Erwartung konstant ist:

und die Korrelationsfunktion hängt nur von einer Variablen ab – den Unterschieden in den Argumenten, und die Korrelationsfunktion wird mit bezeichnet

Prozesse, die im engeren Sinne stationär sind, sind notwendigerweise im weiteren Sinne stationär; Die umgekehrte Aussage ist jedoch im Allgemeinen falsch.

Der Begriff eines im weitesten Sinne stationären Zufallsprozesses wird eingeführt, wenn nur der mathematische Erwartungswert und die Korrelationsfunktion als statistische Merkmale eines Zufallsprozesses verwendet werden. Der Teil der Theorie zufälliger Prozesse, der die Eigenschaften eines zufälligen Prozesses durch seine mathematische Erwartungs- und Korrelationsfunktion beschreibt, wird Korrelationstheorie genannt.

Für einen Zufallsprozess mit einem Normalverteilungsgesetz bestimmen der mathematische Erwartungswert und die Korrelationsfunktion vollständig seine n-dimensionale Wahrscheinlichkeitsdichte.

Daher fallen für normale Zufallsprozesse die Konzepte der Stationarität im weiteren und im engeren Sinne zusammen.

Die Theorie stationärer Prozesse ist am weitesten entwickelt und ermöglicht relativ einfache Berechnungen für viele praktische Fälle. Daher ist es manchmal ratsam, die Annahme der Stationarität auch in den Fällen zu treffen, in denen der Zufallsprozess, obwohl er instationär ist, während der betrachteten Betriebsdauer des Systems die statistischen Eigenschaften der Signale keine Zeit haben, sich wesentlich zu ändern. Im Folgenden werden, sofern nicht anders angegeben, Zufallsprozesse betrachtet, die im weiteren Sinne stationär sind.

Bei der Untersuchung zufälliger Prozesse, die im weitesten Sinne stationär sind, können wir uns darauf beschränken, nur Prozesse mit zu betrachten mathematische Erwartung(Durchschnittswert) gleich Null, d. h. da ein zufälliger Prozess mit einem mathematischen Erwartungswert ungleich Null als Summe eines Prozesses mit einem mathematischen Erwartungswert von Null und einem konstanten nicht zufälligen (regulären) Wert gleich dem mathematischen Erwartungswert von dargestellt wird diesen Prozess (siehe weiter § 9.6).

Wenn der Ausdruck für die Korrelationsfunktion

In der Theorie zufälliger Prozesse werden zwei Konzepte von Durchschnittswerten verwendet. Das erste Konzept des Durchschnittswerts ist der Durchschnittswert der Menge (oder der mathematischen Erwartung), der auf der Grundlage der Beobachtung der Menge von Erkenntnissen eines Zufallsprozesses zum gleichen Zeitpunkt bestimmt wird. Der Durchschnittswert über eine Menge wird normalerweise durch eine Wellenlinie über dem Ausdruck angezeigt, der die Zufallsfunktion beschreibt:

Im Allgemeinen ist der Durchschnittswert über einen Satz eine Funktion der Zeit

Ein weiteres Konzept des Durchschnittswerts ist der Durchschnittswert über die Zeit, der auf der Grundlage der Beobachtung einer separaten Implementierung eines Zufallsprozesses über einen bestimmten Zeitraum ermittelt wird.

für eine ausreichend lange Zeit T. Der Mittelwert über die Zeit wird durch eine gerade Linie über dem entsprechenden Ausdruck angezeigt Zufallsfunktion und bestimmt durch die Formel:

wenn diese Grenze existiert.

Der Zeitdurchschnitt ist im Allgemeinen für einzelne Realisierungen der Menge, die den Zufallsprozess definiert, unterschiedlich. Im Allgemeinen sind für denselben Zufallsprozess die eingestellten Durchschnitts- und Zeitdurchschnittswerte unterschiedlich. Es gibt jedoch eine Klasse stationärer Zufallsprozesse, sogenannte ergodische Prozesse, bei denen der Durchschnitt über die Menge gleich dem Durchschnitt über die Zeit ist, d. h.

Die Korrelationsfunktion eines ergodischen stationären Zufallsprozesses nimmt im absoluten Wert unbegrenzt ab

Es muss jedoch berücksichtigt werden, dass nicht jeder stationäre Zufallsprozess ergodisch ist. Beispielsweise ist ein Zufallsprozess, dessen jede Implementierung zeitlich konstant ist (Abb. 9.4), stationär, aber nicht ergodisch. In diesem Fall stimmen die ermittelten Durchschnittswerte aus einer Implementierung und aus der Verarbeitung mehrerer Implementierungen nicht überein. Im allgemeinen Fall kann derselbe Zufallsprozess in Bezug auf einige ergodisch sein statistische Merkmale und nicht-ergodisch in Bezug auf andere. Im Folgenden gehen wir davon aus, dass die Ergodizitätsbedingungen hinsichtlich aller statistischen Merkmale erfüllt sind.

Die Ergodizitätseigenschaft ist sehr groß praktische Bedeutung. Zur Bestimmung statistische Eigenschaften Wenn es bei einigen Objekten schwierig ist, sie zu einem willkürlich gewählten Zeitpunkt gleichzeitig zu beobachten (z. B. wenn ein Prototyp vorhanden ist), kann dies durch eine Langzeitbeobachtung eines Objekts ersetzt werden. Mit anderen Worten, eine separate Implementierung des ergodischen Zufalls

Der Prozess über einen unendlichen Zeitraum bestimmt vollständig den gesamten Zufallsprozess mit seinen unendlichen Implementierungen. Tatsächlich liegt dieser Tatsache die unten beschriebene Methode zur experimentellen Bestimmung der Korrelationsfunktion eines stationären Zufallsprozesses aus einer Implementierung zugrunde.

Wie aus (9.25) ersichtlich ist, ist die Korrelationsfunktion der Durchschnittswert über die Menge. Für ergodische Zufallsprozesse kann die Korrelationsfunktion als zeitlicher Durchschnitt des Produkts definiert werden, d.h.

Wo ist eine Implementierung eines zufälligen Prozesses? x ist der Mittelwert über die Zeit, bestimmt durch (9.28).

Wenn der Mittelwert eines Zufallsprozesses Null ist, dann

Basierend auf der Ergodizitätseigenschaft kann man Dispersion [siehe. (9.19)] definiert als der zeitliche Mittelwert des Quadrats des zentrierten Zufallsprozesses, d. h.

Vergleicht man die Ausdrücke (9.30) und (9.32), kann man einen sehr wichtigen Zusammenhang zwischen der Dispersion und der Korrelationsfunktion feststellen – die Dispersion eines stationären Zufallsprozesses ist gleich dem Anfangswert der Korrelationsfunktion:

Aus (9.33) geht hervor, dass die Streuung eines stationären Zufallsprozesses konstant ist und daher die Standardabweichung konstant ist:

Die statistischen Eigenschaften des Zusammenhangs zwischen zwei Zufallsprozessen können durch eine gegenseitige Korrelationsfunktion charakterisiert werden, die für jedes Paar willkürlich gewählter Argumentwerte gleich ist

Für ergodische Zufallsprozesse können wir anstelle von (9.35) schreiben

Wo gibt es jeweils Realisierungen stationärer Zufallsprozesse?

Die Kreuzkorrelationsfunktion charakterisiert die gegenseitige statistische Beziehung zweier Zufallsprozesse zu unterschiedlichen Zeitpunkten, die durch eine Zeitspanne voneinander getrennt sind. Der Wert charakterisiert diese Beziehung zum gleichen Zeitpunkt.

Aus (9.36) folgt das

Wenn zufällige Prozesse nicht statistisch miteinander verknüpft sind und haben gleich Null Durchschnittswerte, dann ist ihre Kreuzkorrelationsfunktion für alle gleich Null. Die umgekehrte Schlussfolgerung, dass die Prozesse unabhängig sind, wenn die Kreuzkorrelationsfunktion gleich Null ist, lässt sich jedoch nur im Einzelfall (insbesondere bei Prozessen mit Normalverteilungsgesetz) ziehen, beim Umkehrgesetz jedoch nicht haben allgemeine Kraft.

Beachten Sie, dass Korrelationsfunktionen auch für nicht zufällige (reguläre) Zeitfunktionen berechnet werden können. Wenn man jedoch von der Korrelationsfunktion einer regulären Funktion spricht, wird diese einfach als Ergebnis einer formalen Funktion verstanden

Anwenden einer durch ein Integral ausgedrückten Operation auf eine reguläre Funktion:

Lassen Sie uns einige grundlegende Eigenschaften von Korrelationsfunktionen vorstellen

1. Anfangswert der Korrelationsfunktion [siehe (9.33)] ist gleich der Varianz des Zufallsprozesses:

2. Der Wert der Korrelationsfunktion kann zu keinem Zeitpunkt seinen Anfangswert überschreiten, d.h.

Um dies zu beweisen, betrachten Sie die offensichtliche Ungleichung, aus der sie folgt

Wir finden die Durchschnittswerte über die Zeit von beiden Seiten der letzten Ungleichung:

Somit erhalten wir die Ungleichung

3. Es gibt eine Korrelationsfunktion gleiche Funktion, d.h.

Dies ergibt sich bereits aus der Definition der Korrelationsfunktion. Wirklich,

Daher ist die Korrelationsfunktion im Diagramm immer symmetrisch zur Ordinate.

4. Die Korrelationsfunktion der Summe zufälliger Prozesse wird durch den Ausdruck bestimmt

Wo sind die Kreuzkorrelationsfunktionen?

Wirklich,

5. Die Korrelationsfunktion eines konstanten Wertes ist gleich dem Quadrat dieses konstanten Wertes (Abb. 9.5, a), was sich aus der Definition der Korrelationsfunktion selbst ergibt:

6. Die Korrelationsfunktion einer periodischen Funktion ist beispielsweise eine Kosinuswelle (Abb. 9-5, 5), d.h.

mit der gleichen Frequenz wie und unabhängig von der Phasenverschiebung

Um dies zu beweisen, beachten Sie, dass Sie beim Ermitteln der Korrelationsfunktionen periodischer Funktionen die folgende Gleichung verwenden können:

Wo ist die Periode der Funktion?

Die letzte Gleichheit wird erhalten, nachdem das Integral mit Grenzen von -T bis T bei T durch die Summe einzelner Integrale mit Grenzen von bis ersetzt wurde, wobei und unter Verwendung der Periodizität der Integranden.

Unter Berücksichtigung des oben Gesagten erhalten wir dann t.

7. Korrelationsfunktion einer zu einer Fourier-Reihe erweiterten Zeitfunktion:

Reis. 9,5 (siehe Scan)

Basierend auf dem oben Gesagten hat es die folgende Form:

8. Eine typische Korrelationsfunktion eines stationären Zufallsprozesses hat die in Abb. gezeigte Form. 9.6. Es kann durch den folgenden analytischen Ausdruck angenähert werden:

Mit zunehmendem Wachstum wird die Verbindung zwischen ihnen schwächer und die Korrelationsfunktion wird kleiner. In Abb. 9.5, b, c zeigen beispielsweise zwei Korrelationsfunktionen und zwei entsprechende Realisierungen eines Zufallsprozesses. Es ist leicht zu erkennen, dass die Korrelationsfunktion, die einem Zufallsprozess mit einer feineren Struktur entspricht, schneller abnimmt hohe Frequenzen in einem Zufallsprozess vorliegen, desto schneller nimmt die entsprechende Korrelationsfunktion ab.

Manchmal gibt es Korrelationsfunktionen, die durch den analytischen Ausdruck angenähert werden können

wo ist die Streuung; - Dämpfungsparameter; - Resonanzfrequenz.

Korrelationsfunktionen Beispielsweise haben zufällige Prozesse wie atmosphärische Turbulenzen, Radarsignalschwund, Winkelflimmern eines Ziels usw. eine ähnliche Form. Die Ausdrücke (9.45) und (9.46) werden häufig verwendet, um Korrelationsfunktionen zu approximieren, die als Ergebnis der Verarbeitung experimenteller Daten erhalten werden .

9. Die Korrelationsfunktion eines stationären Zufallsprozesses, dem eine periodische Komponente mit Frequenz überlagert ist, wird auch eine periodische Komponente derselben Frequenz enthalten.

Dieser Umstand kann als eine der Möglichkeiten genutzt werden, „verborgene Periodizität“ in Zufallsprozessen zu erkennen, die bei einzelnen Aufzeichnungen über die Durchführung eines Zufallsprozesses möglicherweise nicht auf den ersten Blick erkennbar ist.

Eine ungefähre Form der Korrelationsfunktion eines Prozesses, der neben der Zufallskomponente auch eine periodische Komponente enthält, ist in Abb. dargestellt. 9.7, wo die der Zufallskomponente entsprechende Korrelationsfunktion angegeben ist. Um eine versteckte periodische Komponente zu identifizieren (dieses Problem entsteht beispielsweise bei der Identifizierung eines kleinen Nutzsignals vor dem Hintergrund großen Rauschens), ist es am besten, die Korrelationsfunktion für große Werte zu bestimmen, wenn das Zufallssignal bereits relativ schwach korreliert ist und die Zufallskomponente hat kaum Einfluss auf die Form der Korrelationsfunktion.

Störungen in Kommunikationssystemen werden mit Methoden der Theorie zufälliger Prozesse beschrieben.

Eine Funktion heißt zufällig, wenn sie als Ergebnis eines Experiments die eine oder andere Form annimmt und nicht im Voraus bekannt ist, welche. Ein Zufallsprozess ist eine zufällige Funktion der Zeit. Die spezifische Form, die ein Zufallsprozess als Ergebnis eines Experiments annimmt, wird als Implementierung eines Zufallsprozesses bezeichnet.

In Abb. Abbildung 1.19 zeigt eine Reihe von mehreren (drei) Implementierungen des Zufallsprozesses , , . Eine solche Sammlung wird als Ensemble von Erkenntnissen bezeichnet. Mit einem festen Wert des Zeitpunkts im ersten Experiment erhalten wir einen bestimmten Wert, im zweiten - , im dritten - .

Der Zufallsprozess ist dualer Natur. Einerseits wird es in jedem spezifischen Experiment durch seine Umsetzung repräsentiert – eine nicht zufällige Funktion der Zeit. Andererseits wird ein Zufallsprozess durch eine Menge von Zufallsvariablen beschrieben.

Betrachten wir tatsächlich einen zufälligen Prozess zu einem festen Zeitpunkt. Dann nimmt er in jedem Experiment einen Wert an, und es ist nicht im Voraus bekannt, welcher. Somit ist ein zufälliger Prozess, der zu einem festen Zeitpunkt betrachtet wird, eine Zufallsvariable. Wenn zwei Zeitpunkte aufgezeichnet werden, erhalten wir in jedem Experiment zwei Werte von und . In diesem Fall führt die gemeinsame Betrachtung dieser Werte zu einem System aus zwei Zufallsvariablen. Bei der Analyse zufälliger Prozesse zu N Zeitpunkten gelangt man zu einer Menge bzw. einem System von N Zufallsvariablen .

Mathematische Erwartungs-, Streuungs- und Korrelationsfunktion eines Zufallsprozesses. Da ein zu einem festen Zeitpunkt betrachteter Zufallsprozess eine Zufallsvariable ist, können wir über die mathematische Erwartungshaltung und Streuung eines Zufallsprozesses sprechen:

, .

Wie bei einer Zufallsvariablen charakterisiert die Dispersion die Streuung der Werte eines Zufallsprozesses relativ zum Durchschnittswert. Je mehr, desto größer ist die Wahrscheinlichkeit sehr großer positiver und negative Werte Verfahren. Ein praktischeres Merkmal ist die Standardabweichung (MSD), die dieselbe Dimension wie der Zufallsprozess selbst hat.

Beschreibt ein zufälliger Prozess beispielsweise eine Änderung des Abstands zu einem Objekt, dann ist die mathematische Erwartung durchschnittliche Reichweite in Metern; Die Streuung wird in Quadratmetern gemessen, und Sco wird in Metern gemessen und charakterisiert die Streuung möglicher Reichweitenwerte relativ zum Durchschnitt.

Mittelwert und Varianz sind sehr wichtige Merkmale, die es uns ermöglichen, das Verhalten eines Zufallsprozesses zu einem bestimmten Zeitpunkt zu beurteilen. Wenn es jedoch notwendig ist, die „Geschwindigkeit“ der Veränderung in einem Prozess abzuschätzen, dann reichen Beobachtungen zu einem bestimmten Zeitpunkt nicht aus. Verwenden Sie dazu zwei zufällige Variablen, zusammen betrachtet. Ebenso wie bei Zufallsvariablen wird ein Merkmal des Zusammenhangs bzw. der Abhängigkeit zwischen und eingeführt. Bei einem Zufallsprozess hängt diese Eigenschaft von zwei Zeitpunkten ab und wird Korrelationsfunktion genannt: .

Stationäre Zufallsprozesse. Viele Prozesse in Steuerungssystemen laufen über die Zeit gleichmäßig ab. Ihre grundlegenden Eigenschaften ändern sich nicht. Solche Prozesse werden als stationär bezeichnet. Die genaue Definition kann wie folgt angegeben werden. Ein Zufallsprozess wird als stationär bezeichnet, wenn keine seiner Wahrscheinlichkeitseigenschaften von der Verschiebung des Zeitursprungs abhängt. Für einen stationären Zufallsprozess sind der mathematische Erwartungswert, die Varianz und die Standardabweichung konstant: , .

Korrelationsfunktion stationärer Prozess hängt nicht vom Ursprung t ab, d.h. hängt nur vom Zeitunterschied ab:

Die Korrelationsfunktion eines stationären Zufallsprozesses hat folgende Eigenschaften:

1) ; 2) ; 3) .

Oft haben die Korrelationsfunktionen von Prozessen in Kommunikationssystemen die in Abb. 1,20.

Reis. 1,20. Korrelationsfunktionen von Prozessen

Das Zeitintervall, über das die Korrelationsfunktion, d. h. Die Größe der Verbindung zwischen den Werten eines Zufallsprozesses nimmt um das M-fache ab, was als Intervall oder Korrelationszeit des Zufallsprozesses bezeichnet wird. Normalerweise oder. Wir können sagen, dass die Werte eines Zufallsprozesses, die sich zeitlich um ein Korrelationsintervall unterscheiden, schwach miteinander verknüpft sind.

Somit ermöglicht die Kenntnis der Korrelationsfunktion die Beurteilung der Änderungsrate eines Zufallsprozesses.

Ein weiteres wichtiges Merkmal ist das Energiespektrum eines Zufallsprozesses. Sie ist als Fourier-Transformation der Korrelationsfunktion definiert:

.

Offensichtlich gilt auch die umgekehrte Transformation:

.

Das Energiespektrum zeigt die Leistungsverteilung eines zufälligen Prozesses, beispielsweise einer Interferenz, auf der Frequenzachse.

Bei der Analyse eines ACS ist es sehr wichtig, die Eigenschaften eines Zufallsprozesses am Ausgang eines linearen Systems mit bekannten Eigenschaften des Prozesses am Eingang des ACS zu bestimmen. Nehmen wir an, dass das lineare System durch ein gepulstes System gegeben ist Sprungantwort. Dann wird das Ausgangssignal zum jeweiligen Zeitpunkt durch das Duhamel-Integral bestimmt:

,

Wo ist der Prozess am Systemeingang? Um die Korrelationsfunktion zu finden, schreiben wir und nach der Multiplikation finden wir den mathematischen Erwartungswert

Bei der Recherche von Fragen Abhängigkeit oder Unabhängigkeit zwei oder mehr Querschnitte zufälliger Prozesse, Kenntnis nur der mathematischen Erwartung und Streuung des r.p. nicht genug.

Um den Zusammenhang zwischen verschiedenen Zufallsprozessen zu bestimmen, wird das Konzept einer Korrelationsfunktion verwendet – ein Analogon zum Konzept der Kovarianz von Zufallsvariablen (siehe T.8).

Korrelation (Kovarianz, Autokovarianz, Autokorrelation) Funktion eines Zufallsprozesses
angerufen nichtzufällige Funktion zwei Argumente

gleich dem Korrelationsmoment der entsprechenden Abschnitte
Und
:

oder (unter Berücksichtigung der Notation einer zentrierten Zufallsfunktion
) wir haben

Hier sind die wichtigsten Eigenschaften der Korrelationsfunktion
zufälliger Prozess
.

1. Die Korrelationsfunktion für die gleichen Werte der Argumente ist gleich der Streuung des r.p.

Wirklich,

Die nachgewiesene Eigenschaft ermöglicht die Berechnung des m.o. Da die Korrelationsfunktion die Hauptmerkmale eines Zufallsprozesses ist, besteht keine Notwendigkeit, die Varianz zu berechnen.

2. Die Korrelationsfunktion ändert sich nicht in Bezug auf die Ersetzung von Argumenten, d. h. ist eine symmetrische Funktion bezüglich ihrer Argumente: .

Diese Eigenschaft leitet sich direkt aus der Definition der Korrelationsfunktion ab.

3. Wenn einem Zufallsprozess eine nichtzufällige Funktion hinzugefügt wird, ändert sich die Korrelationsfunktion nicht, d.h. Wenn
, Das. Mit anderen Worten

ist eine periodische Funktion in Bezug auf jede nichtzufällige Funktion.

Tatsächlich aus der Argumentationskette

folgt daraus. Von hier aus erhalten wir die erforderliche Eigenschaft 3.

4. Der Modul der Korrelationsfunktion überschreitet nicht das Produkt des R.C.O., d.h.

Der Eigentumsnachweis 4. erfolgt analog wie in Abschnitt 12.2. (Satz 12..2) unter Berücksichtigung der ersten Eigenschaft der Korrelationsfunktion des r.p.
.

5. Bei der Multiplikation von s.p.
um einen nicht zufälligen Faktor
seine Korrelationsfunktion wird mit dem Produkt multipliziert
, d. h. wenn
, Das

5.1. Normalisierte Korrelationsfunktion

Zusammen mit der Korrelationsfunktion s.p. auch berücksichtigt normalisierte Korrelationsfunktion(oder AutokorrelationFunktion)
definiert durch Gleichheit

.

Folge. Basierend auf Eigenschaft 1 gilt die Gleichheit

.

Durch seine Bedeutung
ähnelt dem Korrelationskoeffizienten für r.v., ist jedoch kein konstanter Wert, sondern hängt von den Argumenten ab Und .

Lassen Sie uns auflisten Eigenschaften der normalisierten Korrelationsfunktion:

1.

2.

3.
.

Beispiel 4. Lass s.p. wird durch die Formel bestimmt, d.h.
s.v.,

über verteilt normales Gesetz Mit

Finden Sie die Korrelation und die normalisierten Funktionen des Zufallsprozesses

Lösung. Per Definition haben wir

diese.
Von hier aus erhalten wir unter Berücksichtigung der Definition der normalisierten Korrelationsfunktion und der Ergebnisse der Lösung der vorherigen Beispiele
=1, d.h.
.

5.2. Kreuzkorrelationsfunktion eines Zufallsprozesses

Um den Grad der Abhängigkeit zu bestimmen Abschnitte Zwei Zufallsprozesse verwenden eine Korrelationsverknüpfungsfunktion oder Kreuzkorrelationsfunktion.

Kreuzkorrelationsfunktion zweier Zufallsprozesse
Und
eine nichtzufällige Funktion genannt
zwei unabhängige Argumente Und , was für jedes Wertepaar gilt Und gleich dem Korrelationsmoment zweier Abschnitte
Und

Zwei sp.
Und
werden genannt unkorreliert, wenn ihre gegenseitige Korrelationsfunktion identisch gleich Null ist, d.h. wenn überhaupt Und tritt ein
Wenn überhaupt Und es stellt sich heraus
, dann zufällige Prozesse
Und
werden genannt korreliert(oder verwandt).

Betrachten wir die Eigenschaften der Kreuzkorrelationsfunktion, die sich direkt aus ihrer Definition und den Eigenschaften des Korrelationsmoments ableiten (siehe 12.2):

1. Wenn Indizes und Argumente gleichzeitig neu angeordnet werden, ändert sich die Kreuzkorrelationsfunktion nicht

2. Der Modul der Kreuzkorrelationsfunktion zweier Zufallsprozesse überschreitet nicht das Produkt ihrer Standardabweichungen, d. h

3. Die Korrelationsfunktion ändert sich nicht, wenn zufällige Prozesse auftreten
Und
Nichtzufällige Funktionen hinzufügen
Und
dementsprechend ist das so
, wo bzw
Und

4. Nicht zufällige Multiplikatoren
kann als Korrelationszeichen herausgenommen werden, das heißt, wenn
und dann

5. Wenn
, Das.

6. Wenn zufällige Prozesse
Und
unkorreliert, dann ist die Korrelationsfunktion ihrer Summe gleich der Summe ihrer Korrelationsfunktionen, das heißt.

Um den Grad der Abhängigkeit der Querschnitte zweier s.p. zu beurteilen. auch benutzt normalisierte Kreuzkorrelationsfunktion
, definiert durch die Gleichheit:

Funktion
hat die gleichen Eigenschaften wie die Funktion
, aber Eigenschaft 2

wird durch die folgende doppelte Ungleichung ersetzt
, d.h. Der Modul der normalisierten Kreuzkorrelationsfunktion überschreitet nicht Eins.

Beispiel 5. Finden Sie die gegenseitige Korrelationsfunktion zweier r.p.
Und
, Wo
Zufallsvariable, während

Lösung. Als,.

Um die interne Struktur eines Zufallsprozesses einigermaßen zu charakterisieren, d.h. Um die Beziehung zwischen den Werten eines Zufallsprozesses zu verschiedenen Zeitpunkten zu berücksichtigen oder mit anderen Worten, um den Grad der Variabilität eines Zufallsprozesses zu berücksichtigen, führen Sie das Konzept der Korrelationsfunktion (Autokorrelation) ein zufälliger Prozess.

Die Korrelations- (oder Autokorrelations-)Funktion eines Zufallsprozesses ist eine nichtzufällige Funktion zweier Argumente, die für jedes Paar willkürlich gewählter Werte der Argumente (Zeitpunkte) gleich dem mathematischen Erwartungswert des Produkts zweier Zufallswerte ist Variablen entsprechende Abschnitte des Zufallsprozesses:

Korrelationsfunktion für die zentrierte Zufallskomponente heißt zentriert und wird aus der Relation bestimmt

(1.58)

Die Funktion wird oft als Kovarianz bezeichnet – Autokorrelation .

Je nachdem, wie sich ihre statistischen Eigenschaften im Laufe der Zeit ändern, werden verschiedene Zufallsprozesse unterteilt stationär Und instationär. Man unterscheidet zwischen Stationarität im engeren Sinne und Stationarität im weiteren Sinne.

Stationär im engeren Sinne ein sogenannter Zufallsprozess, wenn seine -dimensionalen Verteilungsfunktionen und Wahrscheinlichkeitsdichten für alle vorhanden sind nicht abhängig machen von der Startposition der Zeitmessung. Dies bedeutet, dass zwei Prozesse für jeden die gleichen statistischen Eigenschaften haben, d. h. die statistischen Eigenschaften eines stationären Zufallsprozesses sind über die Zeit konstant. Ein stationärer Zufallsprozess ist eine Art Analogon eines stationären Prozesses in dynamischen Systemen.

Stationär im weitesten Sinne ein sogenannter Zufallsprozess, deren mathematische Erwartung konstant ist:

und die Korrelationsfunktion hängt nur von einer Variablen ab – der Differenz zwischen den Argumenten:

Der Begriff eines im weitesten Sinne stationären Zufallsprozesses wird eingeführt, wenn nur der mathematische Erwartungswert und die Korrelationsfunktion als statistische Merkmale eines Zufallsprozesses verwendet werden. Der Teil der Theorie der Zufallsprozesse, der die Eigenschaften eines Zufallsprozesses durch seine mathematische Erwartungs- und Korrelationsfunktion beschreibt, wird aufgerufen Korrelationstheorie.

Für einen Zufallsprozess mit einem Normalverteilungsgesetz wird dieser vollständig durch die mathematische Erwartungs- und Korrelationsfunktion bestimmt N-dimensionale Wahrscheinlichkeitsdichte. Deshalb Für normale Zufallsprozesse stimmen die Konzepte der Stationarität im weiteren und im engeren Sinne überein.

Die Theorie stationärer Prozesse ist am weitesten entwickelt und ermöglicht relativ einfache Berechnungen für viele praktische Fälle. Daher ist es manchmal ratsam, die Annahme der Stationarität auch dann zu treffen, wenn der Zufallsprozess zwar instationär ist, die statistischen Eigenschaften der Signale jedoch während der betrachteten Betriebsdauer des Systems keine Zeit haben, sich zu ändern jede nennenswerte Weise.

In der Theorie zufälliger Prozesse werden zwei Konzepte von Durchschnittswerten verwendet. Das erste Konzept des Durchschnitts ist Durchschnitt festlegen (oder mathematische Erwartung), die auf der Grundlage der Beobachtung mehrerer Implementierungen eines Zufallsprozesses zum gleichen Zeitpunkt bestimmt wird. Normalerweise wird der Durchschnittswert über den Satz angegeben wellig Linieüber einen Ausdruck, der eine Zufallsfunktion beschreibt:

Im Allgemeinen ist der eingestellte Durchschnitt eine Funktion der Zeit.

Ein anderes Konzept des Durchschnitts ist Durchschnitt über die Zeit , die auf der Grundlage der Beobachtung einer separaten Implementierung eines Zufallsprozesses über einen ausreichend langen Zeitraum bestimmt wird. Der Zeitdurchschnitt wird mit bezeichnet gerade Linieüber dem entsprechenden Ausdruck der Zufallsfunktion und wird durch die Formel bestimmt

, (1.62)

wenn diese Grenze existiert.

Der Zeitdurchschnitt ist im Allgemeinen für einzelne Realisierungen der Menge, die den Zufallsprozess definiert, unterschiedlich.

Im Allgemeinen sind für denselben Zufallsprozess der Durchschnitt über die Menge und der Durchschnitt über die Zeit unterschiedlich, aber für den sogenannten ergodische stationäre Zufallsprozesse Der Durchschnittswert über die Menge stimmt mit dem Durchschnittswert über die Zeit überein:

Gemäß dem Ergodensatz für einen stationären Zufallsprozess kann die Korrelationsfunktion als zeitlicher Durchschnitt einer Implementierung definiert werden

(1.64)

Wo - jede Implementierung eines zufälligen Prozesses.

Zentrierte Korrelationsfunktion eines ergodischen stationären Zufallsprozesses

Aus Ausdruck (1.65) lässt sich Folgendes erkennen Die Varianz eines stationären Zufallsprozesses ist gleich dem Anfangswert der zentrierten Korrelationsfunktion:

Messfehler, die durch induzierte Interferenzen und Eigenrauschen elektronischer Geräte verursacht werden, werden mithilfe einer mathematischen Theorie namens „beschrieben. Theorie zufälliger Prozesse". Erinnern wir uns an die Grundkonzepte dieser Theorie, die wir in der weiteren Präsentation verwenden werden und die von GOST 8.009 [GOST] bei der Normalisierung der Zufallskomponente des Messfehlers verwendet werden.

,
.
.

Im Grenzfall, wenn die gegebenen Parameterschätzungen zu ihren wahren Werten tendieren. In den obigen Formeln werden die gleichen Notationen für die Schätzung von Parametern und die Parameter selbst verwendet, da wir im Folgenden nur Schätzungen verwenden, sofern nicht ausdrücklich etwas anderes angegeben ist.

Eine einzelne Implementierung eines Zufallsprozesses ist eine deterministische (nicht zufällige) Funktion, daher kann ihre spektrale Charakteristik mithilfe der Fourier-Transformation ermittelt werden:

Gemäß dieser Definition wird Rauschen in oder usw. gemessen. Beachten Sie, dass in der Theorie zufälliger Prozesse das Konzept der Leistung vom allgemein akzeptierten abweicht: Es wird davon ausgegangen, dass die Rauschenergie bei einem Widerstand von 1 Ohm freigesetzt wird, aber Die Dimension wird daher nicht anstelle der Leistungsdimension angegeben gebraucht , . Ebenso wird Energie nicht gemessen , und in .

Autokorrelationsfunktion und spektrale Leistungsdichte sind durch die Fourier-Transformation miteinander verknüpft ( Satz von Wiener-Khinchin[Baskakow]):

;
,

Liegt das Energiespektrum beispielsweise aufgrund der Verwendung eines Filters im Frequenzbereich von >0 bis , so können wir davon ausgehen, dass außerhalb des angegebenen Frequenzbereichs seine Werte gleich Null sind und wir dadurch die Werte ändern können Grenzen der Integration in (4.16):

.

Bei der Verwendung der Formeln (4.16) und (4.19) müssen wir bedenken, dass ein zweiseitiges Energiespektrum verwendet wird (symmetrisch relativ zum Ursprung der Ordinatenachse). Im Fall von einseitiges Spektrum , im Frequenzbereich angegeben, sollte der Koeffizient „2“ fehlen:

In ausländischen Referenzliteratur wird in Diagrammen der spektralen Rauschleistungsdichte von Transistoren, Operationsverstärkern usw. normalerweise die Quadratwurzel der spektralen Rauschleistungsdichte mit der Dimension usw. auf der Ordinatenachse aufgetragen , die Rauschspannung (Effektivwert) kann gefunden werden als

.

Für weißes Rauschen wird der vorherige Ausdruck vereinfacht:

.

Betrachten Sie die Summe zweier zufälliger Fehler und mit einer mathematischen Erwartung von Null (d. h. zentrierte Zufallsvariablen). Per Definition ist die Varianz der Summe zweier Zufallsvariablen gleich dem mathematischen Erwartungswert des Quadrats ihrer Summe:

= ,

wo und - Varianzoperatoren Und mathematische Erwartung ; , - Standardabweichungen Zufallsvariablen und . Größe

angerufen Kovarianz(„gemeinsame Variation“) von Zufallsvariablen und .

Die Kovarianz diskreter Zufallsvariablen kann aus ihrer geschätzt werden diskrete Werte Und unter Verwendung der arithmetischen Mittelformel:

.

Korrelationskoeffizient ist das Verhältnis der Kovarianz zum Produkt aus Standardabweichungen und Zufallsvariablen und:

.

Hier wird das „-“-Zeichen verwendet, wenn Zufallsvariablen subtrahiert werden, beispielsweise wenn die Spannungsdifferenz zweier Messkanäle ermittelt wird. In diesem Fall verringert das Vorhandensein einer Korrelation zwischen Kanälen teilweise den Differenzfehler.

Für den Fall, dass die Zufallsvariablen statistisch unabhängig sind (), wird der vorherige Ausdruck vereinfacht:

.

Diese Summation heißt geometrisch, da es auf ähnliche Weise funktioniert wie das Ermitteln der Hypotenuse eines rechtwinkligen Dreiecks.

Wenn der Korrelationskoeffizient ist, kann der Korrelationskoeffizient geschätzt werden als. Der Tangens der Geradensteigung wird Regressionskoeffizient genannt. Die Gleichung der Regressionsgeraden kann erhalten werden

Der statistische Zusammenhang zwischen den Fehlern von Messgeräten ist im Allgemeinen nichtlinear, diese Nichtlinearität wird jedoch normalerweise vernachlässigt.