Kreuzkorrelation

In der Signalanalyse wird die Kreuzkorrelationsfunktion R x y ( τ ) {\displaystyle R_{xy}(\tau )} zur Beschreibung der Korrelation zweier Signale x ( t ) {\displaystyle x(t)} und y ( t ) {\displaystyle y(t)} bei unterschiedlichen Zeitverschiebungen τ {\displaystyle \tau } zwischen den beiden Signalen eingesetzt. Kreuz steht hierbei für den Fall x y {\displaystyle x\neq y} der Funktion:

R x y ( t 1 , t 2 ) = E [ X ( t 1 ) Y ( t 2 ) ] , {\displaystyle R_{xy}(t_{1},t_{2})=E[{\textbf {X}}(t_{1})\cdot {\textbf {Y}}(t_{2})],}

wobei E der Erwartungswert ist.

Handelt es sich um einen schwach stationären Prozess, so ist die Korrelationsfunktion nicht mehr von der Wahl der Zeitpunkte t 1 {\displaystyle t_{1}} und t 2 {\displaystyle t_{2}} , sondern nur von deren Differenz τ = t 2 t 1 {\displaystyle \tau =t_{2}-t_{1}} abhängig.

Die Kreuzkorrelations-Operation ist identisch mit der komplex konjugierten Faltung f ( t ) ¯ {\displaystyle {\overline {f(-t)}}} . Insbesondere im Fachgebiet Maschinelles Lernen, wo man mit Convolutional Neural Networks arbeitet, wird aufgrund dieser Identität meistens die Kreuzkorrelation verwendet, diese aber als Faltung bezeichnet, weil sie leichter zu implementieren ist.[1][2]

Definition

Es gilt für Energiesignale:

R x y ( τ ) = ( x y ) ( τ ) = ( x ( t ) y ( t ) ) ( τ ) = x ( t ) y ( t + τ ) d t {\displaystyle R_{xy}(\tau )=(x\star y)(\tau )=(x^{*}(-t)*y(t))(\tau )=\int _{-\infty }^{\infty }x^{*}(t)\,y(t+\tau )\,\mathrm {d} t}

und für Leistungssignale:

R x y ( τ ) = ( x y ) ( τ ) = ( x ( t ) y ( t ) ) ( τ ) = lim T 1 2 T T T x ( t ) y ( t + τ ) d t {\displaystyle R_{xy}(\tau )=(x\star y)(\tau )=(x^{*}(-t)*y(t))(\tau )=\lim _{T\to \infty }{\frac {1}{2T}}\int _{-T}^{T}x^{*}(t)\,y(t+\tau )\,\mathrm {d} t}

mit x {\displaystyle x^{*}} als der konjugiert komplexen Funktion von x {\displaystyle x} , dem Operatorsymbol {\displaystyle \star } als Kurzschreibweise der Kreuzkorrelation und {\displaystyle *} als dem der Faltungsoperation.

Analog wird die diskrete Kreuzkorrelation, diese spielt im Bereich der diskreten Signalverarbeitung eine wesentliche Rolle, mit der Folge [ m ] {\displaystyle [m]} und einer Verschiebung n {\displaystyle n} festgelegt als:

R x y [ n ] {\displaystyle R_{xy}[n]} = ( x y ) [ n ] = m = x [ m ]   y [ m + n ] {\displaystyle (x\star y)[n]=\sum _{m=-\infty }^{\infty }x^{*}[m]\ y[m+n]} (Energiesignale)
R x y [ n ] {\displaystyle R_{xy}[n]} = ( x y ) [ n ] = lim M 1 2 M + 1 m = M M x [ m ]   y [ m + n ] {\displaystyle (x\star y)[n]=\lim _{M\to \infty }{\frac {1}{2M+1}}\sum _{m=-M}^{M}x^{*}[m]\ y[m+n]} (Leistungssignale)

In der digitalen Signalverarbeitung wiederum ist eine endliche Mittelung mit Argumenten beginnend bei Index 0 auf Grund der Architektur von Rechnerregistern erforderlich, wovon es eine vor- und eine unvorgespannte Version gibt:

R x y [ m ] := {   1 N | m | n = 0 N m 1 x [ n ] y [ n + m ] für  m 0   1 N | m | n = m N 1 x [ n ] y [ n + m ] für  m < 0 {\displaystyle R_{xy}[m]:={\begin{cases}\ \;\,{\frac {1}{N-|m|}}\sum _{n=0}^{N-m-1}x[n]y[n+m]&{\text{für }}m\geq 0\\\ \;\,{\frac {1}{N-|m|}}\sum _{n=-m}^{N-1}x[n]y[n+m]&{\text{für }}m<0\end{cases}}} (Vorspannversion)
R x y [ m ] := {   1 N n = 0 N m 1 x [ n ] y [ n + m ] für  m 0   1 N n = m N 1 x [ n ] y [ n + m ] für  m < 0 {\displaystyle R_{xy}[m]:={\begin{cases}\ \;\,{\frac {1}{N}}\sum _{n=0}^{N-m-1}x[n]y[n+m]&{\text{für }}m\geq 0\\\ \;\,{\frac {1}{N}}\sum _{n=-m}^{N-1}x[n]y[n+m]&{\text{für }}m<0\end{cases}}} (unvorgespannte Version)

Die Kreuzkorrelation ist mit der Kreuzkovarianz eng verwandt.

Eigenschaften

Zusammenhang zwischen Faltung, Kreuzkorrelation und Autokorrelation.

Für alle τ {\displaystyle \tau } gilt

R x y ( τ ) = R y x ( τ ) {\displaystyle R_{xy}(\tau )=R_{yx}(-\tau )}

sowie

| R x y ( τ ) | R x x ( 0 ) R y y ( 0 ) 1 2 ( R x x ( 0 ) + R y y ( 0 ) ) {\displaystyle \left|R_{xy}(\tau )\right|\leq {\sqrt {R_{xx}(0)R_{yy}(0)}}\leq {\frac {1}{2}}(R_{xx}(0)+R_{yy}(0))}

und

lim τ ± R x y ( τ ) = 0 {\displaystyle \lim \limits _{\tau \to \pm \infty }R_{xy}(\tau )=0}

mit den Autokorrelationsfunktionen R x x ( τ ) {\displaystyle R_{xx}(\tau )} und R y y ( τ ) {\displaystyle R_{yy}(\tau )} .

Sie zeigt z. B. Spitzen bei Zeitverschiebungen, die der Signallaufzeit vom Messort des Signals x ( t ) {\displaystyle x(t)} zum Messort des Signals y ( t ) {\displaystyle y(t)} entsprechen. Auch Laufzeitunterschiede von einer Signalquelle zu beiden Messorten können auf diese Weise festgestellt werden. Die Kreuzkorrelationsfunktion eignet sich daher besonders zur Ermittlung von Übertragungswegen und zur Ortung von Quellen.

Rechentechnisch wird die Kreuzkorrelationsfunktion in der Regel über die inverse Fourier-Transformation des Kreuzleistungsspektrums S X Y ( f ) {\displaystyle S_{XY}(f)} ermittelt:

R x y ( τ ) = S X Y ( f ) e i 2 π f τ d f {\displaystyle R_{xy}(\tau )=\int _{-\infty }^{\infty }S_{XY}(f)\,e^{\mathrm {i} 2\pi f\tau }\,\mathrm {d} f}

Verbindung mit der Kreuzkovarianz

Ist eines der Signale x ( t ) {\displaystyle x(t)} oder y ( t ) {\displaystyle y(t)} nullsymmetrisch, d. h. ihr Mittelwert über das Signal ist Null ( x ¯ ( t ) = 0 {\displaystyle ({\bar {x}}(t)=0} oder y ¯ ( t ) = 0 ) {\displaystyle {\bar {y}}(t)=0)} , ist die Kreuzkorrelation identisch mit der Kreuzkovarianz. Bekannte Vertreter der nullsymmetrischen Funktionen sind zum Beispiel die Sinus- und Kosinusfunktionen.

Literatur

  • Bernd Girod, Rudolf Rabenstein, Alexander Stenger: Einführung in die Systemtheorie. 4. Auflage. Teubner, Wiesbaden 2007, ISBN 978-3-8351-0176-0. 
  • Rüdiger Hoffmann: Signalanalyse und -erkennung. Springer, 1997, ISBN 3-540-63443-6. 

Weblinks

  • Kreuzkorrelation und Kombinatorik. (Memento vom 11. Juli 2012 im Internet Archive; PDF; 201 kB) mpi-magdeburg.mpg.de
  • Die Kreuzkorrelation. tu-freiberg.de; abgerufen am 16. Juli 2018.
  • Korrelationstechnik. uni-muenster.de; abgerufen am 16. Juli 2018.
  • Merkmalslistenbasierte Kreuzkorrelationsmethoden für die medizinische Bildverarbeitung. (PDF; 24 MB) db-thueringen.de; abgerufen am 16. Juli 2018.
  • Ansätze zur datengetriebenen Formulierung von Strukturhypothesen für dynamische Systeme. kit.edu; abgerufen am 15. Februar 2022.

Einzelnachweise

  1. Ian Goodfellow, Yoshua Bengio, Aaron Courville: Deep Learning. Hrsg.: MIT Press. S. 328–329 (deeplearningbook.org). 
  2. Conv2d. In: Dokumentation PyTorch. Abgerufen am 5. Februar 2021.