Kronecker-Produkt

Dieser Artikel behandelt das Kronecker-Produkt von Matrizen, für das Kronecker-Produkt von Kohomologie- und Homologie-Klassen siehe Kronecker-Paarung.

Das Kronecker-Produkt ist in der Mathematik ein spezielles Produkt zweier Matrizen beliebiger Größe. Das Ergebnis des Kronecker-Produkts ist eine große Matrix, die durch Betrachtung aller möglichen Produkte von Einträgen der beiden Ausgangsmatrizen entsteht. Es ist nach dem deutschen Mathematiker Leopold Kronecker benannt.

Definition

Ist A {\displaystyle A} eine m × n {\displaystyle m\times n} -Matrix und B {\displaystyle B} eine p × r {\displaystyle p\times r} -Matrix, so ist das Kronecker-Produkt C = A B {\displaystyle C=A\otimes B} definiert als

C = ( a i j B ) = ( a 11 B a 1 n B a m 1 B a m n B ) {\displaystyle C=(a_{ij}\cdot B)={\begin{pmatrix}a_{11}B&\cdots &a_{1n}B\\\vdots &\ddots &\vdots \\a_{m1}B&\cdots &a_{mn}B\end{pmatrix}}}

Explizit:

A B = ( a 11 b 11 a 11 b 12 a 11 b 1 r a 1 n b 11 a 1 n b 12 a 1 n b 1 r a 11 b 21 a 11 b 22 a 11 b 2 r a 1 n b 21 a 1 n b 22 a 1 n b 2 r a 11 b p 1 a 11 b p 2 a 11 b p r a 1 n b p 1 a 1 n b p 2 a 1 n b p r a m 1 b 11 a m 1 b 12 a m 1 b 1 r a m n b 11 a m n b 12 a m n b 1 r a m 1 b 21 a m 1 b 22 a m 1 b 2 r a m n b 21 a m n b 22 a m n b 2 r a m 1 b p 1 a m 1 b p 2 a m 1 b p r a m n b p 1 a m n b p 2 a m n b p r ) ( m p × n r ) {\displaystyle A\otimes B={\begin{pmatrix}a_{11}b_{11}&a_{11}b_{12}&\cdots &a_{11}b_{1r}&\cdots &\cdots &a_{1n}b_{11}&a_{1n}b_{12}&\cdots &a_{1n}b_{1r}\\a_{11}b_{21}&a_{11}b_{22}&\cdots &a_{11}b_{2r}&\cdots &\cdots &a_{1n}b_{21}&a_{1n}b_{22}&\cdots &a_{1n}b_{2r}\\\vdots &\vdots &\ddots &\vdots &&&\vdots &\vdots &\ddots &\vdots \\a_{11}b_{p1}&a_{11}b_{p2}&\cdots &a_{11}b_{pr}&\cdots &\cdots &a_{1n}b_{p1}&a_{1n}b_{p2}&\cdots &a_{1n}b_{pr}\\\vdots &\vdots &&\vdots &\ddots &&\vdots &\vdots &&\vdots \\\vdots &\vdots &&\vdots &&\ddots &\vdots &\vdots &&\vdots \\a_{m1}b_{11}&a_{m1}b_{12}&\cdots &a_{m1}b_{1r}&\cdots &\cdots &a_{mn}b_{11}&a_{mn}b_{12}&\cdots &a_{mn}b_{1r}\\a_{m1}b_{21}&a_{m1}b_{22}&\cdots &a_{m1}b_{2r}&\cdots &\cdots &a_{mn}b_{21}&a_{mn}b_{22}&\cdots &a_{mn}b_{2r}\\\vdots &\vdots &\ddots &\vdots &&&\vdots &\vdots &\ddots &\vdots \\a_{m1}b_{p1}&a_{m1}b_{p2}&\cdots &a_{m1}b_{pr}&\cdots &\cdots &a_{mn}b_{p1}&a_{mn}b_{p2}&\cdots &a_{mn}b_{pr}\end{pmatrix}}_{(mp\times nr)}} .

Das heißt, jedes Element der Matrix A {\displaystyle A} wird mit der Matrix B {\displaystyle B} multipliziert. Das Ergebnis ist also eine Matrix mit m p {\displaystyle m\cdot p} Zeilen und n r {\displaystyle n\cdot r} Spalten.

Beispiel

( 1 2 3 4 5 6 ) ( 7 8 9 0 ) = ( 1 ( 7 8 9 0 ) 2 ( 7 8 9 0 ) 3 ( 7 8 9 0 ) 4 ( 7 8 9 0 ) 5 ( 7 8 9 0 ) 6 ( 7 8 9 0 ) ) = ( 7 8 14 16 9 0 18 0 21 24 28 32 27 0 36 0 35 40 42 48 45 0 54 0 ) {\displaystyle {\begin{pmatrix}1&2\\3&4\\5&6\end{pmatrix}}\otimes {\begin{pmatrix}7&8\\9&0\end{pmatrix}}={\begin{pmatrix}1\cdot {\begin{pmatrix}7&8\\9&0\end{pmatrix}}&2\cdot {\begin{pmatrix}7&8\\9&0\end{pmatrix}}\\\\3\cdot {\begin{pmatrix}7&8\\9&0\end{pmatrix}}&4\cdot {\begin{pmatrix}7&8\\9&0\end{pmatrix}}\\\\5\cdot {\begin{pmatrix}7&8\\9&0\end{pmatrix}}&6\cdot {\begin{pmatrix}7&8\\9&0\end{pmatrix}}\end{pmatrix}}={\begin{pmatrix}7&8&\!\!\!&14&16\\9&0&\!\!\!&18&0\\[0.6em]21&24&\!\!\!&28&32\\27&0&\!\!\!&36&0\\[0.6em]35&40&\!\!\!&42&48\\45&0&\!\!\!&54&0\end{pmatrix}}}

Eigenschaften

Rechenregeln

Das Kronecker-Produkt ist nicht kommutativ, das heißt, im Allgemeinen gilt

A B B A {\displaystyle A\otimes B\neq B\otimes A} .

Es gibt jedoch Permutationsmatrizen P , Q {\displaystyle P,Q} so dass

A B = P ( B A ) Q {\displaystyle A\otimes B=P(B\otimes A)Q}

gilt. Sind dabei A {\displaystyle A} und B {\displaystyle B} quadratisch, so kann P = Q T {\displaystyle P=Q^{T}} gewählt werden.

Das Kronecker-Produkt ist assoziativ. Das heißt, es gilt

A ( B C ) = ( A B ) C {\displaystyle A\otimes (B\otimes C)=(A\otimes B)\otimes C} .

Symmetrien

Für die Transposition gilt

( A B ) T = A T B T {\displaystyle (A\otimes B)^{T}=A^{T}\otimes B^{T}} .

Für die konjugierte Matrix gilt

A B ¯ = A ¯ B ¯ {\displaystyle {\overline {A\otimes B}}={\overline {A}}\otimes {\overline {B}}} .

Für die adjungierte Matrix gilt

( A B ) = A B {\displaystyle (A\otimes B)^{*}=A^{*}\otimes B^{*}} .

Bezüge zu anderen Operationen

Das Kronecker-Produkt ist bilinear mit der Matrizenaddition, das heißt, es gilt

A ( B + C ) = A B + A C {\displaystyle A\otimes (B+C)=A\otimes B+A\otimes C} ,
( B + C ) A = B A + C A {\displaystyle (B+C)\otimes A=B\otimes A+C\otimes A}

und

λ ( A B ) = ( λ A ) B = A ( λ B ) {\displaystyle \lambda (A\otimes B)=(\lambda A)\otimes B=A\otimes (\lambda B)}

Sind die Matrizenprodukte A C {\displaystyle AC} und B D {\displaystyle BD} definiert, so gilt[1]

A C B D = ( A B ) ( C D ) {\displaystyle AC\otimes BD=(A\otimes B)(C\otimes D)} .

Kenngrößen

Sind A {\displaystyle A} und B {\displaystyle B} quadratische Matrizen, so gilt für die Spur

S p u r ( A B ) = S p u r ( A ) S p u r ( B ) {\displaystyle \mathrm {Spur} (A\otimes B)=\mathrm {Spur} (A)\cdot \mathrm {Spur} (B)} .

Für den Rang gilt

R a n g ( A B ) = R a n g ( A ) R a n g ( B ) {\displaystyle \mathrm {Rang} (A\otimes B)=\mathrm {Rang} (A)\cdot \mathrm {Rang} (B)} .

Ist A {\displaystyle A} eine n × n {\displaystyle n\times n} und B {\displaystyle B} eine m × m {\displaystyle m\times m} Matrix, so gilt für die Determinante

det ( A B ) = det m ( A ) det n ( B ) {\displaystyle \det(A\otimes B)={\det }^{m}(A)\,{\det }^{n}(B)} .

Sind ( λ i ) i = 1 , , n {\displaystyle (\lambda _{i})_{i=1,\dotsc ,n}\,} die Eigenwerte von A {\displaystyle A} und ( μ j ) j = 1 , , m {\displaystyle (\mu _{j})_{j=1,\dotsc ,m}\,} die Eigenwerte von B {\displaystyle B} , dann gilt:

( λ i μ j ) i = 1 , , n j = 1 , , m {\displaystyle (\lambda _{i}\,\mu _{j})_{i=1,\dotsc ,n \atop j=1,\dotsc ,m}} sind die Eigenwerte von A B {\displaystyle A\otimes B} .

Für die Spektralnorm gilt demnach

A B 2 = A 2 B 2 {\displaystyle \|A\otimes B\|_{2}=\|A\|_{2}\cdot \|B\|_{2}} .

Inverse

Sind A , B {\displaystyle A,B} invertierbar, so ist auch ( A B ) {\displaystyle (A\otimes B)} invertierbar mit Inverser

( A B ) 1 = A 1 B 1 {\displaystyle (A\otimes B)^{-1}=A^{-1}\otimes B^{-1}} .

Für die Moore-Penrose-Inverse gilt außerdem

( A B ) + = A + B + {\displaystyle (A\otimes B)^{+}=A^{+}\otimes B^{+}} .

Allgemeiner gilt: Sind A {\displaystyle A^{-}} und B {\displaystyle B^{-}} verallgemeinerte Inversen von A {\displaystyle A} und B {\displaystyle B} , so ist A B {\displaystyle A^{-}\otimes B^{-}} eine verallgemeinerte Inverse von A B {\displaystyle A\otimes B} .

Matrixgleichung

Es seien die Matrizen A Mat ( k × ) , B M a t ( m × n ) , C M a t ( k × n ) {\displaystyle A\in \operatorname {Mat} (k\times \ell ),\,B\in \mathrm {Mat} (m\times n),\,C\in \mathrm {Mat} (k\times n)} gegeben und eine Matrix X Mat ( × m ) {\displaystyle X\in \operatorname {Mat} (\ell \times m)} gesucht, so dass A X B = C {\displaystyle AXB=C\,} gilt. Dann gilt folgende Äquivalenz:

A X B = C ( B T A ) vec ( X ) = vec ( C ) {\displaystyle AXB=C\iff (B^{T}\otimes A)\,\operatorname {vec} (X)=\operatorname {vec} (C)} .

Hierbei steht vec {\displaystyle \operatorname {vec} } für die spaltenweise Vektorisierung einer Matrix zu einem Spaltenvektor: Sind x 1 , , x m {\displaystyle {\vec {x}}_{1},\dotsc ,{\vec {x}}_{m}} die Spalten der Matrix X Mat ( × m ) {\displaystyle X\in \operatorname {Mat} (\ell \times m)} , so ist

vec ( X ) = ( x 1 x m ) {\displaystyle \operatorname {vec} (X)={\begin{pmatrix}{\vec {x}}_{1}\\\vdots \\{\vec {x}}_{m}\end{pmatrix}}}

ein Spaltenvektor der Länge m {\displaystyle \ell \cdot m} . Analog ist vec ( C ) {\displaystyle \operatorname {vec} (C)} ein Spaltenvektor der Länge k n {\displaystyle k\cdot n} .

Hat man den Vektor vec ( X ) {\displaystyle \operatorname {vec} (X)} ermittelt, so ergibt sich daraus unmittelbar die zugehörige isomorphe Matrix X M a t ( × m ) {\displaystyle X\in \mathrm {Mat} (\ell \times m)} .

Beweis der Äquivalenz

Es ist A X B = C A X ( b 1 , , b n ) = ( c 1 , , c n ) A X b i = c i ( A X b 1 A X b n ) = vec ( C ) {\displaystyle AXB=C\iff AX\left({\vec {b}}_{1},\dotsc ,{\vec {b}}_{n}\right)=\left({\vec {c}}_{1},\dotsc ,{\vec {c}}_{n}\right)\iff AX{\vec {b_{i}}}={\vec {c_{i}}}\iff {\begin{pmatrix}AX{\vec {b}}_{1}\\\vdots \\AX{\vec {b}}_{n}\end{pmatrix}}=\operatorname {vec} (C)} .

Dabei ist ( A ( x 1 , , x m ) b 1 A ( x 1 , , x m ) b n ) = ( A ( b 11 x 1 + + b m 1 x m ) A ( b 1 n x 1 + + b m n x m ) ) = ( A b 11 A b m 1 A b 1 n A b m n ) ( x 1 x m ) = ( B T A ) vec ( X ) {\displaystyle {\begin{pmatrix}A({\vec {x}}_{1},\dotsc ,{\vec {x}}_{m}){\vec {b}}_{1}\\\vdots \\A({\vec {x}}_{1},\dotsc ,{\vec {x}}_{m}){\vec {b}}_{n}\end{pmatrix}}={\begin{pmatrix}A(b_{11}{\vec {x}}_{1}+\dotsc +b_{m1}{\vec {x}}_{m})\\\vdots \\A(b_{1n}{\vec {x}}_{1}+\dotsc +b_{mn}{\vec {x}}_{m})\end{pmatrix}}={\begin{pmatrix}A\,b_{11}&\cdots &A\,b_{m1}\\\vdots &\ddots &\vdots \\A\,b_{1n}&\cdots &A\,b_{mn}\end{pmatrix}}{\begin{pmatrix}{\vec {x}}_{1}\\\vdots \\{\vec {x}}_{m}\end{pmatrix}}=(B^{T}\otimes A)\,\operatorname {vec} (X)} .

Gleichungssystem mit Matrixkoeffizienten

Für i = 1 , . . . , r {\displaystyle i=1,...,r\,} und j = 1 , . . . , s {\displaystyle j=1,...,s\,} seien die Matrizen A i j M a t ( k × ) , B i j M a t ( m × n ) , C i M a t ( k × n ) {\displaystyle A_{ij}\in \mathrm {Mat} (k\times \ell ),\,B_{ij}\in \mathrm {Mat} (m\times n),\,C_{i}\in \mathrm {Mat} (k\times n)} gegeben.

Gesucht sind die Matrizen X i M a t ( × m ) {\displaystyle X_{i}\in \mathrm {Mat} (\ell \times m)} , welche das Gleichungssystem

[ A 11 X 1 B 11 + . . . + A 1 s X s B 1 s = C 1 A r 1 X 1 B r 1 + . . . + A r s X s B r s = C r ] {\displaystyle {\begin{bmatrix}A_{11}X_{1}B_{11}+...+A_{1s}X_{s}B_{1s}&=&C_{1}\\&\vdots &\\A_{r1}X_{1}B_{r1}+...+A_{rs}X_{s}B_{rs}&=&C_{r}\\\end{bmatrix}}}

lösen. Diese Aufgabenstellung ist äquivalent zum Lösen des Gleichungssystems

( B 11 T A 11 B 1 s T A 1 s B r 1 T A r 1 B r s T A r s ) ( vec X 1 vec X s ) = ( vec C 1 vec C r ) {\displaystyle {\begin{pmatrix}B_{11}^{T}\otimes A_{11}&\cdots &B_{1s}^{T}\otimes A_{1s}\\\vdots &\ddots &\vdots \\B_{r1}^{T}\otimes A_{r1}&\cdots &B_{rs}^{T}\otimes A_{rs}\\\end{pmatrix}}{\begin{pmatrix}\operatorname {vec} \,X_{1}\\\vdots \\\operatorname {vec} \,X_{s}\end{pmatrix}}={\begin{pmatrix}\operatorname {vec} \,C_{1}\\\vdots \\\operatorname {vec} \,C_{r}\end{pmatrix}}}

Weitere Anwendungen

Das Kronecker-Produkt wird beispielsweise in verallgemeinerten linearen Regressionsmodellen verwendet, um eine Kovarianzmatrix von korrelierten Störgrößen zu konstruieren (z. B. die Kovarianzmatrix bei scheinbar unverbundenen Regressionsgleichungen, siehe Kovarianzmatrix#Kovarianzmatrix bei scheinbar unverbundenen Regressionsgleichungen). Man erhält hier etwa eine blockdiagonale Zellnermatrix.

Zudem braucht man das Kronecker-Produkt in der Quantenmechanik, um Systeme mit mehreren Teilchen, die ein beidseitig beschränktes Spektrum besitzen, zu beschreiben. Zustände mehrerer Teilchen sind dann Kroneckerprodukte der Einteilchenzustände. Im Falle eines unbeschränkten Spektrums bleibt nur die algebraische Struktur eines Kronecker-Produktes erhalten, da dann keine Darstellung durch Matrizen existiert.

Zusammenhang mit Tensorprodukten

Gegeben seien zwei lineare Abbildungen φ 1 : V 1 W 1 {\displaystyle \varphi _{1}\colon V_{1}\longrightarrow W_{1}} und φ 2 : V 2 W 2 {\displaystyle \varphi _{2}\colon V_{2}\longrightarrow W_{2}} zwischen endlichdimensionalen Vektorräumen. Dann gibt es immer genau eine lineare Abbildung

φ 1 φ 2 : V 1 V 2 W 1 W 2 {\displaystyle \varphi _{1}\otimes \varphi _{2}\colon V_{1}\otimes V_{2}\longrightarrow W_{1}\otimes W_{2}}

zwischen den Tensorprodukten mit

[ φ 1 φ 2 ] ( v 1 v 2 ) = φ 1 ( v 1 ) φ 2 ( v 2 ) {\displaystyle [\varphi _{1}\otimes \varphi _{2}](v_{1}\otimes v_{2})=\varphi _{1}(v_{1})\otimes \varphi _{2}(v_{2})} .

Wenn wir auf den Vektorräumen V 1 , W 1 , V 2 {\displaystyle V_{1},W_{1},V_{2}} und W 2 {\displaystyle W_{2}} je eine Basis auswählen, so können wir der Abbildung φ 1 {\displaystyle \varphi _{1}} ihre Darstellungsmatrix A {\displaystyle A} zuordnen. Es sei B {\displaystyle B} die Darstellungsmatrix von φ 2 {\displaystyle \varphi _{2}} .

Das Kronecker-Produkt A B {\displaystyle A\otimes B} der Darstellungsmatrizen entspricht nun genau der Darstellungsmatrix der tensorierten Abbildung φ 1 φ 2 {\displaystyle \varphi _{1}\otimes \varphi _{2}} , wenn man auf V 1 V 2 {\displaystyle V_{1}\otimes V_{2}} und W 1 W 2 {\displaystyle W_{1}\otimes W_{2}} die Basis zugrunde legt, welche sich aus den lexikographisch angeordneten Paaren von Basisvektoren der am Tensorprodukt beteiligten Vektorräume ergibt: Sind ( e 1 , e 2 , , e n ) {\displaystyle (e_{1},e_{2},\ldots ,e_{n})} die ausgewählte Basis von V 1 {\displaystyle V_{1}} und ( f 1 , f 2 , , f p ) {\displaystyle (f_{1},f_{2},\ldots ,f_{p})} die Basis von V 2 {\displaystyle V_{2}} , so nehmen wir

( e 1 f 1 , e 1 f 2 , , e 1 f p , e 2 f 1 , , e n f p 1 , e n f p ) {\displaystyle (e_{1}\otimes f_{1},e_{1}\otimes f_{2},\ldots ,e_{1}\otimes f_{p},e_{2}\otimes f_{1},\ldots ,e_{n}\otimes f_{p-1},e_{n}\otimes f_{p})}

als Basis für das Tensorprodukt V 1 V 2 {\displaystyle V_{1}\otimes V_{2}} . Analog für W 1 W 2 {\displaystyle W_{1}\otimes W_{2}} .

Historisches

Das Kronecker-Produkt ist nach Leopold Kronecker benannt, obwohl Georg Zehfuss die Definition des Produktes schon 1858 leistete, weshalb das Kronecker-Produkt manchmal auch Zehfuss-Produkt genannt wird.[2]

  • MathWorld: Matrix Direct Product
  • Earliest Uses: Kronecker, Zehfuss or Direct Product of matrices.
  • Charles F. Van Loan: The ubiquitous Kronecker product. Journal of Computational and Applied Mathematics 123 (2000) S. 85–100 (online PDF-Datei)

Quellen

  1. Willi Hans Steeb: Kronecker Product of Matrices and Applications. BI-Wiss. Verlag, 1991, ISBN 3-411-14811-X, S. 16
  2. Walter Strobl, "Georg Zehfuss: Sein Leben und seine Werke", online