Inverse Matrix 2 Lösungsmöglichkeiten. Finden der inversen Matrix: drei Algorithmen und Beispiele. Lösen von Matrixgleichungen

In vielen Eigenschaften ähnlich wie umgekehrt.

Enzyklopädisches YouTube

    1 / 5

    ✪ So finden Sie die Umkehrung einer Matrix – bezbotvy

    ✪ Inverse Matrix (2 Möglichkeiten zu finden)

    ✪ Inverse Matrix #1

    ✪ 28.01.2015. Inverse 3x3-Matrix

    ✪ 27.01.2015. Inverse Matrix 2x2

    Untertitel

Eigenschaften einer inversen Matrix

  • det A − 1 = 1 det A (\displaystyle \det A^(-1)=(\frac (1)(\det A)}), Wo det (\displaystyle \\det ) bezeichnet die Determinante.
  • (A B) − 1 = B − 1 A − 1 (\displaystyle \ (AB)^(-1)=B^(-1)A^(-1)) für zwei quadratische invertierbare Matrizen A (\displaystyle A) Und B (\displaystyle B).
  • (A T) − 1 = (A − 1) T (\displaystyle \ (A^(T))^(-1)=(A^(-1))^(T)), Wo (. . .) T (\displaystyle (...)^(T)) bezeichnet eine transponierte Matrix.
  • (k A) − 1 = k − 1 A − 1 (\displaystyle \ (kA)^(-1)=k^(-1)A^(-1)) für jeden Koeffizienten k ≠ 0 (\displaystyle k\not =0).
  • E − 1 = E (\displaystyle \E^(-1)=E).
  • Wenn es notwendig ist, ein System linearer Gleichungen zu lösen, (b ist ein Vektor ungleich Null), wobei x (\displaystyle x) ist der gewünschte Vektor und wenn A − 1 (\displaystyle A^(-1)) existiert also x = A − 1 b (\displaystyle x=A^(-1)b). IN ansonsten oder die Dimension des Lösungsraums Über Null, oder sie sind überhaupt nicht da.

Methoden zum Finden der inversen Matrix

Wenn die Matrix invertierbar ist, können Sie zum Ermitteln der inversen Matrix eine der folgenden Methoden verwenden:

Exakte (direkte) Methoden

Gauß-Jordan-Methode

Nehmen wir zwei Matrizen: die A und Single E. Lassen Sie uns die Matrix präsentieren A zur Identitätsmatrix mithilfe der Gauß-Jordan-Methode, indem Transformationen entlang der Zeilen angewendet werden (Sie können Transformationen auch entlang der Spalten anwenden, jedoch nicht gemischt). Nachdem Sie jede Operation auf die erste Matrix angewendet haben, wenden Sie dieselbe Operation auf die zweite an. Wenn die Reduktion der ersten Matrix auf die Einheitsform abgeschlossen ist, ist die zweite Matrix gleich A−1.

Bei Verwendung der Gaußschen Methode wird die erste Matrix links mit einer der Elementarmatrizen multipliziert Λ ich (\displaystyle \Lambda _(i))(Transvektions- oder Diagonalmatrix mit Einsen auf der Hauptdiagonale, bis auf eine Position):

Λ 1 ⋅ ⋯ ⋅ Λ n ⋅ A = Λ A = E ⇒ Λ = A − 1 (\displaystyle \Lambda _(1)\cdot \dots \cdot \Lambda _(n)\cdot A=\Lambda A=E \Rightarrow \Lambda =A^(-1)). Λ m = [ 1 … 0 − a 1 m / a m m 0 … 0 … 0 … 1 − a m − 1 m / a m m 0 … 0 0 … 0 1 / a m m 0 … 0 0 … 0 − a m + 1 m / a m m 1 … 0 … 0 … 0 − a n m / a m m 0 … 1 ] (\displaystyle \Lambda _(m)=(\begin(bmatrix)1&\dots &0&-a_(1m)/a_(mm)&0&\dots &0\\ &&&\dots &&&\\0&\dots &1&-a_(m-1m)/a_(mm)&0&\dots &0\\0&\dots &0&1/a_(mm)&0&\dots &0\\0&\dots &0&-a_( m+1m)/a_(mm)&1&\dots &0\\&&&\dots &&&\\0&\dots &0&-a_(nm)/a_(mm)&0&\dots &1\end(bmatrix))).

Die zweite Matrix nach Anwendung aller Operationen ist gleich Λ (\displaystyle \Lambda), das heißt, es wird das gewünschte sein. Komplexität des Algorithmus - O (n 3) (\displaystyle O(n^(3))).

Verwendung der algebraischen Komplementmatrix

Matrixinverse der Matrix A (\displaystyle A), kann in der Form dargestellt werden

A − 1 = adj (A) det (A) (\displaystyle (A)^(-1)=(((\mbox(adj))(A)) \over (\det(A))))

Wo adj (A) (\displaystyle (\mbox(adj))(A))- adjungierte Matrix;

Die Komplexität des Algorithmus hängt von der Komplexität des Algorithmus zur Berechnung der Determinante O det ab und ist gleich O(n²)·O det.

Verwendung der LU/LUP-Zerlegung

Matrixgleichung A X = I n (\displaystyle AX=I_(n)) für die inverse Matrix X (\displaystyle X) kann als Sammlung betrachtet werden n (\displaystyle n) Systeme der Form A x = b (\displaystyle Ax=b). Bezeichnen wir ich (\displaystyle i) Spalte der Matrix X (\displaystyle X) durch X. ich (\displaystyle X_(i)); Dann EIN X. ich = e ich (\displaystyle AX_(i)=e_(i)), i = 1 , … , n (\displaystyle i=1,\ldots ,n),weil das ich (\displaystyle i) Spalte der Matrix ich n (\displaystyle I_(n)) ist der Einheitsvektor e i (\displaystyle e_(i)). Mit anderen Worten: Um die inverse Matrix zu finden, müssen n Gleichungen mit derselben Matrix und unterschiedlichen rechten Seiten gelöst werden. Nach der Durchführung der LUP-Zerlegung (O(n³)-Zeit) dauert das Lösen jeder der n Gleichungen O(n²)-Zeit, sodass dieser Teil der Arbeit auch O(n³)-Zeit erfordert.

Wenn die Matrix A nicht singulär ist, kann für sie die LUP-Zerlegung berechnet werden P A = L U (\displaystyle PA=LU). Lassen P A = B (\displaystyle PA=B), B − 1 = D (\displaystyle B^(-1)=D). Aus den Eigenschaften der inversen Matrix können wir dann schreiben: D = U − 1 L − 1 (\displaystyle D=U^(-1)L^(-1)). Wenn Sie diese Gleichheit mit U und L multiplizieren, erhalten Sie zwei Gleichheiten der Form U D = L − 1 (\displaystyle UD=L^(-1)) Und D L = U − 1 (\displaystyle DL=U^(-1)). Die erste dieser Gleichungen stellt ein System von n² dar lineare Gleichungen Für n (n + 1) 2 (\displaystyle (\frac (n(n+1))(2))) deren rechte Seiten bekannt sind (aus den Eigenschaften). Dreiecksmatrizen). Das zweite stellt ebenfalls ein System von n² linearen Gleichungen dar n (n − 1) 2 (\displaystyle (\frac (n(n-1))(2))) woraus die rechten Seiten bekannt sind (auch aus den Eigenschaften von Dreiecksmatrizen). Zusammen stellen sie ein System von n²-Gleichheiten dar. Mithilfe dieser Gleichungen können wir alle n² Elemente der Matrix D rekursiv bestimmen. Aus der Gleichheit (PA) −1 = A −1 P −1 = B −1 = D erhalten wir dann die Gleichheit A − 1 = D P (\displaystyle A^(-1)=DP).

Bei Verwendung der LU-Zerlegung ist keine Permutation der Spalten der Matrix D erforderlich, aber die Lösung kann auch dann divergieren, wenn die Matrix A nicht singulär ist.

Die Komplexität des Algorithmus beträgt O(n³).

Iterative Methoden

Schultz-Methoden

( Ψ k = E − A U k , U k + 1 = U k ∑ i = 0 n Ψ k i (\displaystyle (\begin(cases)\Psi _(k)=E-AU_(k),\\U_( k+1)=U_(k)\sum _(i=0)^(n)\Psi _(k)^(i)\end(cases)))

Fehlerschätzung

Auswählen einer anfänglichen Näherung

Problem der Wahl erste Annäherung in den hier betrachteten Prozessen der iterativen Inversion von Matrizen erlaubt es uns nicht, sie als unabhängig zu behandeln universelle Methoden und konkurriert mit direkten Inversionsmethoden, die beispielsweise auf der LU-Zerlegung von Matrizen basieren. Es gibt einige Empfehlungen zur Auswahl U 0 (\displaystyle U_(0)), um die Erfüllung der Bedingung sicherzustellen ρ (Ψ 0) < 1 {\displaystyle \rho (\Psi _{0})<1} (Spektralradius der Matrix ist kleiner als Eins), was für die Konvergenz des Prozesses notwendig und ausreichend ist. In diesem Fall ist es jedoch zunächst erforderlich, die Schätzung für das Spektrum der invertierbaren Matrix A oder der Matrix von oben zu kennen EIN EIN T (\displaystyle AA^(T))(nämlich, wenn A eine symmetrische positiv definite Matrix ist und ρ (A) ≤ β (\displaystyle \rho (A)\leq \beta), dann kannst du nehmen U 0 = α E (\displaystyle U_(0)=(\alpha )E), Wo ; wenn A eine beliebige nicht singuläre Matrix ist und ρ (A A T) ≤ β (\displaystyle \rho (AA^(T))\leq \beta), dann glauben sie U 0 = α A T (\displaystyle U_(0)=(\alpha )A^(T)), wo auch α ∈ (0 , 2 β) (\displaystyle \alpha \in \left(0,(\frac (2)(\beta ))\right)); Sie können die Situation natürlich vereinfachen und dies ausnutzen ρ (A A T) ≤ k A A T k (\displaystyle \rho (AA^(T))\leq (\mathcal (k))AA^(T)(\mathcal (k))), setzen U 0 = A T ‖ A A T ‖ (\displaystyle U_(0)=(\frac (A^(T))(\|AA^(T)\|)))). Zweitens gibt es bei der Angabe der Anfangsmatrix auf diese Weise keine Garantie dafür ‖ Ψ 0 ‖ (\displaystyle \|\Psi _(0)\|) wird klein sein (vielleicht wird es sogar so sein). ‖ Ψ 0 ‖ > 1 (\displaystyle \|\Psi _(0)\|>1)), Und hoher Auftrag Die Geschwindigkeit der Konvergenz wird nicht sofort bekannt gegeben.

Beispiele

Matrix 2x2

A − 1 = [ a b c d ] − 1 = 1 det (A) [ d − b − c a ] = 1 a d − b c [ d − b − c a ] . (\displaystyle \mathbf (A) ^(-1)=(\begin(bmatrix)a&b\\c&d\\\end(bmatrix))^(-1)=(\frac (1)(\det(\mathbf (A))))(\begin(bmatrix)\,\,\,d&\!\!-b\\-c&\,a\\\end(bmatrix))=(\frac (1)(ad- bc))(\begin(bmatrix)\,\,\,d&\!\!-b\\-c&\,a\\\end(bmatrix)).)

Die Inversion einer 2x2-Matrix ist nur unter der Bedingung möglich, dass a d − b c = det A ≠ 0 (\displaystyle ad-bc=\det A\neq 0).

Es sei eine quadratische Matrix n-ter Ordnung

Matrix A -1 wird aufgerufen inverse Matrix in Bezug auf Matrix A, wenn A*A -1 = E, wobei E ist Identitätsmatrix n-te Ordnung.

Identitätsmatrix- eine solche quadratische Matrix, in der alle Elemente entlang der Hauptdiagonale liegen, die von der oberen linken Ecke nach rechts verläuft untere Ecke, sind Einsen und der Rest sind Nullen, zum Beispiel:

inverse Matrix kann existieren nur für quadratische Matrizen diese. für diejenigen Matrizen, bei denen die Anzahl der Zeilen und Spalten übereinstimmt.

Satz für die Existenzbedingung einer inversen Matrix

Damit eine Matrix eine inverse Matrix hat, ist es notwendig und ausreichend, dass sie nicht singulär ist.

Die Matrix A = (A1, A2,...A n) wird aufgerufen nicht entartet, wenn die Spaltenvektoren linear unabhängig sind. Die Anzahl der linear unabhängigen Spaltenvektoren einer Matrix wird als Rang der Matrix bezeichnet. Daher können wir sagen, dass es für die Existenz einer inversen Matrix notwendig und ausreichend ist, dass der Rang der Matrix gleich ihrer Dimension ist, d.h. r = n.

Algorithmus zum Finden der inversen Matrix

  1. Schreiben Sie die Matrix A in die Tabelle zur Lösung von Gleichungssystemen nach der Gaußschen Methode und weisen Sie ihr rechts (anstelle der rechten Seite der Gleichungen) die Matrix E zu.
  2. Reduzieren Sie Matrix A mithilfe von Jordan-Transformationen auf eine Matrix, die aus Einheitsspalten besteht. In diesem Fall ist es notwendig, gleichzeitig die Matrix E zu transformieren.
  3. Ordnen Sie bei Bedarf die Zeilen (Gleichungen) der letzten Tabelle neu an, sodass Sie unter der Matrix A der Originaltabelle die Identitätsmatrix E erhalten.
  4. Schreiben Sie die inverse Matrix A -1 auf, die in ist letzter Tisch unter Matrix E der Originaltabelle.
Beispiel 1

Finden Sie für Matrix A die inverse Matrix A -1

Lösung: Wir schreiben Matrix A und weisen rechts die Identitätsmatrix E zu. Mithilfe von Jordan-Transformationen reduzieren wir Matrix A auf die Identitätsmatrix E. Die Berechnungen sind in Tabelle 31.1 angegeben.

Überprüfen wir die Richtigkeit der Berechnungen, indem wir die ursprüngliche Matrix A und die inverse Matrix A -1 multiplizieren.

Als Ergebnis der Matrixmultiplikation wurde die Identitätsmatrix erhalten. Daher wurden die Berechnungen korrekt durchgeführt.

Antwort:

Lösen von Matrixgleichungen

Matrixgleichungen können wie folgt aussehen:

AX = B, HA = B, AXB = C,

wobei A, B, C die angegebenen Matrizen sind, X die gewünschte Matrix ist.

Matrixgleichungen werden durch Multiplikation der Gleichung mit inversen Matrizen gelöst.

Um beispielsweise die Matrix aus der Gleichung zu ermitteln, müssen Sie diese Gleichung links mit multiplizieren.

Um eine Lösung der Gleichung zu finden, müssen Sie daher die inverse Matrix finden und sie mit der Matrix auf der rechten Seite der Gleichung multiplizieren.

Andere Gleichungen werden auf ähnliche Weise gelöst.

Beispiel 2

Lösen Sie die Gleichung AX = B, wenn

Lösung: Da die inverse Matrix gleich ist (siehe Beispiel 1)

Matrixmethode in der Wirtschaftsanalyse

Sie werden unter anderem auch verwendet Matrixmethoden. Diese Methoden basieren auf linearer Algebra und Vektor-Matrix-Algebra. Solche Methoden werden zur Analyse komplexer und mehrdimensionaler Prozesse eingesetzt Wirtschaftsphänomene. Am häufigsten werden diese Methoden verwendet, wenn eine vergleichende Bewertung der Funktionsweise von Organisationen und ihrer Struktureinheiten erforderlich ist.

Bei der Anwendung von Matrixanalysemethoden lassen sich mehrere Phasen unterscheiden.

In der ersten Phase Das System entsteht Ökonomische Indikatoren und auf dieser Grundlage wird eine Quelldatenmatrix erstellt, bei der es sich um eine Tabelle handelt, in der Systemnummern in den einzelnen Zeilen angezeigt werden (i = 1,2,....,n) und in vertikalen Spalten - Anzahl der Indikatoren (j = 1,2,....,m).

In der zweiten Phase Für jede vertikale Spalte wird der größte der verfügbaren Indikatorwerte identifiziert, der als eins genommen wird.

Danach werden alle in dieser Spalte angezeigten Beträge durch dividiert Höchster Wert und eine Matrix standardisierter Koeffizienten wird gebildet.

In der dritten Stufe Alle Komponenten der Matrix sind quadriert. Bei unterschiedlicher Bedeutung wird jedem Matrixindikator ein bestimmter Gewichtskoeffizient zugeordnet k. Der Wert des letzteren wird durch ein Gutachten ermittelt.

Beim letzten, vierte Stufe Bewertungswerte gefunden Rj werden in der Reihenfolge ihrer Zunahme oder Abnahme gruppiert.

Die beschriebenen Matrixmethoden sollten zum Beispiel dann zum Einsatz kommen, wenn vergleichende Analyse verschieden Investitionsprojekte sowie bei der Bewertung anderer Wirtschaftsindikatoren von Organisationen.

Dieses Thema ist eines der am meisten gehassten unter Studenten. Noch schlimmer sind wahrscheinlich die Qualifikanten.

Der Trick besteht darin, dass uns das Konzept eines inversen Elements (und ich spreche nicht nur von Matrizen) auf die Operation der Multiplikation verweist. Selbst in Lehrplan Die Multiplikation gilt als komplexe Operation und die Matrixmultiplikation im Allgemeinen separates Thema, dem ich einen ganzen Absatz und ein Video-Tutorial gewidmet habe.

Auf die Details der Matrixberechnungen gehen wir heute nicht ein. Erinnern wir uns einfach daran: wie Matrizen bezeichnet werden, wie sie multipliziert werden und was daraus folgt.

Rezension: Matrixmultiplikation

Lassen Sie uns zunächst die Notation vereinbaren. Eine Matrix $A$ der Größe $\left[ m\times n \right]$ ist einfach eine Zahlentabelle mit genau $m$ Zeilen und $n$ Spalten:

\=\underbrace(\left[ \begin(matrix) ((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) \\ (( a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) \\ ... & ... & ... & ... \\ ((a)_(m1)) & ((a)_(m2)) & ... & ((a)_(mn)) \\\end(matrix) \right])_(n)\]

Um zu vermeiden, dass Zeilen und Spalten versehentlich verwechselt werden (glauben Sie mir, in einer Prüfung kann man eine Eins mit einer Zwei verwechseln, geschweige denn einige Zeilen), schauen Sie sich einfach das Bild an:

Bestimmung von Indizes für Matrixzellen

Was ist los? Wenn Sie das Standardkoordinatensystem $OXY$ links platzieren obere Ecke und die Achsen so ausrichten, dass sie die gesamte Matrix abdecken, dann kann jede Zelle dieser Matrix eindeutig den Koordinaten $\left(x;y\right)$ zugeordnet werden – dies sind die Zeilennummer und die Spaltennummer.

Warum ist das Koordinatensystem in der oberen linken Ecke platziert? Ja, denn von dort aus beginnen wir, Texte zu lesen. Es ist sehr leicht zu merken.

Warum ist die $x$-Achse nach unten und nicht nach rechts gerichtet? Auch hier ist es einfach: Nehmen Sie ein Standardkoordinatensystem (die $x$-Achse geht nach rechts, die $y$-Achse geht nach oben) und drehen Sie es so, dass es die Matrix abdeckt. Das ist eine Drehung um 90 Grad im Uhrzeigersinn – das Ergebnis sehen wir im Bild.

Im Allgemeinen haben wir herausgefunden, wie man die Indizes von Matrixelementen bestimmt. Schauen wir uns nun die Multiplikation an.

Definition. Matrizen $A=\left[ m\times n \right]$ und $B=\left[ n\times k \right]$, wenn die Anzahl der Spalten in der ersten mit der Anzahl der Zeilen in der zweiten übereinstimmt, sind als konsistent bezeichnet.

Genau in dieser Reihenfolge. Man kann verwirrt sein und sagen, dass die Matrizen $A$ und $B$ ein geordnetes Paar $\left(A;B \right)$ bilden: Wenn sie in dieser Reihenfolge konsistent sind, dann ist es überhaupt nicht notwendig, dass $B $ und $A$ diese. das Paar $\left(B;A \right)$ ist ebenfalls konsistent.

Nur übereinstimmende Matrizen können multipliziert werden.

Definition. Das Produkt der übereinstimmenden Matrizen $A=\left[ m\times n \right]$ und $B=\left[ n\times k \right]$ ist die neue Matrix $C=\left[ m\times k \right ]$ , dessen Elemente $((c)_(ij))$ nach der Formel berechnet werden:

\[((c)_(ij))=\sum\limits_(k=1)^(n)(((a)_(ik)))\cdot ((b)_(kj))\]

Mit anderen Worten: Um das Element $((c)_(ij))$ der Matrix $C=A\cdot B$ zu erhalten, müssen Sie die $i$-Zeile der ersten Matrix, die $j$, nehmen -te Spalte der zweiten Matrix und multiplizieren Sie dann paarweise Elemente aus dieser Zeile und Spalte. Addieren Sie die Ergebnisse.

Ja, das ist eine so harte Definition. Daraus ergeben sich unmittelbar mehrere Fakten:

  1. Die Matrixmultiplikation ist im Allgemeinen nicht kommutativ: $A\cdot B\ne B\cdot A$;
  2. Allerdings ist die Multiplikation assoziativ: $\left(A\cdot B \right)\cdot C=A\cdot \left(B\cdot C \right)$;
  3. Und sogar distributiv: $\left(A+B \right)\cdot C=A\cdot C+B\cdot C$;
  4. Und noch einmal distributiv: $A\cdot \left(B+C \right)=A\cdot B+A\cdot C$.

Die Distributivität der Multiplikation musste gerade wegen der Nichtkommutativität der Multiplikationsoperation getrennt für den linken und rechten Summenfaktor beschrieben werden.

Wenn sich herausstellt, dass $A\cdot B=B\cdot A$, werden solche Matrizen kommutativ genannt.

Unter all den Matrizen, die dort mit etwas multipliziert werden, gibt es besondere – solche, die, wenn sie mit einer beliebigen Matrix $A$ multipliziert werden, wiederum $A$ ergeben:

Definition. Eine Matrix $E$ heißt Identität, wenn $A\cdot E=A$ oder $E\cdot A=A$. Im Fall einer quadratischen Matrix $A$ können wir schreiben:

Die Identitätsmatrix ist ein häufiger Gast bei der Lösung Matrixgleichungen. Und überhaupt ein häufiger Gast in der Welt der Matrizen. :)

Und aufgrund dieses $E$ hat sich jemand den ganzen Unsinn ausgedacht, der als nächstes geschrieben wird.

Was ist eine inverse Matrix?

Da die Matrixmultiplikation eine sehr arbeitsintensive Operation ist (Sie müssen eine Reihe von Zeilen und Spalten multiplizieren), erweist sich das Konzept einer inversen Matrix auch als nicht das trivialste. Und bedarf einer Erklärung.

Schlüsseldefinition

Nun, es ist Zeit, die Wahrheit zu erfahren.

Definition. Eine Matrix $B$ heißt die Umkehrung einer Matrix $A$, wenn

Die inverse Matrix wird mit $((A)^(-1))$ bezeichnet (nicht zu verwechseln mit dem Grad!), daher kann die Definition wie folgt umgeschrieben werden:

Es scheint, dass alles äußerst einfach und klar ist. Doch bei der Analyse dieser Definition stellen sich sofort mehrere Fragen:

  1. Existiert immer eine inverse Matrix? Und wenn nicht immer, wie kann man dann feststellen, wann es existiert und wann nicht?
  2. Und wer hat gesagt, dass es genau eine solche Matrix gibt? Was wäre, wenn es für eine Anfangsmatrix $A$ eine ganze Menge Inversen gäbe?
  3. Wie sehen all diese „Umkehrungen“ aus? Und wie genau sollen wir sie zählen?

Was die Berechnungsalgorithmen betrifft, werden wir etwas später darauf eingehen. Aber die restlichen Fragen werden wir gleich beantworten. Formulieren wir sie in Form separater Aussage-Lemmas.

Grundeigenschaften

Beginnen wir damit, wie die Matrix $A$ im Prinzip aussehen sollte, damit $((A)^(-1))$ dafür existiert. Jetzt stellen wir sicher, dass beide Matrizen quadratisch und gleich groß sind: $\left[ n\times n \right]$.

Lemma 1. Gegeben sei eine Matrix $A$ und ihre Umkehrung $((A)^(-1))$. Dann sind beide Matrizen quadratisch und haben die gleiche Ordnung $n$.

Nachweisen. Es ist einfach. Sei die Matrix $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ a\times b \right]$. Da das Produkt $A\cdot ((A)^(-1))=E$ per Definition existiert, sind die Matrizen $A$ und $((A)^(-1))$ in der gezeigten Reihenfolge konsistent:

\[\begin(align) & \left[ m\times n \right]\cdot \left[ a\times b \right]=\left[ m\times b \right] \\ & n=a \end( ausrichten)\]

Das direkte Konsequenz aus dem Matrixmultiplikationsalgorithmus: Die Koeffizienten $n$ und $a$ sind „Transit“-Koeffizienten und müssen gleich sein.

Gleichzeitig ist auch die inverse Multiplikation definiert: $((A)^(-1))\cdot A=E$, daher sind die Matrizen $((A)^(-1))$ und $A$ auch konsistent in der angegebenen Reihenfolge:

\[\begin(align) & \left[ a\times b \right]\cdot \left[ m\times n \right]=\left[ a\times n \right] \\ & b=m \end( ausrichten)\]

Somit können wir ohne Beschränkung der Allgemeinheit annehmen, dass $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ n\times m \right]$. Allerdings stimmen nach der Definition von $A\cdot ((A)^(-1))=((A)^(-1))\cdot A$ die Größen der Matrizen streng überein:

\[\begin(align) & \left[ m\times n \right]=\left[ n\times m \right] \\ & m=n \end(align)\]

Es stellt sich also heraus, dass alle drei Matrizen – $A$, $((A)^(-1))$ und $E$ – sind quadratische Größe$\left[ n\times n \right]$. Das Lemma ist bewiesen.

Nun ja, das ist schon gut. Wir sehen, dass nur quadratische Matrizen invertierbar sind. Stellen wir nun sicher, dass die inverse Matrix immer dieselbe ist.

Lemma 2. Gegeben sei eine Matrix $A$ und ihre Umkehrung $((A)^(-1))$. Dann ist diese inverse Matrix die einzige.

Nachweisen. Gehen wir den Widerspruch an: Die Matrix $A$ habe mindestens zwei Inverse – $B$ und $C$. Dann gelten per Definition folgende Gleichheiten:

\[\begin(align) & A\cdot B=B\cdot A=E; \\ & A\cdot C=C\cdot A=E. \\ \end(align)\]

Aus Lemma 1 schließen wir, dass alle vier Matrizen – $A$, $B$, $C$ und $E$ – Quadrate derselben Ordnung sind: $\left[ n\times n \right]$. Daher ist das Produkt wie folgt definiert:

Da die Matrixmultiplikation assoziativ (aber nicht kommutativ!) ist, können wir schreiben:

\[\begin(align) & B\cdot A\cdot C=\left(B\cdot A \right)\cdot C=E\cdot C=C; \\ & B\cdot A\cdot C=B\cdot \left(A\cdot C \right)=B\cdot E=B; \\ & B\cdot A\cdot C=C=B\Rightarrow B=C. \\ \end(align)\]

Wir haben das einzige erhalten mögliche Variante: Zwei Instanzen der inversen Matrix sind gleich. Das Lemma ist bewiesen.

Die obigen Argumente wiederholen fast wörtlich den Beweis der Einzigartigkeit des inversen Elements für alle reale Nummern$b\ne 0$. Die einzige wesentliche Ergänzung ist die Berücksichtigung der Dimension von Matrizen.

Allerdings wissen wir immer noch nichts darüber, ob jede quadratische Matrix invertierbar ist. Hier kommt uns eine Determinante zu Hilfe – diese Schlüsselmerkmal für alle quadratischen Matrizen.

Lemma 3. Gegeben sei eine Matrix $A$. Wenn ihre inverse Matrix $((A)^(-1))$ existiert, dann ist die Determinante der ursprünglichen Matrix ungleich Null:

\[\left| A\right|\ne 0\]

Nachweisen. Wir wissen bereits, dass $A$ und $((A)^(-1))$ quadratische Matrizen der Größe $\left[ n\times n \right]$ sind. Daher können wir für jeden von ihnen die Determinante berechnen: $\left| A\right|$ und $\left| ((A)^(-1)) \right|$. Allerdings ist das Produkt entscheidend gleich dem Produkt Qualifikanten:

\[\left| A\cdot B \right|=\left| Ein \right|\cdot \left| B \right|\Rightarrow \left| A\cdot ((A)^(-1)) \right|=\left| Ein \right|\cdot \left| ((A)^(-1)) \right|\]

Aber gemäß der Definition ist $A\cdot ((A)^(-1))=E$, und die Determinante von $E$ ist immer gleich 1, also

\[\begin(align) & A\cdot ((A)^(-1))=E; \\ & \left| A\cdot ((A)^(-1)) \right|=\left| E\right|; \\ & \left| Ein \right|\cdot \left| ((A)^(-1)) \right|=1. \\ \end(align)\]

Das Produkt zweier Zahlen ist nur dann gleich eins, wenn jede dieser Zahlen ungleich Null ist:

\[\left| A \right|\ne 0;\quad \left| ((A)^(-1)) \right|\ne 0.\]

Es stellt sich also heraus, dass $\left| A \right|\ne 0$. Das Lemma ist bewiesen.

Tatsächlich ist diese Anforderung durchaus logisch. Jetzt analysieren wir den Algorithmus zum Finden der inversen Matrix – und es wird völlig klar, warum mit einer Nulldeterminante grundsätzlich keine inverse Matrix existieren kann.

Aber formulieren wir zunächst eine „Hilfs“-Definition:

Definition. Eine singuläre Matrix ist eine quadratische Matrix der Größe $\left[ n\times n \right]$, deren Determinante gleich Null.

Somit können wir behaupten, dass jede invertierbare Matrix nicht singulär ist.

So finden Sie die Umkehrung einer Matrix

Nun betrachten wir einen universellen Algorithmus zum Finden inverser Matrizen. Im Allgemeinen gibt es zwei allgemein akzeptierte Algorithmen, und wir werden heute auch den zweiten betrachten.

Die Methode, die jetzt besprochen wird, ist sehr effektiv für Matrizen der Größe $\left[ 2\times 2 \right]$ und – teilweise – der Größe $\left[ 3\times 3 \right]$. Aber ab der Größe $\left[ 4\times 4 \right]$ ist es besser, es nicht zu verwenden. Warum - jetzt werden Sie alles selbst verstehen.

Algebraische Ergänzungen

Bereit machen. Jetzt wird es Schmerzen geben. Nein, keine Sorge: Eine schöne Krankenschwester in Rock, Strümpfen mit Spitze wird nicht zu Ihnen kommen und Ihnen eine Spritze ins Gesäß geben. Alles ist viel prosaischer: Algebraische Additionen und Ihre Majestät die „Union Matrix“ kommen zu Ihnen.

Beginnen wir mit der Hauptsache. Es sei eine quadratische Matrix der Größe $A=\left[ n\times n \right]$, deren Elemente $((a)_(ij))$ heißen. Dann können wir für jedes dieser Elemente ein algebraisches Komplement definieren:

Definition. Algebraisches Komplement $((A)_(ij))$ zum Element $((a)_(ij))$ in der $i$ten Zeile und $j$ten Spalte der Matrix $A=\left[ n \times n \right]$ ist eine Konstruktion der Form

\[((A)_(ij))=((\left(-1 \right))^(i+j))\cdot M_(ij)^(*)\]

Wobei $M_(ij)^(*)$ die Determinante der Matrix ist, die aus dem ursprünglichen $A$ durch Löschen derselben $i$-ten Zeile und $j$-ten Spalte erhalten wird.

Noch einmal. Das algebraische Komplement zu einem Matrixelement mit den Koordinaten $\left(i;j \right)$ wird als $((A)_(ij))$ bezeichnet und nach dem Schema berechnet:

  1. Zuerst löschen wir die $i$-Zeile und die $j$-te Spalte aus der Originalmatrix. Wir erhalten eine neue quadratische Matrix und bezeichnen ihre Determinante als $M_(ij)^(*)$.
  2. Dann multiplizieren wir diese Determinante mit $((\left(-1 \right))^(i+j))$ – auf den ersten Blick mag dieser Ausdruck umwerfend erscheinen, aber im Wesentlichen finden wir einfach das Vorzeichen heraus $M_(ij)^(*) $.
  3. Wir zählen und erhalten eine bestimmte Zahl. Diese. die algebraische Addition ist genau eine Zahl und keine neue Matrix usw.

Die Matrix $M_(ij)^(*)$ selbst wird als zusätzliches Nebenelement des Elements $((a)_(ij))$ bezeichnet. Und in diesem Sinne ist die obige Definition eines algebraischen Komplements ein Sonderfall eines Mehrs komplexe Definition- was wir uns in der Lektion über die Determinante angeschaut haben.

Wichtiger Hinweis. Tatsächlich werden algebraische Additionen in der „Erwachsenen“-Mathematik wie folgt definiert:

  1. Wir nehmen $k$ Zeilen und $k$ Spalten in einer quadratischen Matrix. An ihrem Schnittpunkt erhalten wir eine Matrix der Größe $\left[ k\times k \right]$ – ihre Determinante wird als Minor der Ordnung $k$ bezeichnet und mit $((M)_(k))$ bezeichnet.
  2. Dann streichen wir diese „ausgewählten“ $k$ Zeilen und $k$ Spalten durch. Sie erhalten wieder eine quadratische Matrix – ihre Determinante wird zusätzliches Minor genannt und mit $M_(k)^(*)$ bezeichnet.
  3. Multiplizieren Sie $M_(k)^(*)$ mit $((\left(-1 \right))^(t))$, wobei $t$ (Achtung!) die Summe der Zahlen aller ausgewählten Zeilen ist und Spalten. Dies wird die algebraische Addition sein.

Schauen Sie sich den dritten Schritt an: Es gibt tatsächlich eine Summe von 2.000 $! Eine andere Sache ist, dass wir für $k=1$ nur zwei Terme erhalten – diese werden die gleichen $i+j$ sein – die „Koordinaten“ des Elements $((a)_(ij))$, für das wir uns befinden auf der Suche nach einer algebraischen Ergänzung.

Deshalb verwenden wir heute eine leicht vereinfachte Definition. Aber wie wir später sehen werden, wird es mehr als genug sein. Viel wichtiger ist folgendes:

Definition. Die mit der quadratischen Matrix $A=\left[ n\times n \right]$ verbundene Matrix $S$ ist eine neue Matrix der Größe $\left[ n\times n \right]$, die aus $A$ erhalten wird durch Ersetzen von $(( a)_(ij))$ durch algebraische Additionen $((A)_(ij))$:

\\Rightarrow S=\left[ \begin(matrix) ((A)_(11)) & ((A)_(12)) & ... & ((A)_(1n)) \\ (( A)_(21)) & ((A)_(22)) & ... & ((A)_(2n)) \\ ... & ... & ... & ... \\ ((A)_(n1)) & ((A)_(n2)) & ... & ((A)_(nn)) \\\end(matrix) \right]\]

Der erste Gedanke, der im Moment der Verwirklichung dieser Definition entsteht, ist: „Wie viel muss gezählt werden?“ Entspannen Sie sich: Sie müssen zählen, aber nicht so viel. :)

Nun, das ist alles sehr schön, aber warum ist es notwendig? Aber warum.

Hauptsatz

Gehen wir noch ein wenig zurück. Denken Sie daran, dass in Lemma 3 angegeben wurde, dass die invertierbare Matrix $A$ immer nicht singulär ist (das heißt, ihre Determinante ist ungleich Null: $\left| A \right|\ne 0$).

Das Gegenteil gilt also auch: Wenn die Matrix $A$ nicht singulär ist, dann ist sie immer invertierbar. Und es gibt sogar ein Suchschema für $((A)^(-1))$. Hör zu:

Satz der inversen Matrix. Gegeben sei eine quadratische Matrix $A=\left[ n\times n \right]$, deren Determinante ungleich Null sei: $\left| A \right|\ne 0$. Dann existiert die inverse Matrix $((A)^(-1))$ und wird nach der Formel berechnet:

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))\]

Und jetzt ist alles beim Alten, aber in leserlicher Handschrift. Um die Umkehrmatrix zu finden, benötigen Sie:

  1. Berechnen Sie die Determinante $\left| Ein \right|$ und stellen Sie sicher, dass es ungleich Null ist.
  2. Konstruieren Sie die Vereinigungsmatrix $S$, d.h. zähle 100500 algebraische Additionen$((A)_(ij))$ und platzieren Sie sie an der Stelle $((a)_(ij))$.
  3. Transponieren Sie diese Matrix $S$ und multiplizieren Sie sie dann mit einer Zahl $q=(1)/(\left| A \right|)\;$.

Und alle! Die inverse Matrix $((A)^(-1))$ wurde gefunden. Schauen wir uns Beispiele an:

\[\left[ \begin(matrix) 3 & 1 \\ 5 & 2 \\\end(matrix) \right]\]

Lösung. Lassen Sie uns die Reversibilität überprüfen. Berechnen wir die Determinante:

\[\left| A\right|=\left| \begin(matrix) 3 & 1 \\ 5 & 2 \\\end(matrix) \right|=3\cdot 2-1\cdot 5=6-5=1\]

Die Determinante ist von Null verschieden. Dies bedeutet, dass die Matrix invertierbar ist. Lassen Sie uns eine Vereinigungsmatrix erstellen:

Berechnen wir die algebraischen Additionen:

\[\begin(align) & ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| 2 \right|=2; \\ & ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| 5 \right|=-5; \\ & ((A)_(21))=((\left(-1 \right))^(2+1))\cdot \left| 1 \right|=-1; \\ & ((A)_(22))=((\left(-1 \right))^(2+2))\cdot \left| 3\right|=3. \\ \end(align)\]

Bitte beachten: Die Determinanten |2|, |5|, |1| und |3| sind Determinanten von Matrizen der Größe $\left[ 1\times 1 \right]$ und keine Module. Diese. wenn die Qualifikationsmerkmale enthalten sind negative Zahlen Es ist nicht erforderlich, das „Minus“ zu entfernen.

Insgesamt sieht unsere Union-Matrix so aus:

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))=\frac(1)(1)\cdot ( (\left[ \begin(array)(*(35)(r)) 2 & -5 \\ -1 & 3 \\\end(array) \right])^(T))=\left[ \begin (array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]\]

OK, jetzt ist alles vorbei. Das Problem ist behoben.

Antwort. $\left[ \begin(array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]$

Aufgabe. Finden Sie die Umkehrmatrix:

\[\left[ \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right] \]

Lösung. Wir berechnen die Determinante noch einmal:

\[\begin(align) & \left| \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right|=\begin(matrix ) \left(1\cdot 2\cdot 1+\left(-1 \right)\cdot \left(-1 \right)\cdot 1+2\cdot 0\cdot 0 \right)- \\ -\left (2\cdot 2\cdot 1+\left(-1 \right)\cdot 0\cdot 1+1\cdot \left(-1 \right)\cdot 0 \right) \\\end(matrix)= \ \ & =\left(2+1+0 \right)-\left(4+0+0 \right)=-1\ne 0. \\ \end(align)\]

Die Determinante ist ungleich Null – die Matrix ist invertierbar. Aber jetzt wird es wirklich schwierig: Wir müssen bis zu neun (neun, Mistkerl!) algebraische Additionen zählen. Und jeder von ihnen enthält die Determinante $\left[ 2\times 2 \right]$. Geflogen:

\[\begin(matrix) ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| \begin(matrix) 2 & -1 \\ 0 & 1 \\\end(matrix) \right|=2; \\ ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| \begin(matrix) 0 & -1 \\ 1 & 1 \\\end(matrix) \right|=-1; \\ ((A)_(13))=((\left(-1 \right))^(1+3))\cdot \left| \begin(matrix) 0 & 2 \\ 1 & 0 \\\end(matrix) \right|=-2; \\ ... \\ ((A)_(33))=((\left(-1 \right))^(3+3))\cdot \left| \begin(matrix) 1 & -1 \\ 0 & 2 \\\end(matrix) \right|=2; \\ \end(matrix)\]

Kurz gesagt sieht die Vereinigungsmatrix so aus:

Daher lautet die Umkehrmatrix:

\[((A)^(-1))=\frac(1)(-1)\cdot \left[ \begin(matrix) 2 & -1 & -2 \\ 1 & -1 & -1 \\ -3 & 1 & 2 \\\end(matrix) \right]=\left[ \begin(array)(*(35)(r))-2 & -1 & 3 \\ 1 & 1 & -1 \ \2 & 1 & -2 \\\end(array) \right]\]

Das ist es. Hier ist die Antwort.

Antwort. $\left[ \begin(array)(*(35)(r)) -2 & -1 & 3 \\ 1 & 1 & -1 \\ 2 & 1 & -2 \\\end(array) \right ]$

Wie Sie sehen, haben wir am Ende jedes Beispiels eine Überprüfung durchgeführt. In diesem Zusammenhang ein wichtiger Hinweis:

Seien Sie nicht faul, dies zu überprüfen. Multiplizieren Sie die ursprüngliche Matrix mit der gefundenen inversen Matrix – Sie sollten $E$ erhalten.

Diese Prüfung ist viel einfacher und schneller durchzuführen, als in weiteren Berechnungen nach einem Fehler zu suchen, wenn Sie beispielsweise eine Matrixgleichung lösen.

Alternativer Weg

Wie gesagt, der inverse Matrixsatz funktioniert hervorragend für die Größen $\left[ 2\times 2 \right]$ und $\left[ 3\times 3 \right]$ (im letzteren Fall ist er nicht so „großartig“) ), aber für Matrizen große Größen die Traurigkeit beginnt.

Aber keine Sorge: Es gibt einen alternativen Algorithmus, mit dem man auch für die Matrix $\left[ 10\times 10 \right]$ ganz einfach die Umkehrung finden kann. Aber wie so oft ist für die Betrachtung dieses Algorithmus eine kleine theoretische Einführung erforderlich.

Elementare Transformationen

Unter allen möglichen Matrixtransformationen gibt es einige besondere – sie werden elementar genannt. Es gibt genau drei solcher Transformationen:

  1. Multiplikation. Sie können die $i$te Zeile (Spalte) nehmen und sie mit einer beliebigen Zahl $k\ne 0$ multiplizieren;
  2. Zusatz. Fügen Sie zur $i$-ten Zeile (Spalte) jede andere $j$-te Zeile (Spalte) hinzu, multipliziert mit einer beliebigen Zahl $k\ne 0$ (Sie können natürlich $k=0$ tun, aber was ist das? der Punkt? ? Nichts wird sich ändern).
  3. Neuordnung. Nehmen Sie die $i$te und $j$te Zeile (Spalte) und tauschen Sie die Plätze aus.

Warum werden diese Transformationen elementar genannt (z große Matrizen Sie sehen nicht so einfach aus) und warum es nur drei davon gibt – diese Fragen gehen über den Rahmen der heutigen Lektion hinaus. Daher gehen wir nicht näher darauf ein.

Noch etwas ist wichtig: Wir müssen alle diese Perversionen an der adjungierten Matrix durchführen. Ja, ja: Du hast richtig gehört. Nun kommt noch eine weitere Definition – die letzte in der heutigen Lektion.

Adjungierte Matrix

Sicherlich haben Sie in der Schule Gleichungssysteme mit der Additionsmethode gelöst. Nun, subtrahieren Sie eine weitere Zeile von einer Zeile, multiplizieren Sie eine Zeile mit einer Zahl – das ist alles.

Also: Jetzt wird alles beim Alten sein, aber auf eine „erwachsene“ Art und Weise. Bereit?

Definition. Gegeben seien eine Matrix $A=\left[ n\times n \right]$ und eine Identitätsmatrix $E$ gleicher Größe $n$. Dann ist die adjungierte Matrix $\left[ A\left| E\richtig. \right]$ ist eine neue Matrix der Größe $\left[ n\times 2n \right]$, die wie folgt aussieht:

\[\left[ A\left| E\richtig. \right]=\left[ \begin(array)(rrrr|rrrr)((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) & 1 & 0 & ... & 0 \\((a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) & 0 & 1 & ... & 0 \\... & ... & ... & ... & ... & ... & ... & ... \\((a)_(n1)) & ((a)_(n2)) & ... & ((a)_(nn)) & 0 & 0 & ... & 1 \\\end(array) \right]\]

Kurz gesagt, wir nehmen die Matrix $A$ und weisen ihr rechts die Identitätsmatrix $E$ zu die richtige Größe, wir trennen sie aus Schönheitsgründen mit einer vertikalen Linie – hier ist die beigefügte. :)

Was ist der Haken? Hier ist was:

Satz. Die Matrix $A$ sei invertierbar. Betrachten Sie die adjungierte Matrix $\left[ A\left| E\richtig. \right]$. Bei Verwendung Elementare String-Konvertierungen Bringen Sie es in die Form $\left[ E\left| Hell. \right]$, d.h. durch Multiplizieren, Subtrahieren und Neuanordnen von Zeilen, um aus $A$ die Matrix $E$ auf der rechten Seite zu erhalten, dann ist die auf der linken Seite erhaltene Matrix $B$ die Umkehrung von $A$:

\[\left[ A\left| E\richtig. \right]\to \left[ E\left| Hell. \right]\Rightarrow B=((A)^(-1))\]

So einfach ist das! Kurz gesagt sieht der Algorithmus zum Finden der inversen Matrix so aus:

  1. Schreiben Sie die adjungierte Matrix $\left[ A\left| E\richtig. \right]$;
  2. Führen Sie elementare String-Konvertierungen durch, bis $E$ anstelle von $A$ erscheint;
  3. Natürlich wird auch links etwas erscheinen – eine bestimmte Matrix $B$. Das wird das Gegenteil sein;
  4. PROFITIEREN!:)

Das ist natürlich viel leichter gesagt als getan. Schauen wir uns also ein paar Beispiele an: für die Größen $\left[ 3\times 3 \right]$ und $\left[ 4\times 4 \right]$.

Aufgabe. Finden Sie die Umkehrmatrix:

\[\left[ \begin(array)(*(35)(r)) 1 & 5 & 1 \\ 3 & 2 & 1 \\ 6 & -2 & 1 \\\end(array) \right]\ ]

Lösung. Wir erstellen die adjungierte Matrix:

\[\left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & -2 & 1 & 0 & 0 & 1 \\\end(array) \right]\]

Da die letzte Spalte der ursprünglichen Matrix mit Einsen gefüllt ist, subtrahieren Sie die erste Zeile vom Rest:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & - 2 & 1 & 0 & 0 & 1 \\\end(array) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\\end(matrix)\to \\ & \to \left [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Außer der ersten Zeile gibt es keine weiteren Einheiten. Aber wir rühren es nicht an, sonst beginnen sich die neu entfernten Einheiten in der dritten Spalte zu „vermehren“.

Aber wir können die zweite Zeile zweimal von der letzten subtrahieren – wir erhalten eins in der unteren linken Ecke:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right]\begin(matrix) \ \\ \downarrow \\ -2 \\\end(matrix)\to \\ & \left [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Jetzt können Sie subtrahieren letzte Linie von der ersten und zweimal von der zweiten – also „nullen“ wir die erste Spalte:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -1 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \ bis \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Multiplizieren Sie die zweite Zeile mit −1, subtrahieren Sie sie dann sechsmal von der ersten und addieren Sie einmal zur letzten Zeile:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \ \ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) \ \\ \left| \cdot \left(-1 \right) \right. \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -6 \\ \updownarrow \\ +1 \\\end (matrix)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 0 & 1 & -18 & 32 & -13 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & 0 & 0 & 4 & -7 & 3 \\\end(array) \right] \\ \end(align)\]

Jetzt müssen nur noch die Zeilen 1 und 3 vertauscht werden:

\[\left[ \begin(array)(rrr|rrr) 1 & 0 & 0 & 4 & -7 & 3 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 0 & 0 & 1 & - 18 & 32 & -13 \\\end(array) \right]\]

Bereit! Rechts ist die erforderliche inverse Matrix.

Antwort. $\left[ \begin(array)(*(35)(r))4 & -7 & 3 \\ 3 & -5 & 2 \\ -18 & 32 & -13 \\\end(array) \right ]$

Aufgabe. Finden Sie die Umkehrmatrix:

\[\left[ \begin(matrix) 1 & 4 & 2 & 3 \\ 1 & -2 & 1 & -2 \\ 1 & -1 & 1 & 1 \\ 0 & -10 & -2 & -5 \\\end(matrix) \right]\]

Lösung. Wir bilden den Adjungierten noch einmal:

\[\left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \ \ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\]

Lasst uns ein wenig weinen, traurig darüber sein, wie viel wir jetzt zählen müssen... und anfangen zu zählen. Lassen Sie uns zunächst die erste Spalte „auf Null setzen“, indem wir Zeile 1 von den Zeilen 2 und 3 subtrahieren:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \\ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & -1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Wir sehen in den Zeilen 2-4 zu viele „Nachteile“. Multiplizieren Sie alle drei Zeilen mit −1 und brennen Sie dann die dritte Spalte aus, indem Sie Zeile 3 vom Rest subtrahieren:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & - 1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\ \end(array) \right]\begin(matrix) \ \\ \left| \cdot \left(-1 \right) \right. \\ \left| \cdot \left(-1 \right) \right. \\ \left| \cdot \left(-1 \right) \right. \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & 6 & 1 & 5 & ​​​​1 & -1 & 0 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 10 & 2 & 5 & 0 & 0 & 0 & -1 \\ \end (array) \right]\begin(matrix) -2 \\ -1 \\ \updownarrow \\ -2 \\\end(matrix)\to \\ & \to \left[ \begin(array)( rrrr| rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Jetzt ist es an der Zeit, die letzte Spalte der ursprünglichen Matrix zu „braten“: Subtrahieren Sie Zeile 4 vom Rest:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array ) \right]\begin(matrix) +1 \\ -3 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Letzter Wurf: „Brennen“ Sie die zweite Spalte aus, indem Sie Zeile 2 von Zeile 1 und 3 subtrahieren:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end( array) \right]\begin(matrix) 6 \\ \updownarrow \\ -5 \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 0 & 0 & 0 & 33 & -6 & -26 & -17 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 0 & 1 & 0 & -25 & 5 & 20 & -13 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Und wieder ist die Identitätsmatrix links, was bedeutet, dass die Umkehrung rechts ist. :)

Antwort. $\left[ \begin(matrix) 33 & -6 & -26 & 17 \\ 6 & -1 & -5 & 3 \\ -25 & 5 & 20 & -13 \\ -2 & 0 & 2 & - 1 \\\end(matrix) \right]$

Die inverse Matrix für eine gegebene Matrix ist eine solche Matrix. Multipliziert man die ursprüngliche Matrix mit dieser, erhält man die Identitätsmatrix: Obligatorisch und ausreichender Zustand Das Vorhandensein einer inversen Matrix bedeutet, dass die Determinante der ursprünglichen Matrix ungleich Null ist (was wiederum impliziert, dass die Matrix quadratisch sein muss). Wenn die Determinante einer Matrix gleich Null ist, dann heißt sie singulär und eine solche Matrix hat keine Umkehrung. IN höhere Mathematik inverse Matrizen haben wichtig und werden zur Lösung einer Reihe von Problemen eingesetzt. Zum Beispiel am Finden der inversen Matrix gebaut Matrixmethode Gleichungssysteme lösen. Unsere Serviceseite ermöglicht Inverse Matrix online berechnen zwei Methoden: die Gauß-Jordan-Methode und die Verwendung der Matrix algebraischer Additionen. Interrupt impliziert große Menge elementare Transformationen innerhalb der Matrix, die zweite ist die Berechnung der Determinanten und algebraischen Additionen aller Elemente. Um die Determinante einer Matrix online zu berechnen, können Sie unseren anderen Service nutzen – Berechnung der Determinante einer Matrix online

.

Finden Sie die inverse Matrix für die Site

Webseite ermöglicht Ihnen das Finden Inverse Matrix online schnell und kostenlos. Auf der Website werden von unserem Service Berechnungen durchgeführt und das Ergebnis mit angezeigt detaillierte Lösung durch Finden inverse Matrix. Der Server gibt immer nur eine genaue und korrekte Antwort. In Aufgaben per Definition Inverse Matrix online, ist es notwendig, dass die Determinante Matrizen war sonst ungleich Null Webseite wird über die Unmöglichkeit berichten, die inverse Matrix zu finden, da die Determinante der ursprünglichen Matrix gleich Null ist. Die Aufgabe des Findens inverse Matrix kommt in vielen Bereichen der Mathematik vor und ist einer der häufigsten grundlegendes Konzept Algebra und mathematische Werkzeuge in angewandte Probleme. Unabhängig Definition der inversen Matrix erfordert erheblichen Aufwand, viel Zeit, Berechnungen und große Sorgfalt, um Tippfehler oder kleinere Fehler in den Berechnungen zu vermeiden. Deshalb unser Service Finden Sie die Umkehrmatrix online wird Ihre Aufgabe viel einfacher machen und ein unverzichtbares Werkzeug für Lösungen mathematische Probleme. Auch wenn Du Finden Sie die inverse Matrix Wenn Sie selbst Probleme haben, empfehlen wir Ihnen, Ihre Lösung auf unserem Server zu überprüfen. Geben Sie Ihre Originalmatrix auf unserer Website ein. Berechnen Sie die inverse Matrix online und überprüfen Sie Ihre Antwort. Unser System macht niemals Fehler und findet keine Fehler inverse Matrix gegebene Dimension im Modus online sofort! Auf der Seite Webseite Zeicheneingaben sind in Elementen erlaubt Matrizen, in diesem Fall Inverse Matrix online werden in allgemeiner symbolischer Form dargestellt.

Matrix A -1 heißt die inverse Matrix bezüglich Matrix A, wenn A*A -1 = E, wobei E die Identitätsmatrix n-ter Ordnung ist. Eine inverse Matrix kann nur für quadratische Matrizen existieren.

Zweck des Dienstes. Nutzung dieses Dienstes in Onlinemodus Man kann algebraische Komplemente, transponierte Matrix A T, alliierte Matrix und inverse Matrix finden. Die Entscheidung wird direkt auf der Website (online) getroffen und ist kostenlos. Die Berechnungsergebnisse werden in einem Bericht im Word- und Excel-Format dargestellt (d. h. es besteht die Möglichkeit, die Lösung zu überprüfen). siehe Designbeispiel.

Anweisungen. Um eine Lösung zu erhalten, ist es notwendig, die Dimension der Matrix anzugeben. Füllen Sie als Nächstes Matrix A im neuen Dialogfeld aus.

Matrixdimension 2 3 4 5 6 7 8 9 10

Siehe auch Inverse Matrix mit der Jordano-Gauß-Methode

Algorithmus zum Finden der inversen Matrix

  1. Finden der transponierten Matrix A T .
  2. Definition algebraischer Komplemente. Ersetzen Sie jedes Element der Matrix durch sein algebraisches Komplement.
  3. Erstellen einer inversen Matrix aus algebraischen Additionen: Jedes Element der resultierenden Matrix wird durch die Determinante der ursprünglichen Matrix dividiert. Die resultierende Matrix ist die Umkehrung der ursprünglichen Matrix.
Nächste Algorithmus zum Finden der inversen Matrixähnelt dem vorherigen, mit Ausnahme einiger Schritte: Zuerst werden die algebraischen Komplemente berechnet und dann wird die zugehörige Matrix C bestimmt.
  1. Bestimmen Sie, ob die Matrix quadratisch ist. Wenn nicht, dann gibt es dafür keine inverse Matrix.
  2. Berechnung der Determinante der Matrix A. Ist sie ungleich Null, setzen wir die Lösung fort, andernfalls existiert die inverse Matrix nicht.
  3. Definition algebraischer Komplemente.
  4. Ausfüllen der Vereinigungsmatrix (gegenseitig, adjungiert) C .
  5. Erstellen einer inversen Matrix aus algebraischen Additionen: Jedes Element der adjungierten Matrix C wird durch die Determinante der ursprünglichen Matrix dividiert. Die resultierende Matrix ist die Umkehrung der ursprünglichen Matrix.
  6. Sie führen eine Prüfung durch: Sie multiplizieren die Original- und die resultierenden Matrizen. Das Ergebnis sollte eine Identitätsmatrix sein.

Beispiel Nr. 1. Schreiben wir die Matrix in der Form:


Algebraische Ergänzungen.
A 1,1 = (-1) 1+1
-1 -2
5 4

∆ 1,1 = (-1 4-5 (-2)) = 6
A 1,2 = (-1) 1+2
2 -2
-2 4

∆ 1,2 = -(2 4-(-2 (-2))) = -4
A 1,3 = (-1) 1+3
2 -1
-2 5

∆ 1,3 = (2 5-(-2 (-1))) = 8
A 2,1 = (-1) 2+1
2 3
5 4

∆ 2,1 = -(2 4-5 3) = 7
A 2,2 = (-1) 2+2
-1 3
-2 4

∆ 2,2 = (-1 4-(-2 3)) = 2
A 2,3 = (-1) 2+3
-1 2
-2 5

∆ 2,3 = -(-1 5-(-2 2)) = 1
A 3,1 = (-1) 3+1
2 3
-1 -2

∆ 3,1 = (2 (-2)-(-1 3)) = -1
A 3,2 = (-1) 3+2
-1 3
2 -2

∆ 3,2 = -(-1 (-2)-2 3) = 4
A 3,3 = (-1) 3+3
-1 2
2 -1

∆ 3,3 = (-1 (-1)-2 2) = -3
Dann inverse Matrix kann geschrieben werden als:
A -1 = 1/10
6 -4 8
7 2 1
-1 4 -3

A -1 =
0,6 -0,4 0,8
0,7 0,2 0,1
-0,1 0,4 -0,3

Ein weiterer Algorithmus zum Finden der inversen Matrix

Lassen Sie uns ein anderes Schema zum Finden der inversen Matrix vorstellen.
  1. Finden Sie die Determinante hierfür quadratische Matrix A.
  2. Wir finden algebraische Komplemente zu allen Elementen der Matrix A.
  3. Wir schreiben algebraische Additionen von Zeilenelementen zu Spalten (Transposition).
  4. Wir dividieren jedes Element der resultierenden Matrix durch die Determinante der Matrix A.
Wie Sie sehen, kann die Transpositionsoperation sowohl am Anfang als auch oben verwendet werden Originalmatrix und am Ende über die resultierenden algebraischen Additionen.

Ein Sonderfall: Die Umkehrung der Identitätsmatrix E ist die Identitätsmatrix E.