Matrice inversible

Infos
En mathématiques et plus particulièrement en algèbre linéaire, une matrice carrée A d'ordre n est dite inversible ou régulière ou encore non singulière, s'il existe une matrice B d'ordre n telle que :AB = BA = In, où In désigne la matrice unité d'ordre n. La multiplication est la multiplication ordinaire des matrices. Dans ce cas, la matrice B est uni
Matrice inversible

En mathématiques et plus particulièrement en algèbre linéaire, une matrice carrée A d'ordre n est dite inversible ou régulière ou encore non singulière, s'il existe une matrice B d'ordre n telle que :AB = BA = In, où In désigne la matrice unité d'ordre n. La multiplication est la multiplication ordinaire des matrices. Dans ce cas, la matrice B est unique et est appelée la matrice inverse de A, et est notée A−1. Une matrice carrée qui n'est pas inversible est dite non inversible ou singulière. Tandis que dans les cas usuels, ces matrices sont à coefficients réels ou complexes, toutes ces définitions peuvent être données pour des matrices à coefficients dans un corps (et plus généralement dans un anneau) quelconque.

Théorème des matrices inversibles

Soit A une matrice carrée d'ordre n à coefficients dans un corps \mathbb (par exemple le corps des réels \mathbb). Les propositions suivantes sont équivalentes (on note X une matrice colonne à n éléments dans \mathbb) :
-A est inversible,
-A est équivalente à la matrice unité In d'ordre n,
-A possède n pivots,
-le déterminant de A est non nul : det (A) ≠ 0,
-0 n'est pas valeur propre de A,
-le rang de A est égal à n,
-le système homogène AX = 0 a pour unique solution X = 0,
-pour tout b dans \mathcal_(\mathbb), le système linéaire AX = b a au plus une solution,
-pour tout b dans \mathcal_(\mathbb), le système linéaire AX = b a au moins une solution,
-pour tout b dans \mathcal_(\mathbb), le système linéaire AX = b a exactement une solution,
-les colonnes de A, considérées comme des vecteurs de \mathbb^n, sont linéairement indépendantes,
- les colonnes de A, considérées comme des vecteurs de \mathbb^n, engendrent \mathbb^n,
-les colonnes de A, considérées comme des vecteurs de \mathbb^n, forment une base de \mathbb^n,
-l'endomorphisme canoniquement associé à A (c’est-à-dire l'application linéaire de \mathbb^n dans lui-même, notée can(A), qui a pour matrice A en base canonique) est injectif,
-l'endomorphisme can(A) canoniquement associé à A est surjectif,
-l'endomorphisme can(A) canoniquement associé à A est bijectif,
-la matrice A est inversible à gauche, c'est-à-dire qu'il existe une matrice B carrée d'ordre n telle que BA = In,
-la matrice A est inversible à droite, c'est-à-dire qu'il existe une matrice B carrée d'ordre n telle que AB = In,
-la transposée tA de A est inversible,
-il existe un polynôme annulateur de A dont 0 n'est pas racine,
-0 n'est pas racine du polynôme minimal de A. Plus généralement, une matrice carrée à coefficients dans un anneau commutatif unifère est inversible si et seulement si son déterminant est inversible dans cet anneau.

Autres propriétés et résultats

La matrice inverse d'une matrice inversible A est elle-même inversible, et :(A−1)−1 = A Le produit de deux matrices inversibles A et B (de même ordre) est une matrice inversible et son inverse est donné par la relation suivante (on remarquera que l'ordre des matrices est inversé) :(AB)−1 = B−1A−1 Le produit d'un scalaire non nul k et d'une matrice inversible A est inversible, et son inverse est égal au produit de l'inverse de ce scalaire et de l'inverse de cette matrice. :(kA)−1 = k−1A−1 Des deux premières de ces propriétés, il résulte que l'ensemble des matrices carrées inversibles d'ordre n constitue un groupe multiplicatif (dont l'élément neutre est la matrice unité d'ordre n); on l'appelle groupe général linéaire et on le note habituellement GL_n(\mathbb), où \mathbb est le corps des scalaires. En général, « presque toutes » les matrices carrées d'ordre n sont inversibles. Sur le corps des nombres réels, cela peut être formulé de façon plus précise: l'ensemble des matrices non inversibles, considéré comme sous-ensemble de \mathbb^n\times n, est négligeable, c'est-à-dire de mesure de Lebesgue nulle. Intuitivement, cela signifie que si l'on choisit au hasard une matrice carrée d'ordre n à coefficients réels, la probabilité pour qu'elle soit non inversible est égale à zéro. La raison en est que les matrices non inversibles sont les racines (ou zéros) d'une fonction polynomiale donnée par le déterminant. L'ensemble des matrices inversibles est dense dans l'ensemble des matrices carrées réelles ou complexes. En effet on peut approcher toute matrice de Mn(R) (ou Mn(C)) par une suite de matrices inversibles. Par exemple, considérons la suite de matrices de terme général M(k)=M-(1/k).I. Le déterminant de M(k) est une fonction polynomiale en k, il s'annule donc un nombre fini de fois. Ainsi il existe K tel que pour tout k > K , det(M(k)) soit non nul, et donc que M(k) soit inversible. On a donc bien en considérant la suite (M(k)) pour k>K une suite de matrices inversibles qui converge vers M une matrice quelconque, ce qui justifie la densité.

Méthodes d'inversion

Avant de décrire les méthodes usuelles d'inversion, notons qu'en pratique, il n'est pas nécessaire de calculer l'inverse d'une matrice pour résoudre un système d'équations linéaires. Il est toutefois nécessaire que la matrice considérée soit inversible. Des méthodes de décomposition comme la décomposition LU sont beaucoup plus rapide que l'inversion.

Élimination de Gauss-Jordan

Méthode des cofacteurs

L'inverse d'une matrice A s'écrit sous une forme très simple à l'aide de la matrice complémentaire ^t\rm com A :A^=\frac1\det A \, ^t\rm com A = \frac1\det A \, ^t\left(C_\right) = \frac1\det A \, \begin C_ & C_ & \cdots & C_ \\ C_ & \ddots & & C_ \\ \vdots & & \ddots & \vdots \\ C_ & \cdots & \cdots & C_ \\ \end où \det A est le déterminant de A, \rm com A est la comatrice de A et ^t est la matrice transposée de A. Cette écriture permet un calcul aisé de l'inverse d'une matrice de petite dimension. Pour des matrices de plus grande dimensions, cette méthode essentiellement récursive devient inefficace.

Inversion des matrices 2 x 2

L'équation des cofacteurs ci-dessus permet de calculer l'inverse des matrices de dimensions 2 x 2 : si ad - bc \neq 0, : A = \begin a & b \\ c & d \\ \end , \ \rm com A = \begin d & -c \\ -b & a \\ \end , \ ^t\rm com A = \begin d & -b \\ -c & a \\ \end : A^ = \begin a & b \\ c & d \\ \end^ = \frac1 \begin d & -b \\ -c & a \\ \end EXEMPLE : C = \begin 1 & 2 \\ 3 & 4 \\ \end , \ C^ = \begin 1 & 2 \\ 3 & 4 \\ \end^ = \frac1 \begin 4 & -2 \\ -3 & 1 \\ \end (M.Paris)

Inversion des matrices 3 x 3

De même, l'inverse d'une matrice de dimensions 3 x 3 s'écrit : :\det A = a(ei-fh) - b(di-fg) + c(dh-eg) \ :A^ = \begin a & b & c\\ d & e & f \\ g & h & i \\ \end^ = \frac1\det A \begin ei - fh & fg - di & dh - eg \\ ch - bi & ai - cg & bg - ah \\ bf - ce & cd - af & ae - bd \end^t = \frac1\det A \begin ei - fh & ch - bi & bf - ce\\ fg - di & ai - cg & cd - af\\ dh - eg & bg - ah & ae - bd \end

Inversion par bloc

L'inverse d'une matrice peut également être calculé par bloc, en utilisant la formule analytique suivante: :\begin A & B \\ C & D \end^ = \begin A^+A^B(D-CA^B)^CA^ & -A^B(D-CA^B)^ \\ -(D-CA^B)^CA^ & (D-CA^B)^ \end où A, B, C et D sont des blocs de taille arbitraire. Cette méthode peut se révéler avantageuse, par exemple, si A est diagonale et si son complément de Schur (D-CA^B) est une matrice de petite dimension, puisque ce sont les seules matrices à inverser. Cette technique a été inventée par Volker Strassen, connu également pour l'algorithme de Strassen sur le produit matriciel rapide.

Dérivée de l'inverse d'une matrice

Soient un intervalle I (d'intérieur non vide) de \mathbb et une fonction matricielle A : I \to \mathrm_n(\mathbb), \, t \mapsto A(t) dérivable sur I. Alors la fonction matricielle A^ : I \to \mathrm_n(\mathbb), \, t \mapsto A(t)^ est dérivable sur I et : :\forall\, t \in I, \, \frac\mathrmA^\mathrmt(t) = - A^(t)\, \frac\mathrmA\mathrmt(t)\, A^(t). Cette relation découle de l'identité :\forall\, t \in I, \, A^(t)\, A(t) = I_n.

Généralisations

Certaines des propriétés des matrices inverses sont aussi vérifiées par les matrices pseudo-inverses qui peuvent être définies pour n'importe quelle matrice, même pour celles qui ne sont pas carrées. Au cas où la matrice X n'est pas carrée, il est possible d'inverser grâce à une prémultiplication par le groupe de matrices (X'X)^X' \, ou une postmultiplication par X'(XX')^ \, On a bien: : (X'X)^X'X=I \, : XX'(XX')^=I \, ==
Sujets connexes
Algorithme de Strassen   Algèbre linéaire   Anneau (mathématiques)   Anneau commutatif   Bijection   Comatrice   Complément de Schur   Corps (mathématiques)   Décomposition LU   Déterminant (mathématiques)   Espace vectoriel   Groupe (mathématiques)   Groupe général linéaire   Injection (mathématiques)   Mathématiques   Matrice transposée   Mesure de Lebesgue   Nombre complexe   Nombre réel   Polynôme minimal   Probabilité   Produit matriciel   Pseudo-inverse   Réduction de Gauss   Sous-matrice   Surjection   Système d'équations linéaires   Valeur propre (synthèse)   Volker Strassen  
#
Accident de Beaune   Amélie Mauresmo   Anisocytose   C3H6O   CA Paris   Carole Richert   Catherinettes   Chaleur massique   Championnat de Tunisie de football D2   Classement mondial des entreprises leader par secteur   Col du Bonhomme (Vosges)   De viris illustribus (Lhomond)   Dolcett   EGP  
^