Chapitre 5 Appendice : Orthogonalité

5.1 Produit scalaire, norme et distance euclidiennes

Définition 5.1 (transposée) Soit \(A\in\mathrm{M}_{m,n}(\mathbf{R})\), la transposée de \(A\) est la matrice \(^tA\in\mathrm{M}_{n,m}(\mathbf{R})\) donnée par

\[(^tA)_{i,j}=A_{j,i}\]

pour tout \(1\leq i\leq n\) et \(1\leq j\leq m\).

Remarque. La transposition correspond à échanger les lignes avec les colonnes.

Exemple 5.1 La transposée d’un vecteur colonne \(X=\begin{bmatrix}X_1\\\dots\\X_n\end{bmatrix}\) est le vecteur ligne \(^tX=\begin{bmatrix}X_1,\dots,X_n\end{bmatrix}\).

Exemple 5.2 La transposée de la matrice

\[A=\begin{bmatrix}1&0&2\\3&2&1\end{bmatrix}\] est la matrice

\[^tA=\begin{bmatrix}1&3\\0&2\\2&1\end{bmatrix}.\]

Proposition 5.1 Si \(A\in\mathrm{M}_{n,m}(\mathbf{K})\) et \(B\in\mathrm{M}_{m,l}(\mathbf{K})\) alors \(^t(AB)=(^tB)(^tA)\).

Preuve. Le coefficient d’indice \((i,j)\) de \(AB\) est \(\sum_{k=1}^mA_{i,k}B_{k,j}\) donc le coefficient d’indice \((i,j)\) de \(^t(AB)\) est \(\sum_{k=1}^mA_{j,k}B_{k,i}\).

Le coefficient de \((^tB)(^tA)\) d’indice \((i,j)\) est

\[\begin{align*} \sum_{k=1}^m (^tB)_{i,k} (^tA)_{k,j} &=\sum_{k=1}^m B_{k,i}A_{j,k}\\ &=\sum_{k=1}^m A_{j,k}B_{k,i}. \end{align*}\]

Les matrices \(^t(AB)\) et \((^tB)(^tA)\) ont même coefficients, elles sont donc égales.

Définition 5.2 (produit scalaire) Soit \(u,v\) deux vecteurs de \(\mathbf{R}^n\), le produit scalaire de \(u\) et \(v\) est le nombre réel

\[\langle u,v\rangle=\sum_{i=1}^nu_iv_i\]

\((u_i)\) et \((v_i)\) sont les coordonnées de \(u\) et \(v\) dans la base canonique.

Remarque. Si \(X\) et \(Y\) sont des vecteurs colonnes de \(\mathbf{R}^n\) alors \(\langle X,Y\rangle\) s’identifie avec la matrice de taille \(1\times 1\) \[^tXY.\]

Proposition 5.2 Pour tout \(u,v,w\in\mathbf{R}^n\) et \(\lambda\in \mathbf{R}\), on a les propriétés suivantes :

  • \(\langle u,v\rangle=\langle v,u\rangle\),
  • \(\langle u+v,w\rangle=\langle u,w\rangle+\langle v,w\rangle\),
  • \(\langle \lambda u,v\rangle=\lambda \langle u,v\rangle\),
  • \(\langle u,u\rangle\geq 0\),
  • \(\langle u,u\rangle= 0\iff u=0\).

Preuve. On prouve les propriétés les unes à la suite des autres.

  • \(\langle u,v\rangle=\sum_{i=1}^nu_iv_i=\sum_{i=1}^nv_iu_i=\langle v,u\rangle\),
  • \(\langle u+v,w\rangle=\sum_{i=1}^n(u_i+v_i)w_i=\sum_{i=1}^nu_iw_i+\sum_{i=1}^nv_iw_i=\langle u,w\rangle+\langle v,w\rangle\),
  • \(\langle \lambda u,v\rangle=\sum_{i=1}^n\lambda u_iv_i=\lambda\sum_{i=1}^nu_iv_i=\lambda \langle u,v\rangle\)
  • \(\langle u,u\rangle=\sum_{i=1}^nu_i^2\geq0\),
  • \(\langle u,u\rangle=\sum_{i=1}^nu_i^2=0\iff\forall i,\ u_i=0\iff u=0\).

Définition 5.3 (norme euclidienne) Soit \(u\in \mathbf{R}^n\), la norme euclidienne (ou simplement norme) de \(u\) est le réel positif

\[||u||=\sqrt{\langle u,u\rangle}=\sqrt{\sum_{i=1}^nu_i^2}.\]

Remarque. La dernière propriété de la Proposition 5.2 montre que \(||u||=0\iff u=0\).

5.2 Orthogonalité

Définition 5.4 Soit \(u,v\) deux vecteurs de \(\mathbf{R}^n\). Ils sont orthogonaux si \(\langle u,v\rangle=0\).

On note alors \(u\bot v\).

Exemple 5.3 Si \(u=\begin{bmatrix}1\\1\end{bmatrix}\) et \(\begin{bmatrix}1\\-1\end{bmatrix}\) alors \(u\) et \(v\) sont orthogonaux car \(\langle u,v\rangle =1-1=0\).

Exemple 5.4 Les vecteurs \(e_1,\dots, e_n\) de la base canonique sont orthogonaux car \(\langle e_i,e_j\rangle=1\) si \(i=j\) et \(\langle e_i,e_j\rangle=0\) si \(i\neq j\).

Définition 5.5 Une base \(\mathcal{B}=(u_1,\dots,u_n)\) de \(\mathbf{R}^n\) est orthonormée si pour tout \(i\neq j\), \(u_i\bot u_j\) et \(||u_i||=1\) pour tout \(i\in\{1,\dots,n\}\).

Exemple 5.5 La base canonique est une base orthonormée.

Exemple 5.6 La famille \(u_1=\frac{1}{\sqrt{2}}\begin{bmatrix}1\\1\end{bmatrix}\) et \(u_2\frac{1}{\sqrt{2}}\begin{bmatrix}-1\\1\end{bmatrix}\) est une base orthonormée car \(||u_1||=||u_2||=1\) et \(u_1\bot u_2\).

5.3 Matrices orthogonales

Définition 5.6 (Matrice orthogonale) Soit \(A\in\mathrm{M}_n(\mathbf{R})\). La matrice \(A\) est orthogonale si \(^tAA=I_n\).

Lemme 5.1 Soit \(A\in\mathrm{M}_n(\mathbf{R})\). Notons \(A_1,\dots,A_n\) les vecteurs colonnes de la matrice \(A\). Soit \(P\) la matrice \(^tAA\). Le coefficient d’indice \((i,j)\) de \(P\) est \(\langle A_i, A_j\rangle\).

Preuve. Notons \(B=^tA\). Par définition du produit matriciel, le coefficient \(P_{i,j}\) de \(P\) est \(\sum_{k=1}^nB_{i,k}A_{k,j}\). Comme \(B_{i,k}=A_{k,i}\), \(P_{i,j}=\sum_{k=1}^nA_{k,i}A_{k,j}=\langle A_i,A_j\rangle\).

Proposition 5.3 Une matrice \(A\) est orthogonale si et seulement si \(A\) est inversible d’inverse \(^tA\) si seulement si les colonnes de \(A\) forment une base orthonormée.

Preuve. L’équation matricielle \(^tAA=I_n\) signifie exactement que \(^tA\) est l’inverse de \(A\).

Par le Lemme 5.1, Posons \(P=^tAA\). Ainsi, le coefficient \(P_{i,j}\) est \(\langle A_i,A_j\rangle\). Ainsi, \[P=I_n\iff \left\{\begin{matrix}\langle A_i,A_j\rangle=0,\ \textrm{pour}\ i\neq j\\ \langle A_i,A_j\rangle=1,\ \textrm{pour}\ i=j \end{matrix}\right. .\] Ce qui signifie exactement que la famille des colonnes de la matrice \(A\) est une base orthonormée.

Remarque. Une matrice orthogonale correspond alors exactement à une matrice de passage, de la base canonique vers une base orthonormée.

Exemple 5.7 Voici quelques exemples.

  1. La matrice \(\frac{1}{\sqrt{2}}\begin{bmatrix}1&-1\\1&1\end{bmatrix}\) est une matrice orthogonale en dimension 2.
  2. La matrice \(\begin{bmatrix}0&1&0\\0&0&1\\1&0&0\end{bmatrix}\) est orthogonale en dimension 3.
  3. La matrice \(\frac{1}{9}\begin{bmatrix}-8&4&1\\4&7&4\\1&4&-8\end{bmatrix}\) est orthogonale en dimension 3.