changed 7 months ago 812 views

Plan du cours ALBI (L3 Rennes, 2024–2025)

tags: cours, ALBI


Compléments d’algèbre linéaire

On fixe ici un corps k et on pourra penser à k=R, C ou encore Fq voire à Fq(t).

Si E et F sont des k-espaces vectoriels, on notera Hom(E,F)={f:EF linéaire}, End(E)=Hom(E,E) et E=Hom(E,k).

On utilisera régulièrement les faits suivants (conséquences de l’axiome du choix) :

  1. Tout espace vectoriel admet une base.
  2. Toute famille libre d’un espace vectoriel peut être compléter en une base. En particulier, tout sous-espace d’un espace vectoriel admet un supplémentaire.

1. Espaces vectoriels quotients

Proposition-Définition. — Soit FE un sous-espace du k-espace vectoriel E. La relation xFyxyF est une relation d’équivalence dont on notera E/F l’ensemble quotient. Si πF:EE/F désigne la projection canonique, il existe sur E/F une unique structure de k-espace vectoriel qui fasse de πF une application linéaire.

Remarques. —

  1. πF est surjective et son noyau est Ker(πF)=F.
  2. Tout supplémentaire de F est isomorphe via πF à E/F.
  3. L’espace E/F n’est pas (naturellement) un sous-espace de E.

Propriété universelle du quotient. — Soient f:E1E2 une application linéaire et FE1 un sous-espace de E1. Il existe une application ˜f:E1/FE2 telle que f=˜fπF si et seulement si FKer(f). Dans ce cas Im(˜f)=Im(f)etKer(˜f)=Ker(f)/F. En particulier, ˜f est injective si et seulement si F=Ker(f).

Corollaire 1. — Si FE1 est un sous-espace, toute application linéaire f:E1E2 induit une application ˜f:E1/FE2/f(F).
En particulier, toute application linéaire f:E1E2 induit un isomorphisme ˜f:E1/Ker(f)  Im(f).

Cas de la dimension finie. — Si E est de dimension finie, alors E/F aussi et on a dim(E/F)=dim(E)dim(F). On appelle codimension de F (dans E) l’entier codimE(F):=dim(E/F).

Remarque. — Même si E est de dimension infinie, certains sous-espaces sont de codimension finie. Par exemple, si fE est une forme linéaire non nulle, alors F=Ker(f)E est de codimension 1 (et réciproquement !).

2. Dualité

Notions intrinsèques

Définition. — Pour u:E1E2 linéaire entre espaces vectoriels, on pose : tu:{E2E1ftu(f)=fu. C’est une application linéaire : tuHom(E2,E1). De plus, l’application utu est une application linéaire de Hom(E1,E2)Hom(E2,E1) qui vérifie t(uv)=tutv (quand cela a un sens).

On dit que la dualité est un foncteur contravariant entre espaces vectoriels sur un même corps de base.

Proposition. — L’application naturelle (avec E un k-espace vectoriel) jE:{EExjE(x):{Ekff(x). est linéaire et injective. En particulier, si E est de dimension finie, alors jE:EE est un isomorphisme.

Remarque. — En dimension infinie, l’application jE n’est jamais surjective. On pourra se reporter à cette note de Matthieu Romagny.

Familles duales

Soit E un k-espace vectoriel et B=(xi)iI une base de E. Tout élément x de E s’écrit donc de manière unique x=iIλixi avec seulement un nombre fini de λi non nuls. Si on fixe iI, on pose xi(x)=λi et ceci définit une application xi:Ek.

Définition. — La famille (xi)iI s’appelle la famille duale de la base (xi)iI. Si E est de dimension finie, on parle de base duale car dans ce cas la famille (xi)iI est une base de E.

Remarque. — Si dim(E)=+, la famille (xi)iI n’est jamais une base de E (cf. ici).

Proposition. —

  1. On a x=iIxi(x)xi pour tout xE.
  2. La famille (xi)iI est libre.
  3. L’application jB:{EExiIxi(x)xi est injective, d’image Im(jB)=Vect(xi,iI), caractérisée par : φIm(jB)Card{iIφ(xi)0}<+

Proposition-Définition. —
Si E est de dimension finie et B=(x1,,xn) est une base de E, alors jB est un isomorphisme et B=(x1,,xn) est une base de E. La famille B s’appelle la base duale de la base B.
Réciproquement, si B est une base de E, alors il existe une unique base B de E dont elle est la base duale. La base B est dite base pré-duale de la base B.

Orthogonalité duale

Pour E un espace vectoriel, AE et BE des parties non vides de E et E, on pose : A={fEaA, f(a)=0}EetB={xEfB, f(x)=0}E.

Proposition. —

  1. A=Vect(A) et de même B=Vect(B).
  2. Si AA1, alors on a A1A (et de même pour B).
  3. Si F est un sous-espace de E, alors F=tπF(E/F)πF:EE/F désigne la projection canonique.
  4. Si E est de dimension finie, on a : dim(E)=dim(F)+dim(F).
  5. Si E est de dimension finie et AE une partie non vide, on a : (A)=Vect(A).

On peut décrire l’orthogonal de l’orthogonal de la façon suivante (noter la différence entre l’espace initial et son dual).

Proposition. —

On peut relier les deux notions d’orthogonalité via la bidualité.

Proposition. — Si B est une partie de E, on a alors jE(B)B.

Remarque. — En dimension infinie, il faut être prudent. En effet, si B={0}E, on a B=E et B=E. Or, nous avons ci-dessus que jE(E)E en dimension infinie : l’inclusion jE(B)B est donc en général stricte.

Cas de la dimension finie

On s’intéresse tout d’abord au cas où les sous-espaces sont de dimension finie.

Proposition. —

Le deuxième point de l’énoncé précédent est parfois exprimé sous la forme équivalente suivante.

Proposition. — Soit (φ1,,φn)(E)n une famille de formes linéaires. Le rang de la famille (φ1,,φn) est égal au rang de l’application linéaire Φ:{Eknx(φ1(x),,φn(x)).

Enfin, quand l’espace ambiant est de dimension finie, tout se passe au mieux.

Proposition. — Soient E un espace de dimension finie, F un sous-espace de E et G un sous-espace de E.

  1. On a dim(F)+dim(F)=dim(E)=dim(E)=dim(G)+dim(G).
  2. jE(G)=G et (G)=G.
  3. Si (φ1,,φn) est une famille de formes linéaires, alors dim(ni=1Ker(φi))dim(E)n avec égalité si et seulement si la famille (φ1,,φn) est libre.

Réduction des endomorphismes

Dans toute cette deuxième partie, E est un k-espace vectoriel de dimension finie et u:EE une application linéaire.

1. Considérations polynomiales

Polynômes minimaux et caractéristiques

Le morphisme d’évaluation en u est un morphisme d’algèbre : evu:{k[X]End(E)PP(u). Définition. — La sous-algèbre de End(E) engendrée par u est l’image de evu. Son noyau est de la forme Ker(evu)=(μu):={QμuQk[X]} pour un unique polynôme μu unitaire qui est appelé le polynôme minimal de u.

Si maintenant xE est un vecteur fixé, on peut considérer : evu,x:{k[X]EPP(u)(x). On vérifie facilement de Ker(evu,x) est également un idéal de K[X].

Définition. —

  1. On note μu,x le générateur unitaire de Ker(evu,x). Tout polynome P tel que P(u)(x)=0 s’écrit donc P=μu,xQ avec Qk[X]. En particulier, μu,x divise μu pour tout xE.
  2. L’image de evu,x est appelé sous-espace cyclique (ou monogène) engendré par x, on le note k[u]x. S’il existe xE tel que E=k[u]x, on dit que u est cyclique (de vecteur cyclique x).

Remarque. — Le sous-espace F=k[u]x est stable par u et uF est cyclique !

Définition. — Le polynôme χu(X):=det s’appelle le polynôme caractéristique de u.

Théorème (Cayley–Hamilton). — Le polynôme minimal divise le polynôme caractéristique.

Proposition. — Un endomorphisme u est cyclique si et seulement si \mu_u=\chi_u.

Conséquences du lemme des noyaux

Lemme des noyaux. — Si P=P_1\cdots P_r où les polynômes P_i sont deux à deux premiers entre eux, on a alors : \mathrm{Ker}(P(u))=\bigoplus_{i=1}^r\mathrm{Ker}(P_i(u)). Les projecteurs \pi_i\colon\mathrm{Ker}(P(u))\to \mathrm{Ker}(P_i(u)) sont des polynômes en u.

Proposition. — Les polynômes \mu_u et \chi_u ont mêmes facteurs irréductibles. On peut donc écrire \mu_u=P_1^{\alpha_1}\cdots P_r^{\alpha_r}\quad\text{et}\quad \chi_u=P_1^{\beta_1}\cdots P_r^{\beta_r} avec \alpha_i\le\beta_i pour i=1,\ldots,r.

Corollaire. — Les décompositions associées à \mu_u et \chi_u sont les mêmes : E=\bigoplus_{i=1}\mathrm{Ker}\left(P_i^{\alpha_i}(u)\right)=\bigoplus_{i=1}\mathrm{Ker}\left(P_i^{\beta_i}(u)\right). Les sous-espaces F_i:=\mathrm{Ker}\left(P_i^{\alpha_i}(u)\right)=\mathrm{Ker}\left(P_i^{\beta_i}(u)\right) s’appellent les sous-espaces caractéristiques de u et sont de dimension \dim(F_i)=\beta_i\deg(P_i).

2. Réduction en composantes cycliques (Frobenius)

Théorème (Frobenius). — Soit u\in\mathrm{End}(E). Il existe alors une décomposition E=E_1\oplus\cdots\oplus E_r de E en sous-espaces cycliques pour u (cela signifique que E_i est u-stable et que u_{\mid E_i} est cyclique pour tout i=1,\ldots, r) vérifiant de plus \mu_{u_{\mid E_1}}=\mu_u et pour tout i=2,\ldots,r, \mu_{u_{\mid E_i}} divise \mu_{u_{\mid E_{i-1}}}.
Si on note P_i=\mu_{u_{\mid E_i}}, la suite de polynômes (P_1,P_2,\ldots,P_r) vérifie donc P_1=\mu_u et P_i divise P_{i-1} pour i=2,\ldots,r. Cette suite est unique (elle ne dépend pas de la décomposition choisie) et elle caractérise complètement la classe de similitude de u.

Version matricielle. — Soit A\in\mathrm{M}_n(k). Il existe une matrice inversible Q\in\mathrm{GL}_n(k) et une unique suite de polynômes (P_1,P_2,\ldots,P_r) avec P_1=\mu_u et P_i divise P_{i-1} pour i=2,\ldots,r telle que : QAQ^{-1}= \begin{pmatrix} C_{P_1} & 0 & \cdots & 0\\ 0 & C_{P_2} & \ddots & \vdots \\ \vdots &\ddots & \ddots & 0 \\0 & \cdots & 0 & C_{P_r} \end{pmatrix}C_{P_i} est la matrice compagnon associée au polynôme P_i.

Lemme. — Soit u\in\mathrm{End}(E). Il existe alors x\in E tel que \mu_{u,x}=\mu_u.

Lemme. — Si u\in\mathrm{End}(E) et x\in E tel que \mu_{u,x}=\mu_u, alors le sous-espace k[u]\cdot x\subset E admet un supplémentaire stable par u.

3. Réduction des endomorphismes scindés (Jordan)

On considère maintenant u\in\mathrm{End}(E) tel que \chi_u=\prod_{i=1}^p(X-\lambda_i)^{\alpha_i} est scindé.

Théorème (Jordan–Chevalley). — Il existe un unique couple d’endomorphismes (d,n) vérifiant :

  1. d est diagonalisable et n est nilpotent ;
  2. u=d+n et d\circ n=n\circ d.

Le couple (d,n) s’appelle la décomposition de Jordan–Chevalley de l’endomorphisme u.

Réduction des nilpotents

Lemme. — Pour u\in\mathrm{End}(E), on pose K_i:=\mathrm{Ker}(u^i). On a évidemment K_{i}\subset K_{i+1}. L’application u induit une application injective u_i\colon K_{i+1}/K_i\hookrightarrow K_i/K_{i-1} pour tout i\ge1. La suite m_i:=\dim(K_{i+1})-\dim(K_{i}) (pour i\ge 0) est donc d’abord strictement décroissante puis nulle à partir d’un certain rang. Si p=\inf(i\ge1\mid m_i=0), on a donc (0)\subsetneq K_1 \subsetneq K_2\subsetneq \cdots\subsetneq K_p=K_{p+1}=\cdots En particulier, si u est nilpotent, on a p=\inf(i\ge1\mid u^i=0).

Lemme. — La matrice J_n=\begin{pmatrix}0 & 1 & 0 & \cdots & 0\\ 0 & 0 & 1 & \ddots & \vdots \\ 0 & \cdots & 0 & \ddots & 0 \\ \vdots & \ddots & \ddots & \ddots & 1 \\ 0 & \cdots & \cdots & \cdots & 0\end{pmatrix} vérifie :

  1. \dim (\mathrm{Ker}(J_n))=1 ; plus généralement \dim (\mathrm{Ker}(J_n^\ell))=\inf(\ell, n) ;
  2. J_n^n=0 mais J_n^{n-1}\neq 0 (J_n est d’indice n).

Théorème (Jordan). — Pour tout endomorphisme nilpotent u\in\mathrm{End}(E), il existe une base \mathcal{B} de E et une suite d’entiers 1\le d_1\le d_2\le\cdots\le d_r telles que \mathrm{Mat}_{\mathcal{B}}(u)=\begin{pmatrix}J_{d_1} & 0 & \cdots & 0\\ 0& J_{d_2} & \ddots & \vdots \\ \vdots & \ddots & \ddots & 0 \\ 0 & \cdots & 0 & J_{d_r} \end{pmatrix}. La suite d’entiers 1\le d_1\le d_2\le\cdots\le d_r est uniquement déterminée par u et elle caractérise complètement la classe de similitude de u.

Cas général

Réduction de Jordan. — Soit u\in\mathrm{End}(E) avec \chi_u=\prod_{i=1}^p(X-\lambda_i)^{\alpha_i}. Pour chaque i=1,\ldots, p, il existe une partition 1\le d^{(i)}_1\le \cdots \le d^{(i)}_{r_i} de \alpha_i (c’est-à-dire une ralation \alpha_i=\sum_{j=1}^{r_i}d^{(i)}_j) et une base de E telle que la matrice de u dans cette base soit diagonale par blocs avec des blocs de la forme J_{d^{(i)}_j}(\lambda_i)\colon= \lambda_i\mathrm{Id}+J_{d^{(i)}_j} pour i=1,\ldots, p et j=1,\ldots,r_i.

Remarque. — À nouveau, la donnée des \lambda_i et des suites d’entiers 1\le d^{(i)}_1\le \cdots \le d^{(i)}_{r_i} caractérise la classe de similitude de u. En particulier, si k=\mathbb{C}, tout endomorphisme a un polynôme caractéristique scindé et la réduction de Jordan fournit une description complète des classes de similitude.


Formes quadratiques

:warning: Dans tout ce chapitre, k sera un corps de caractéristique de 2.

1. Formes bilinéaires et orthogonalité

Généralités sur les formes bilinéaires

Définition. — Une forme quadratique sur un espace vectoriel E sur k est une application q:E\to k telle qu’il existe f:E\times E\to k une forme bilinéaire avec q(x)=f(x,x) pour tout x\in k.

Remarque. — On peut écrire f(x,y)=f_{\mathrm{sym}}(x,y)+f_{\mathrm{alt}}(x,y) avec f_{\mathrm{sym}}(x,y)=\frac{f(x,y)+f(y,x)}{2}\quad\text{et}\quad f_{\mathrm{alt}}(x,y)=\frac{f(x,y)-f(y,x)}{2}. Les formes bilinéaires f_{\mathrm{sym}} et f_{\mathrm{alt}} sont respectivement symétrique et alternée. Enfin, on a clairement f(x,x)=f_{\mathrm{sym}}(x,x). Une forme quadratique peut donc être décrite par une forme bilinéaire symétrique.

Proposition. — Si q:E\to k est une forme quadratique, il existe une unique forme bilinéaire symétrique f telle que q(x)=f(x,x). Cette forme est appelée la forme polaire de q et sera noté f_q.

Remarque. — On a f_q(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.

On peut utiliser f_q pour définir une application (linéaire) de E\to E^* de la façon suivante : \hat{f}_q\colon\left\{ \begin{array}{rcl} E & \longrightarrow & E^* \\ x & \longmapsto & \hat{f}_q(x)\colon\left\{ \begin{array}{rcl}E &\to & k\\ y & \mapsto & f_q(x,y) \end{array} \right. \end{array}\right.

:accept: À partir de maintenant, on supposera \dim(E)<+\infty.

Définition. — Si q est une forme quadratique, on définit :

Remarque.— On a toujours \dim(E)=\dim(N(q))+\mathrm{rg}(q).
:warning: On a toujours N(q)\subset \mathcal{C}(q) mais en général l’inclusion est stricte.

Définition. — On dit que la forme q est non dégénérée si N(q)=0 ou encore si \mathrm{rg}(q)=\dim(E).

Proposition. — Soient q une forme quadratique sur E et F\subset E un supplémentaire du noyau de q. La forme induite q_{\mid F}:F\to k est alors non dégénérée.

Remarque. — En écrivant x=x_F+x_{N} suivant la décomposition E=F\oplus N(q), on vérifie facilement que \forall\, x\in E,\ q(x)=q_{\mid F}(x_F).

Notion d’orthogonalité relativement à une forme quadratique

Définition. — Soit q une forme quadratique. Deux vecteurs x et y de E sont dits orthogonaux si f_q(x,y)=0. Si F\subset E est un sous-espace, le sous-espace F^\perp:=\left\{x\in E\mid \forall\,y\in F,\ f_q(x,y)=0\right\} est appelé l’orthogonal de F pour la forme q.

Remarque. — On vérifie facilement que F^{\perp} ={}^{\circ}\left(\hat{f}_q(F) \right) et que N(q)=E^\perp.

Proposition. —

  1. Le procédé F\longmapsto F^\perp est décroissant pour l’inclusion : si F\subset G, alors G^\perp\subset F^\perp. De plus, on a (F+G)^\perp=(F\cap G)^\perp.
  2. On a la relation \dim(F^\perp)=\dim(E)-\dim(F)+\dim(N(q)\cap F).
  3. Le double orthogonal de F est donné par F^{\perp\perp}=F+N(q).
  4. On a toujours une inclusion F^\perp+G^\perp\subset F^\perp\cap G^\perp qui peut être stricte si N(q) est non trivial.
  5. En particulier, si q est non dégénérée, on a alors \dim(E)=\dim(F)+\dim(F^\perp) et F^{\perp\perp}=F pour tout sous-espace F de E. Enfin, l’égalité F^\perp+G^\perp= F^\perp\cap G^\perp est vérifiée pour tous sous-espaces F et G de E (et q non dégénérée).

Proposition. — Soient q une forme quadratique sur E et F\subset E un sous-espace. La forme q_{\mid F} est non dégénérée si et seulement si F\cap F^\perp=0. Si de plus q est non dégénérée (sur E), on a également q_{\mid F} est non dégénérée si et seulement si E=F\oplus F^\perp.

:warning: Même si q est non dégénérée sur E, la forme quadratique q_{\mid F} peut avoir un noyau non trivial.

2. Interprétation matricielle

Définition. — Si \mathcal{B}=(e_1,\ldots,e_n) est une base de E, on pose Q:=\mathrm{Mat}_{\mathcal{B}}(q)=\left(f_q(e_i,e_j)\right)_{1\leq i,j\leq n} et on dit que Q est la matrice de q dans la base \mathcal{B}.

Remarque. — Par construction Q est une matrice symétrique. De plus, si x\in E est représenté par le vecteur colonne X dans la base \mathcal{B}, on a alors q(x)={}^t XQX. Enfin, si \mathcal{B}^*=(e_1^*,\ldots,e_n^*) est la base duale de \mathcal{B}, on a aussi Q=\mathrm{Mat}_{\mathcal{B}^*,\mathcal{B}}\left(\hat{f}_q \right).

Proposition. — On a clairement \mathrm{rg}(q)=\mathrm{rg}(Q) et N(q)=\mathrm{Ker}(Q) en identifiant E à k^n via la base \mathcal{B}.

Effet d’un changement de base

Si X=PX' avec P\in \mathrm{GL}_n(k), on a alors q(x)={}^tXQX={}^tX'({}^tPQP)X'.

Définition. – Deux matrices symétriques Q et Q' sont dites congruentes s’il existe P\in \mathrm{GL}_n(k) telle que Q'={}^tPQP.

Remarque. — On peut formuler cela au niveau des formes quadratiques. Deux formes quadratiques q et q' qont congruentes s’il existe u\in \mathrm{GL}(E) tel que q'=q\circ u.

Discriminant

Définition. — Si Q est la matrice de q (supposée non dégénérée) dans une base de E, on pose \mathrm{disc}(q):=\det(Q)\in k^*/(k^*)^2. Cette quantité est bien définie. Par convention, on pose \mathrm{disc}(q)=0 si q est dégénérée.

Remarque. — Le quotient k^*/(k^*)^2 est un groupe pour la multiplication. C’est un groupe d’exposant 2 : tout élément g\in k^*/(k^*)^2 vérifie g^2=1.

3. Réductions des formes quadratiques

Réduction en sommes de carrés

Théorème (réduction de Gauß). — Si q:E\to k est une forme quadratique, il existe une base orthogonale pour q. En d’autres termes, il existe une base de E dans laquelle la matrice de q est diagonale.

Reformulation matricielle. — Si Q est une matrice symétrique, il existe une matrice P\in\mathrm{GL}_n(k) telle que {}^tPQP est diagonale.

Corollaire. — Si q:E\to k est une forme quadratique, il existe des formes linéaires (\varphi_1,\ldots,\varphi_r)\in E^* formant une famille libre de E^* et des scalaires non nuls a_1,\ldots,a_r\in k^* tels que \forall\, x\in E,\ q(x)=\sum_{i=1}^r a_i\left(\varphi_i(x)\right)^2.

Remarque. — Le nombre de carrés (le nombre r avec les notations ci-dessus) n’est autre que le rang de q.

Classification : cas complexe

Théorème. — Soit q:E\to\mathbb{C} une forme quadratique avec E un \mathbb{C}-espace vectoriel de dimension finie. Si r=\mathrm{rg}(q), il existe une base de E pour laquelle q(x)=x_1^2+\cdots+x_r^2 où les x_i sont les coordonnées de x dans la base en question.
De façon équivalente, si Q est une matrice symétrique complexe de rang r, il existe P\in\mathrm{GL}_n(\mathbb{C}) telle que {}^tPQP=\begin{pmatrix} I_r & 0 \\ 0 & 0\end{pmatrix}.

Une forme quadratique complexe est donc uniquement caractérisée par son rang.

Classification : cas réel

Définition. — soit q:E\to \mathbb{R} une forme quadratique sur E un \mathbb{R}-espace vectoriel de dimension finie. On dit que q est positive (resp. négative) si \forall\,x\in E,\ q(x)\ge 0 (resp. \le). On dira que q est définie positive si q est positive et si, de plus, q(x)=0\Leftrightarrow x=0.

Remarque. — La forme q est positive si et seulement s’il n’y a que des signes + dans la décomposition de Gauß de q. De la même façon, q est définie positive si et seulement s’il y a exactement n signes + dans cette décomposition (avec n=\dim(E)).

Théorème. — Soit q:E\to \mathbb{R} une forme quadratique sur un espace vectoriel réel E. Il existe alors deux entiers s,t\ge0 et une base de E telle que \forall\, x\in E,\ q(x)=x_1^2+\cdots+x_s^2-x_{s+1}^2-\cdots-x_{s+t}^2.
De façons équivalente, si Q est une matrice symétrique réelle, il existe P\in\mathrm{GL}_n(\mathbb{R}) telle que {}^tPQP=\begin{pmatrix} I_s & 0 &0 \\ 0 & -I_t & 0\\ 0 & 0 & 0\end{pmatrix}. Le couple (s,t) est unique (loi d’inertie de Sylvester).

Remarque. — Avec les notations ci-dessus, on a \mathrm{rg}(q)=s+t.

Définition. — Le couple (s,t) s’appelle la signature de la forme réelle q.

Remarque. — Les valeurs de s et t s’obtiennent par les formules \begin{align*}s&=\max\left(\dim(F)\mid q_{\mid F}\ \text{est définie positive}\right), \\ t&=\max\left(\dim(G)\mid q_{\mid G}\ \text{est définie négative}\right).\end{align*}


Espaces euclidiens et hermitiens

Dans ce chapitre, le corps de base sera \mathbb{R} ou \mathbb{C} et les espaces de dimensions finies.

Produit scalaire

Généralités

Définition (cas euclidien). — Un produit scalaire sur un \mathbb{R}-espace vectoriel E est la donnée d’une forme bilinéaire définie positive.

Définition (cas hermitien). — Un produit scalaire sur un \mathbb{C}-espace vectoriel E est la donnée d’une application \langle -,-\rangle\colon E\times E\to \mathbb{C} vérifiant :

  1. (sesqui-linéarité) pour tout \lambda\in\mathbb{C} et (x,y,z)\in E, on a \langle \lambda x+y,z\rangle = \lambda\langle x,z\rangle + \langle y,z\rangle\quad \text{et}\quad \langle x,\lambda y +z\rangle = \overline{\lambda}\langle x,y\rangle + \langle x,z\rangle\ ;
  2. (symétrie hermitienne) pour tout (x,y)\in E, \langle x,y\rangle = \overline{\langle y,x\rangle} ;
  3. (positivité) pour tout x\in E, \langle x,x\rangle\ge 0 et \langle x,x\rangle= 0 si et seulement si x=0.

Norme associée à un produit scalaire

Si (E,\langle -,-\rangle) est un espace hermitien ou euclidien, on pose \Vert x\Vert=\sqrt{\langle x,x\rangle}.

Théorème. — Les inégalités suivantes sont vérifiées :

Corollaire. — L’application x\longmapsto \Vert x\Vert est une norme sur E.

Procédé de Gram–Schmidt

Définition. — Une famille (u_1,\ldots,u_p) de vecteurs de E est dite orthonormée si \langle u_j,u_k\rangle=\delta_{j,k} pour tout 1\le j,k\le p.

Remarque. — une famille orthonormée est toujours libre.

Proposition. — Soit (u_1,\ldots,u_p) une famille libre. Il existe alors (v_1,\ldots,v_p) une famille orthonormée telle que \forall\, k\in[\![1,p]\!],\ \mathrm{Vect}(u_1,\ldots, u_k)=\mathrm{Vect}(v_1,\ldots, v_k). De plus cette famille est unique si on impose de plus \langle u_k,v_k\rangle\in\mathbb{R}_+ pour tout 1\le k\le p.

Corollaire. — Tout espace euclidien/hermitien admet des bases orthonormées. De plus, toute famille orthonormée peut être complétée en une base orthonormée.

Adjoint d’un endomorphisme

Théorème. — Soit u\in\mathrm{End}(E) un endomorphisme. Il existe un unique endomorphisme noté u^*\in\mathrm{End}(E) tel que \forall\, (x,y)\in E\times E,\ \langle u(x), y\rangle = \langle x,u^*(y)\rangle. L’endomorphisme u^* s’appelle l’adjoint de u (relativement au produit scalaire \langle -,-\rangle).

:warning: Si E est hermitien, il faut faire attention à la chose suivante : (\lambda u)^*=\overline{\lambda}u^* pour tout \lambda\in\mathbb{C} et tout u\in\mathrm{End}(E). De manière générale, on a toujours (u+v)^*=u^*+v^* pour deux endomorphismes u et v.

Proposition. — Si \mathcal{B} est une base orthonormée de E et si u\in\mathrm{End}(E) est un endomorphisme, on a alors \mathrm{Mat}_\mathcal{B}\left( u^* \right)={}^t\overline{\mathrm{Mat}_\mathcal{B}(u)}.

Proposition. — Si u\in\mathrm{End}(E) et si F\subset E est stable par u, le sous-espace F^\perp est stable par u^*. De plus, on a tooujours \mathrm{Ker}\left(u^*\right) = \mathrm{Im}(u)^\perp\quad \text{et}\quad \mathrm{Im}\left(u^*\right) = \mathrm{Ker}(u)^\perp.

Groupe unitaire/orthogonal

Définition. — Un endomorphisme u est dit unitaire (cas hermitien) ou orthogonal (cas euclidien) si \forall\, (x,y)\in E,\ \langle u(x),u(y)\rangle =\langle x,y\rangle. On note \mathrm{U}(E) l’ensemble des endomorphismes unitaires et \mathrm{O}(E) dans le cas orthogonal.

Remarque. — Un endomorphisme u est unitaire/orthogonal si et seulement s’il est inversible et si u^*=u^{-1}. Si on fixe une base orthonormée \mathcal{B}$ de E et si on note A=\mathrm{Mat}_\mathcal{B}(u), on a alors u\in \mathrm{U}(E)\ (\text{resp.}\ \mathrm{O}(E)) \Longleftrightarrow {}^t\overline{A}A=\mathrm{I}_n\ (\text{resp.}\ {}^tAA=\mathrm{I}_n). On note \mathrm{U}_n et \mathrm{O}_n(\mathbb{R}) les ensembles de matrices correspondants. Ce sont des sous-groupes de \mathrm{GL}_n(\mathbb{C}) et \mathrm{GL}_n(\mathbb{R}) respectivement.

Proposition. — Une matrice A\in \mathrm{GL}_n(\mathbb{C}) est unitaire si et seulement si ses colonnes (ou lignes) forment une base orthonormée de \mathbb{C}^n pour le produit scalaire usuel.

Endomorphismes normaux

Définition. — Un endomorphisme u\in\mathrm{End}(E) est dit normal si u\circ u^* = u^*\circ u.

Remarque. — Matriciellement cela revient à A{}^t\overline{A}={}^t\overline{A}A si A est la matrice de u dans une base orthonormée.

Théorème. — Un endomorphisme est normal si set seulement s’il est diagonalisable dans une base orthonormée. Si A\in\mathrm{GL}_n(\mathbb{C}) vérifie A{}^t\overline{A}={}^t\overline{A}A, alors il existe U\in\mathrm{U}_n et \lambda_1,\ldots,\lambda_n\in\mathbb{C} tels que A=U\begin{pmatrix}\lambda_1 & 0 & 0\\ 0 & \ddots & 0\\ 0&0&\lambda_n\end{pmatrix}{}^t\overline{U}.