cours
, ALBI
On fixe ici un corps k et on pourra penser à k=R, C ou encore Fq voire à Fq(t).
Si E et F sont des k-espaces vectoriels, on notera Hom(E,F)={f:E→F linéaire}, End(E)=Hom(E,E) et E∗=Hom(E,k).
On utilisera régulièrement les faits suivants (conséquences de l’axiome du choix) :
Proposition-Définition. — Soit F⊂E un sous-espace du k-espace vectoriel E. La relation x∼Fy⇔x−y∈F est une relation d’équivalence dont on notera E/F l’ensemble quotient. Si πF:E→E/F désigne la projection canonique, il existe sur E/F une unique structure de k-espace vectoriel qui fasse de πF une application linéaire.
Remarques. —
- πF est surjective et son noyau est Ker(πF)=F.
- Tout supplémentaire de F est isomorphe via πF à E/F.
- L’espace E/F n’est pas (naturellement) un sous-espace de E.
Propriété universelle du quotient. — Soient f:E1→E2 une application linéaire et F⊂E1 un sous-espace de E1. Il existe une application ˜f:E1/F→E2 telle que f=˜f∘πF si et seulement si F⊂Ker(f). Dans ce cas Im(˜f)=Im(f)etKer(˜f)=Ker(f)/F. En particulier, ˜f est injective si et seulement si F=Ker(f).
Corollaire 1. — Si F⊂E1 est un sous-espace, toute application linéaire f:E1→E2 induit une application ˜f:E1/F→E2/f(F).
En particulier, toute application linéaire f:E1→E2 induit un isomorphisme ˜f:E1/Ker(f) ∼ →Im(f).
Cas de la dimension finie. — Si E est de dimension finie, alors E/F aussi et on a dim(E/F)=dim(E)−dim(F). On appelle codimension de F (dans E) l’entier codimE(F):=dim(E/F).
Remarque. — Même si E est de dimension infinie, certains sous-espaces sont de codimension finie. Par exemple, si f∈E∗ est une forme linéaire non nulle, alors F=Ker(f)⊂E est de codimension 1 (et réciproquement !).
Définition. — Pour u:E1→E2 linéaire entre espaces vectoriels, on pose : tu:{E∗2⟶E∗1f⟼tu(f)=f∘u. C’est une application linéaire : tu∈Hom(E∗2,E∗1). De plus, l’application u↦tu est une application linéaire de Hom(E1,E2)→Hom(E∗2,E∗1) qui vérifie t(u∘v)=tu∘tv (quand cela a un sens).
On dit que la dualité est un foncteur contravariant entre espaces vectoriels sur un même corps de base.
Proposition. — L’application naturelle (avec E un k-espace vectoriel) jE:{E⟶E∗∗x⟼jE(x):{E∗→kf↦f(x). est linéaire et injective. En particulier, si E est de dimension finie, alors jE:E→E∗∗ est un isomorphisme.
Remarque. — En dimension infinie, l’application jE n’est jamais surjective. On pourra se reporter à cette note de Matthieu Romagny.
Soit E un k-espace vectoriel et B=(xi)i∈I une base de E. Tout élément x de E s’écrit donc de manière unique x=∑i∈Iλixi avec seulement un nombre fini de λi non nuls. Si on fixe i∈I, on pose x∗i(x)=λi et ceci définit une application x∗i:E→k.
Définition. — La famille (x∗i)i∈I s’appelle la famille duale de la base (xi)i∈I. Si E est de dimension finie, on parle de base duale car dans ce cas la famille (x∗i)i∈I est une base de E∗.
Remarque. — Si dim(E)=+∞, la famille (x∗i)i∈I n’est jamais une base de E∗ (cf. ici).
Proposition. —
Proposition-Définition. —
Si E est de dimension finie et B=(x1,…,xn) est une base de E, alors jB est un isomorphisme et B∗=(x∗1,…,x∗n) est une base de E∗. La famille B∗ s’appelle la base duale de la base B.
Réciproquement, si B∗ est une base de E∗, alors il existe une unique base B de E dont elle est la base duale. La base B est dite base pré-duale de la base B∗.
Pour E un espace vectoriel, A⊂E et B⊂E∗ des parties non vides de E et E∗, on pose : A∘={f∈E∗∣∀a∈A, f(a)=0}⊂E∗et∘B={x∈E∣∀f∈B, f(x)=0}⊂E.
Proposition. —
On peut décrire l’orthogonal de l’orthogonal de la façon suivante (noter la différence entre l’espace initial et son dual).
Proposition. —
On peut relier les deux notions d’orthogonalité via la bidualité.
Proposition. — Si B est une partie de E∗, on a alors jE(∘B)⊂B∘.
Remarque. — En dimension infinie, il faut être prudent. En effet, si B={0}⊂E∗, on a ∘B=E et B∘=E∗∗. Or, nous avons ci-dessus que jE(E)⊊E∗∗ en dimension infinie : l’inclusion jE(∘B)⊂B∘ est donc en général stricte.
On s’intéresse tout d’abord au cas où les sous-espaces sont de dimension finie.
Proposition. —
Le deuxième point de l’énoncé précédent est parfois exprimé sous la forme équivalente suivante.
Proposition. — Soit (φ1,…,φn)∈(E∗)n une famille de formes linéaires. Le rang de la famille (φ1,…,φn) est égal au rang de l’application linéaire Φ:{E⟶knx⟼(φ1(x),…,φn(x)).
Enfin, quand l’espace ambiant est de dimension finie, tout se passe au mieux.
Proposition. — Soient E un espace de dimension finie, F un sous-espace de E et G un sous-espace de E∗.
Dans toute cette deuxième partie, E est un k-espace vectoriel de dimension finie et u:E→E une application linéaire.
Le morphisme d’évaluation en u est un morphisme d’algèbre : evu:{k[X]⟶End(E)P⟼P(u). Définition. — La sous-algèbre de End(E) engendrée par u est l’image de evu. Son noyau est de la forme Ker(evu)=(μu):={Qμu∣Q∈k[X]} pour un unique polynôme μu unitaire qui est appelé le polynôme minimal de u.
Si maintenant x∈E est un vecteur fixé, on peut considérer : evu,x:{k[X]⟶EP⟼P(u)(x). On vérifie facilement de Ker(evu,x) est également un idéal de K[X].
Définition. —
Remarque. — Le sous-espace F=k[u]⋅x est stable par u et u∣F est cyclique !
Définition. — Le polynôme χu(X):=det s’appelle le polynôme caractéristique de u.
Théorème (Cayley–Hamilton). — Le polynôme minimal divise le polynôme caractéristique.
Proposition. — Un endomorphisme u est cyclique si et seulement si \mu_u=\chi_u.
Lemme des noyaux. — Si P=P_1\cdots P_r où les polynômes P_i sont deux à deux premiers entre eux, on a alors : \mathrm{Ker}(P(u))=\bigoplus_{i=1}^r\mathrm{Ker}(P_i(u)). Les projecteurs \pi_i\colon\mathrm{Ker}(P(u))\to \mathrm{Ker}(P_i(u)) sont des polynômes en u.
Proposition. — Les polynômes \mu_u et \chi_u ont mêmes facteurs irréductibles. On peut donc écrire \mu_u=P_1^{\alpha_1}\cdots P_r^{\alpha_r}\quad\text{et}\quad \chi_u=P_1^{\beta_1}\cdots P_r^{\beta_r} avec \alpha_i\le\beta_i pour i=1,\ldots,r.
Corollaire. — Les décompositions associées à \mu_u et \chi_u sont les mêmes : E=\bigoplus_{i=1}\mathrm{Ker}\left(P_i^{\alpha_i}(u)\right)=\bigoplus_{i=1}\mathrm{Ker}\left(P_i^{\beta_i}(u)\right). Les sous-espaces F_i:=\mathrm{Ker}\left(P_i^{\alpha_i}(u)\right)=\mathrm{Ker}\left(P_i^{\beta_i}(u)\right) s’appellent les sous-espaces caractéristiques de u et sont de dimension \dim(F_i)=\beta_i\deg(P_i).
Théorème (Frobenius). — Soit u\in\mathrm{End}(E). Il existe alors une décomposition E=E_1\oplus\cdots\oplus E_r de E en sous-espaces cycliques pour u (cela signifique que E_i est u-stable et que u_{\mid E_i} est cyclique pour tout i=1,\ldots, r) vérifiant de plus \mu_{u_{\mid E_1}}=\mu_u et pour tout i=2,\ldots,r, \mu_{u_{\mid E_i}} divise \mu_{u_{\mid E_{i-1}}}.
Si on note P_i=\mu_{u_{\mid E_i}}, la suite de polynômes (P_1,P_2,\ldots,P_r) vérifie donc P_1=\mu_u et P_i divise P_{i-1} pour i=2,\ldots,r. Cette suite est unique (elle ne dépend pas de la décomposition choisie) et elle caractérise complètement la classe de similitude de u.
Version matricielle. — Soit A\in\mathrm{M}_n(k). Il existe une matrice inversible Q\in\mathrm{GL}_n(k) et une unique suite de polynômes (P_1,P_2,\ldots,P_r) avec P_1=\mu_u et P_i divise P_{i-1} pour i=2,\ldots,r telle que : QAQ^{-1}= \begin{pmatrix} C_{P_1} & 0 & \cdots & 0\\ 0 & C_{P_2} & \ddots & \vdots \\ \vdots &\ddots & \ddots & 0 \\0 & \cdots & 0 & C_{P_r} \end{pmatrix} où C_{P_i} est la matrice compagnon associée au polynôme P_i.
Lemme. — Soit u\in\mathrm{End}(E). Il existe alors x\in E tel que \mu_{u,x}=\mu_u.
Lemme. — Si u\in\mathrm{End}(E) et x\in E tel que \mu_{u,x}=\mu_u, alors le sous-espace k[u]\cdot x\subset E admet un supplémentaire stable par u.
On considère maintenant u\in\mathrm{End}(E) tel que \chi_u=\prod_{i=1}^p(X-\lambda_i)^{\alpha_i} est scindé.
Théorème (Jordan–Chevalley). — Il existe un unique couple d’endomorphismes (d,n) vérifiant :
Le couple (d,n) s’appelle la décomposition de Jordan–Chevalley de l’endomorphisme u.
Lemme. — Pour u\in\mathrm{End}(E), on pose K_i:=\mathrm{Ker}(u^i). On a évidemment K_{i}\subset K_{i+1}. L’application u induit une application injective u_i\colon K_{i+1}/K_i\hookrightarrow K_i/K_{i-1} pour tout i\ge1. La suite m_i:=\dim(K_{i+1})-\dim(K_{i}) (pour i\ge 0) est donc d’abord strictement décroissante puis nulle à partir d’un certain rang. Si p=\inf(i\ge1\mid m_i=0), on a donc (0)\subsetneq K_1 \subsetneq K_2\subsetneq \cdots\subsetneq K_p=K_{p+1}=\cdots En particulier, si u est nilpotent, on a p=\inf(i\ge1\mid u^i=0).
Lemme. — La matrice J_n=\begin{pmatrix}0 & 1 & 0 & \cdots & 0\\ 0 & 0 & 1 & \ddots & \vdots \\ 0 & \cdots & 0 & \ddots & 0 \\ \vdots & \ddots & \ddots & \ddots & 1 \\ 0 & \cdots & \cdots & \cdots & 0\end{pmatrix} vérifie :
Théorème (Jordan). — Pour tout endomorphisme nilpotent u\in\mathrm{End}(E), il existe une base \mathcal{B} de E et une suite d’entiers 1\le d_1\le d_2\le\cdots\le d_r telles que \mathrm{Mat}_{\mathcal{B}}(u)=\begin{pmatrix}J_{d_1} & 0 & \cdots & 0\\ 0& J_{d_2} & \ddots & \vdots \\ \vdots & \ddots & \ddots & 0 \\ 0 & \cdots & 0 & J_{d_r} \end{pmatrix}. La suite d’entiers 1\le d_1\le d_2\le\cdots\le d_r est uniquement déterminée par u et elle caractérise complètement la classe de similitude de u.
Réduction de Jordan. — Soit u\in\mathrm{End}(E) avec \chi_u=\prod_{i=1}^p(X-\lambda_i)^{\alpha_i}. Pour chaque i=1,\ldots, p, il existe une partition 1\le d^{(i)}_1\le \cdots \le d^{(i)}_{r_i} de \alpha_i (c’est-à-dire une ralation \alpha_i=\sum_{j=1}^{r_i}d^{(i)}_j) et une base de E telle que la matrice de u dans cette base soit diagonale par blocs avec des blocs de la forme J_{d^{(i)}_j}(\lambda_i)\colon= \lambda_i\mathrm{Id}+J_{d^{(i)}_j} pour i=1,\ldots, p et j=1,\ldots,r_i.
Remarque. — À nouveau, la donnée des \lambda_i et des suites d’entiers 1\le d^{(i)}_1\le \cdots \le d^{(i)}_{r_i} caractérise la classe de similitude de u. En particulier, si k=\mathbb{C}, tout endomorphisme a un polynôme caractéristique scindé et la réduction de Jordan fournit une description complète des classes de similitude.
Dans tout ce chapitre, k sera un corps de caractéristique de 2.
Définition. — Une forme quadratique sur un espace vectoriel E sur k est une application q:E\to k telle qu’il existe f:E\times E\to k une forme bilinéaire avec q(x)=f(x,x) pour tout x\in k.
Remarque. — On peut écrire f(x,y)=f_{\mathrm{sym}}(x,y)+f_{\mathrm{alt}}(x,y) avec f_{\mathrm{sym}}(x,y)=\frac{f(x,y)+f(y,x)}{2}\quad\text{et}\quad f_{\mathrm{alt}}(x,y)=\frac{f(x,y)-f(y,x)}{2}. Les formes bilinéaires f_{\mathrm{sym}} et f_{\mathrm{alt}} sont respectivement symétrique et alternée. Enfin, on a clairement f(x,x)=f_{\mathrm{sym}}(x,x). Une forme quadratique peut donc être décrite par une forme bilinéaire symétrique.
Proposition. — Si q:E\to k est une forme quadratique, il existe une unique forme bilinéaire symétrique f telle que q(x)=f(x,x). Cette forme est appelée la forme polaire de q et sera noté f_q.
Remarque. — On a f_q(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.
On peut utiliser f_q pour définir une application (linéaire) de E\to E^* de la façon suivante : \hat{f}_q\colon\left\{ \begin{array}{rcl} E & \longrightarrow & E^* \\ x & \longmapsto & \hat{f}_q(x)\colon\left\{ \begin{array}{rcl}E &\to & k\\ y & \mapsto & f_q(x,y) \end{array} \right. \end{array}\right.
À partir de maintenant, on supposera \dim(E)<+\infty.
Définition. — Si q est une forme quadratique, on définit :
Remarque.— On a toujours \dim(E)=\dim(N(q))+\mathrm{rg}(q).
On a toujours N(q)\subset \mathcal{C}(q) mais en général l’inclusion est stricte.
Définition. — On dit que la forme q est non dégénérée si N(q)=0 ou encore si \mathrm{rg}(q)=\dim(E).
Proposition. — Soient q une forme quadratique sur E et F\subset E un supplémentaire du noyau de q. La forme induite q_{\mid F}:F\to k est alors non dégénérée.
Remarque. — En écrivant x=x_F+x_{N} suivant la décomposition E=F\oplus N(q), on vérifie facilement que \forall\, x\in E,\ q(x)=q_{\mid F}(x_F).
Définition. — Soit q une forme quadratique. Deux vecteurs x et y de E sont dits orthogonaux si f_q(x,y)=0. Si F\subset E est un sous-espace, le sous-espace F^\perp:=\left\{x\in E\mid \forall\,y\in F,\ f_q(x,y)=0\right\} est appelé l’orthogonal de F pour la forme q.
Remarque. — On vérifie facilement que F^{\perp} ={}^{\circ}\left(\hat{f}_q(F) \right) et que N(q)=E^\perp.
Proposition. —
Proposition. — Soient q une forme quadratique sur E et F\subset E un sous-espace. La forme q_{\mid F} est non dégénérée si et seulement si F\cap F^\perp=0. Si de plus q est non dégénérée (sur E), on a également q_{\mid F} est non dégénérée si et seulement si E=F\oplus F^\perp.
Même si q est non dégénérée sur E, la forme quadratique q_{\mid F} peut avoir un noyau non trivial.
Définition. — Si \mathcal{B}=(e_1,\ldots,e_n) est une base de E, on pose Q:=\mathrm{Mat}_{\mathcal{B}}(q)=\left(f_q(e_i,e_j)\right)_{1\leq i,j\leq n} et on dit que Q est la matrice de q dans la base \mathcal{B}.
Remarque. — Par construction Q est une matrice symétrique. De plus, si x\in E est représenté par le vecteur colonne X dans la base \mathcal{B}, on a alors q(x)={}^t XQX. Enfin, si \mathcal{B}^*=(e_1^*,\ldots,e_n^*) est la base duale de \mathcal{B}, on a aussi Q=\mathrm{Mat}_{\mathcal{B}^*,\mathcal{B}}\left(\hat{f}_q \right).
Proposition. — On a clairement \mathrm{rg}(q)=\mathrm{rg}(Q) et N(q)=\mathrm{Ker}(Q) en identifiant E à k^n via la base \mathcal{B}.
Si X=PX' avec P\in \mathrm{GL}_n(k), on a alors q(x)={}^tXQX={}^tX'({}^tPQP)X'.
Définition. – Deux matrices symétriques Q et Q' sont dites congruentes s’il existe P\in \mathrm{GL}_n(k) telle que Q'={}^tPQP.
Remarque. — On peut formuler cela au niveau des formes quadratiques. Deux formes quadratiques q et q' qont congruentes s’il existe u\in \mathrm{GL}(E) tel que q'=q\circ u.
Définition. — Si Q est la matrice de q (supposée non dégénérée) dans une base de E, on pose \mathrm{disc}(q):=\det(Q)\in k^*/(k^*)^2. Cette quantité est bien définie. Par convention, on pose \mathrm{disc}(q)=0 si q est dégénérée.
Remarque. — Le quotient k^*/(k^*)^2 est un groupe pour la multiplication. C’est un groupe d’exposant 2 : tout élément g\in k^*/(k^*)^2 vérifie g^2=1.
Théorème (réduction de Gauß). — Si q:E\to k est une forme quadratique, il existe une base orthogonale pour q. En d’autres termes, il existe une base de E dans laquelle la matrice de q est diagonale.
Reformulation matricielle. — Si Q est une matrice symétrique, il existe une matrice P\in\mathrm{GL}_n(k) telle que {}^tPQP est diagonale.
Corollaire. — Si q:E\to k est une forme quadratique, il existe des formes linéaires (\varphi_1,\ldots,\varphi_r)\in E^* formant une famille libre de E^* et des scalaires non nuls a_1,\ldots,a_r\in k^* tels que \forall\, x\in E,\ q(x)=\sum_{i=1}^r a_i\left(\varphi_i(x)\right)^2.
Remarque. — Le nombre de carrés (le nombre r avec les notations ci-dessus) n’est autre que le rang de q.
Théorème. — Soit q:E\to\mathbb{C} une forme quadratique avec E un \mathbb{C}-espace vectoriel de dimension finie. Si r=\mathrm{rg}(q), il existe une base de E pour laquelle q(x)=x_1^2+\cdots+x_r^2 où les x_i sont les coordonnées de x dans la base en question.
De façon équivalente, si Q est une matrice symétrique complexe de rang r, il existe P\in\mathrm{GL}_n(\mathbb{C}) telle que {}^tPQP=\begin{pmatrix} I_r & 0 \\ 0 & 0\end{pmatrix}.
Une forme quadratique complexe est donc uniquement caractérisée par son rang.
Définition. — soit q:E\to \mathbb{R} une forme quadratique sur E un \mathbb{R}-espace vectoriel de dimension finie. On dit que q est positive (resp. négative) si \forall\,x\in E,\ q(x)\ge 0 (resp. \le). On dira que q est définie positive si q est positive et si, de plus, q(x)=0\Leftrightarrow x=0.
Remarque. — La forme q est positive si et seulement s’il n’y a que des signes + dans la décomposition de Gauß de q. De la même façon, q est définie positive si et seulement s’il y a exactement n signes + dans cette décomposition (avec n=\dim(E)).
Théorème. — Soit q:E\to \mathbb{R} une forme quadratique sur un espace vectoriel réel E. Il existe alors deux entiers s,t\ge0 et une base de E telle que \forall\, x\in E,\ q(x)=x_1^2+\cdots+x_s^2-x_{s+1}^2-\cdots-x_{s+t}^2.
De façons équivalente, si Q est une matrice symétrique réelle, il existe P\in\mathrm{GL}_n(\mathbb{R}) telle que {}^tPQP=\begin{pmatrix} I_s & 0 &0 \\ 0 & -I_t & 0\\ 0 & 0 & 0\end{pmatrix}. Le couple (s,t) est unique (loi d’inertie de Sylvester).
Remarque. — Avec les notations ci-dessus, on a \mathrm{rg}(q)=s+t.
Définition. — Le couple (s,t) s’appelle la signature de la forme réelle q.
Remarque. — Les valeurs de s et t s’obtiennent par les formules \begin{align*}s&=\max\left(\dim(F)\mid q_{\mid F}\ \text{est définie positive}\right), \\ t&=\max\left(\dim(G)\mid q_{\mid G}\ \text{est définie négative}\right).\end{align*}
Dans ce chapitre, le corps de base sera \mathbb{R} ou \mathbb{C} et les espaces de dimensions finies.
Définition (cas euclidien). — Un produit scalaire sur un \mathbb{R}-espace vectoriel E est la donnée d’une forme bilinéaire définie positive.
Définition (cas hermitien). — Un produit scalaire sur un \mathbb{C}-espace vectoriel E est la donnée d’une application \langle -,-\rangle\colon E\times E\to \mathbb{C} vérifiant :
Si (E,\langle -,-\rangle) est un espace hermitien ou euclidien, on pose \Vert x\Vert=\sqrt{\langle x,x\rangle}.
Théorème. — Les inégalités suivantes sont vérifiées :
Corollaire. — L’application x\longmapsto \Vert x\Vert est une norme sur E.
Définition. — Une famille (u_1,\ldots,u_p) de vecteurs de E est dite orthonormée si \langle u_j,u_k\rangle=\delta_{j,k} pour tout 1\le j,k\le p.
Remarque. — une famille orthonormée est toujours libre.
Proposition. — Soit (u_1,\ldots,u_p) une famille libre. Il existe alors (v_1,\ldots,v_p) une famille orthonormée telle que \forall\, k\in[\![1,p]\!],\ \mathrm{Vect}(u_1,\ldots, u_k)=\mathrm{Vect}(v_1,\ldots, v_k). De plus cette famille est unique si on impose de plus \langle u_k,v_k\rangle\in\mathbb{R}_+ pour tout 1\le k\le p.
Corollaire. — Tout espace euclidien/hermitien admet des bases orthonormées. De plus, toute famille orthonormée peut être complétée en une base orthonormée.
Théorème. — Soit u\in\mathrm{End}(E) un endomorphisme. Il existe un unique endomorphisme noté u^*\in\mathrm{End}(E) tel que \forall\, (x,y)\in E\times E,\ \langle u(x), y\rangle = \langle x,u^*(y)\rangle. L’endomorphisme u^* s’appelle l’adjoint de u (relativement au produit scalaire \langle -,-\rangle).
Si E est hermitien, il faut faire attention à la chose suivante : (\lambda u)^*=\overline{\lambda}u^* pour tout \lambda\in\mathbb{C} et tout u\in\mathrm{End}(E). De manière générale, on a toujours (u+v)^*=u^*+v^* pour deux endomorphismes u et v.
Proposition. — Si \mathcal{B} est une base orthonormée de E et si u\in\mathrm{End}(E) est un endomorphisme, on a alors \mathrm{Mat}_\mathcal{B}\left( u^* \right)={}^t\overline{\mathrm{Mat}_\mathcal{B}(u)}.
Proposition. — Si u\in\mathrm{End}(E) et si F\subset E est stable par u, le sous-espace F^\perp est stable par u^*. De plus, on a tooujours \mathrm{Ker}\left(u^*\right) = \mathrm{Im}(u)^\perp\quad \text{et}\quad \mathrm{Im}\left(u^*\right) = \mathrm{Ker}(u)^\perp.
Définition. — Un endomorphisme u est dit unitaire (cas hermitien) ou orthogonal (cas euclidien) si \forall\, (x,y)\in E,\ \langle u(x),u(y)\rangle =\langle x,y\rangle. On note \mathrm{U}(E) l’ensemble des endomorphismes unitaires et \mathrm{O}(E) dans le cas orthogonal.
Remarque. — Un endomorphisme u est unitaire/orthogonal si et seulement s’il est inversible et si u^*=u^{-1}. Si on fixe une base orthonormée \mathcal{B}$ de E et si on note A=\mathrm{Mat}_\mathcal{B}(u), on a alors u\in \mathrm{U}(E)\ (\text{resp.}\ \mathrm{O}(E)) \Longleftrightarrow {}^t\overline{A}A=\mathrm{I}_n\ (\text{resp.}\ {}^tAA=\mathrm{I}_n). On note \mathrm{U}_n et \mathrm{O}_n(\mathbb{R}) les ensembles de matrices correspondants. Ce sont des sous-groupes de \mathrm{GL}_n(\mathbb{C}) et \mathrm{GL}_n(\mathbb{R}) respectivement.
Proposition. — Une matrice A\in \mathrm{GL}_n(\mathbb{C}) est unitaire si et seulement si ses colonnes (ou lignes) forment une base orthonormée de \mathbb{C}^n pour le produit scalaire usuel.
Définition. — Un endomorphisme u\in\mathrm{End}(E) est dit normal si u\circ u^* = u^*\circ u.
Remarque. — Matriciellement cela revient à A{}^t\overline{A}={}^t\overline{A}A si A est la matrice de u dans une base orthonormée.
Théorème. — Un endomorphisme est normal si set seulement s’il est diagonalisable dans une base orthonormée. Si A\in\mathrm{GL}_n(\mathbb{C}) vérifie A{}^t\overline{A}={}^t\overline{A}A, alors il existe U\in\mathrm{U}_n et \lambda_1,\ldots,\lambda_n\in\mathbb{C} tels que A=U\begin{pmatrix}\lambda_1 & 0 & 0\\ 0 & \ddots & 0\\ 0&0&\lambda_n\end{pmatrix}{}^t\overline{U}.