# Plan du cours ALBI (L3 Rennes, 2024--2025)
###### tags: `cours`, `ALBI`
[toc]
---
## Compléments d'algèbre linéaire
On fixe ici un corps $k$ et on pourra penser à $k=\mathbb{R}$, $\mathbb{C}$ ou encore $\mathbb{F}_q$ voire à $\mathbb{F}_q(t)$.
Si $E$ et $F$ sont des $k$-espaces vectoriels, on notera $\mathrm{Hom}(E,F)=\{f\colon E\to F\ \text{linéaire}\}$, $\mathrm{End}(E)=\mathrm{Hom}(E,E)$ et $E^*=\mathrm{Hom}(E,k)$.
On utilisera régulièrement les faits suivants (conséquences de l'axiome du choix) :
1. Tout espace vectoriel admet une base.
2. Toute famille libre d'un espace vectoriel peut être compléter en une base. En particulier, tout sous-espace d'un espace vectoriel admet un supplémentaire.
### 1. Espaces vectoriels quotients
**Proposition-Définition. ---** Soit $F\subset E$ un sous-espace du $k$-espace vectoriel $E$. La relation $x\sim_F y\Leftrightarrow x-y\in F$ est une relation d'équivalence dont on notera $E/F$ l'ensemble quotient. Si $\pi_F:E\to E/F$ désigne la projection canonique, il existe sur $E/F$ une unique structure de $k$-espace vectoriel qui fasse de $\pi_F$ une application linéaire.
>**Remarques. ---**
>1. $\pi_F$ est surjective et son noyau est $\mathrm{Ker}(\pi_F)=F$.
>2. Tout supplémentaire de $F$ est isomorphe *via* $\pi_F$ à $E/F$.
>3. L'espace $E/F$ n'est pas (naturellement) un sous-espace de $E$.
**Propriété universelle du quotient. ---** Soient $f:E_1\to E_2$ une application linéaire et $F\subset E_1$ un sous-espace de $E_1$. Il existe une application $\widetilde{f}:E_1/F\to E_2$ telle que $f=\widetilde{f}\circ\pi_F$ si et seulement si $F\subset \mathrm{Ker}(f)$. Dans ce cas $$\mathrm{Im}(\widetilde{f})=\mathrm{Im}(f)\quad\text{et}\quad\mathrm{Ker}(\widetilde{f})=\mathrm{Ker}(f)/F.$$ En particulier, $\widetilde{f}$ est injective si et seulement si $F=\mathrm{Ker}(f)$.
**Corollaire 1. ---** Si $F\subset E_1$ est un sous-espace, toute application linéaire $f:E_1\to E_2$ induit une application $\widetilde{f}:E_1/F\xrightarrow{} E_2/f(F)$.
En particulier, toute application linéaire $f:E_1\to E_2$ induit un isomorphisme $$\widetilde{f}:E_1/\mathrm{Ker}(f)\xrightarrow{\ \sim \ } \mathrm{Im}(f).$$
**Cas de la dimension finie. ---** Si $E$ est de dimension finie, alors $E/F$ aussi et on a $$\dim(E/F)=\dim(E)-\dim(F).$$ On appelle *codimension* de $F$ (dans E) l'entier $\mathrm{codim}_E(F):=\dim(E/F)$.
>**Remarque. ---** Même si $E$ est de dimension infinie, certains sous-espaces sont de codimension finie. Par exemple, si $f\in E^*$ est une forme linéaire non nulle, alors $F=\mathrm{Ker}(f)\subset E$ est de codimension $1$ (et réciproquement !).
### 2. Dualité
#### Notions intrinsèques
**Définition. ---** Pour $u:E_1\to E_2$ linéaire entre espaces vectoriels, on pose : $${}^t u\colon \left\{ \begin{array}{rcl} E_2^* & \longrightarrow & E_1^*\\
f& \longmapsto & {}^t u(f)=f\circ u.\end{array} \right.$$ C'est une application linéaire : ${}^t u\in\mathrm{Hom}(E_2^*,E_1^*)$. De plus, l'application $u\mapsto {}^t u$ est une application linéaire de $\mathrm{Hom}(E_1,E_2)\to\mathrm{Hom}(E_2^*,E_1^*)$ qui vérifie ${}^t(u\circ v)={}^t u\circ {}^t v$ (quand cela a un sens).
On dit que la dualité est un *foncteur contravariant* entre espaces vectoriels sur un même corps de base.
**Proposition. ---** L'application naturelle (avec $E$ un $k$-espace vectoriel) $$j_E\colon\left\{ \begin{array}{rcl} E & \longrightarrow & E^{**}\\
x & \longmapsto & j_E(x)\colon\left\{ \begin{array}{rcl} E^* &\to & k \\ f & \mapsto & f(x).\end{array}\right.\end{array} \right.$$ est linéaire et **injective**. En particulier, si $E$ est de dimension finie, alors $j_E:E\to E^{**}$ est un isomorphisme.
>**Remarque. ---** En dimension infinie, l'application $j_E$ n'est **jamais** surjective. On pourra se reporter à cette [note](https://perso.univ-rennes1.fr/matthieu.romagny/agreg/theme/dual_en_dim_infinie.pdf) de Matthieu Romagny.
#### Familles duales
Soit $E$ un $k$-espace vectoriel et $\mathcal{B}=(x_i)_{i\in I}$ une base de $E$. Tout élément $x$ de $E$ s'écrit donc de manière unique $x=\sum_{i\in I}\lambda_i x_i$ avec seulement un nombre **fini** de $\lambda_i$ non nuls. Si on fixe $i\in I$, on pose $x_i^*(x)=\lambda_i$ et ceci définit une application $x_i^*:E\to k$.
**Définition. ---** La famille $(x_i^*)_{i\in I}$ s'appelle la famille duale de la base $(x_i)_{i\in I}$. Si $E$ est de dimension finie, on parle de **base duale** car dans ce cas la famille $(x_i^*)_{i\in I}$ est une base de $E^*$.
>**Remarque. ---** Si $\dim(E)=+\infty$, la famille $(x_i^*)_{i\in I}$ n'est **jamais** une base de $E^*$ (cf. [ici](https://perso.univ-rennes1.fr/matthieu.romagny/agreg/theme/dual_en_dim_infinie.pdf)).
**Proposition. ---**
1. On a $x=\sum_{i\in I} x_i^*(x)x_i$ pour tout $x\in E$.
1. La famille $(x^*_i)_{i\in I}$ est libre.
2. L'application $$j_{\mathcal{B}}\colon\left\{\begin{array}{rcl} E & \longrightarrow & E^*\\ x & \longmapsto & \sum_{i\in I}x_i^*(x)x_i^*\end{array}\right.$$ est injective, d'image $\mathrm{Im}(j_{\mathcal{B}})=\mathrm{Vect}(x_i^*,\, i\in I)$, caractérisée par : $$\varphi \in\mathrm{Im}(j_{\mathcal{B}})\Longleftrightarrow \mathrm{Card}\left\{i\in I\mid \varphi(x_i)\neq 0 \right\}<+\infty$$
**Proposition-Définition. ---**
Si $E$ est de **dimension finie** et $\mathcal{B}=(x_1,\ldots,x_n)$ est une base de $E$, alors $j_{\mathcal{B}}$ est un isomorphisme et $\mathcal{B}^*=(x_1^*,\ldots,x_n^*)$ est une base de $E^*$. La famille $\mathcal{B}^*$ s'appelle la *base duale* de la base $\mathcal{B}$.
Réciproquement, si $\mathcal{B}^*$ est une base de $E^*$, alors il existe une unique base $\mathcal{B}$ de $E$ dont elle est la base duale. La base $\mathcal{B}$ est dite *base pré-duale* de la base $\mathcal{B}^*$.
#### Orthogonalité duale
Pour $E$ un espace vectoriel, $A\subset E$ et $B\subset E^*$ des parties non vides de $E$ et $E^*$, on pose : $$A^\circ=\{ f\in E^*\mid \forall\, a\in A,\ f(a)=0\}\subset E^*\quad\text{et}\quad {}^\circ B=\{x\in E\mid \forall\, f\in B,\ f(x)=0 \}\subset E.$$
**Proposition. ---**
1. $A^\circ=\mathrm{Vect}(A)^\circ$ et de même ${}^\circ B={}^\circ \mathrm{Vect}(B)$.
2. Si $A\subset A_1$, alors on a $A_1^\circ\subset A^\circ$ (et de même pour $B$).
3. Si $F$ est un sous-espace de $E$, alors $F^\circ ={}^t \pi_F(E/F)^*$ où $\pi_F\colon E\to E/F$ désigne la projection canonique.
4. Si $E$ est de dimension finie, on a : $$\dim(E)=\dim(F)+\dim(F^\circ).$$
4. Si $E$ est de dimension finie et $A\subset E$ une partie non vide, on a : ${}^\circ \left(A^\circ\right)=\mathrm{Vect}(A)$.
On peut décrire l'orthogonal de l'orthogonal de la façon suivante (noter la différence entre l'espace initial et son dual).
**Proposition. ---**
* Si $F\subset E$ est un sous-espace de $E$, alors ${}^\circ \left(F^\circ\right)=F$.
* Si $G\subset E^*$ est un sous-espace de $E^*$, alors $G\subset \left({}^\circ G\right)^\circ$.
On peut relier les deux notions d'orthogonalité *via* la bidualité.
**Proposition. ---** Si $B$ est une partie de $E^*$, on a alors $j_E({}^\circ B)\subset B^\circ$.
>**Remarque. ---** En dimension infinie, il faut être prudent. En effet, si $B=\{0\}\subset E^*$, on a ${}^\circ B=E$ et $B^\circ=E^{**}$. Or, nous avons ci-dessus que $j_E(E)\subsetneq E^{**}$ en dimension infinie : l'inclusion $j_E({}^\circ B)\subset B^\circ$ est donc en général stricte.
#### Cas de la dimension finie
On s'intéresse tout d'abord au cas où les sous-espaces sont de dimension finie.
**Proposition. ---**
* Soit $F$ un sous-espace de dimension finie de $E$ et fixons $\mathcal{B}=(x_1,\ldots,x_n)$ une base de $F$. L'application $$\mathrm{ev}_{\mathcal{B}}\colon\left\{ \begin{array}{rcl}E^* & \longrightarrow & k^n\\ \varphi & \longmapsto & (\varphi(x_1),\ldots,\varphi(x_n))\end{array}\right.$$ induit un isomorphisme entre $E^*/F^\circ$ et $k^n$. En particulier, on a $$\mathrm{codim}_{E^*}(F^\circ)=\dim(F).$$
* De même, si $G\subset E^*$ est de dimension finie et $\mathcal{B}^*=(\varphi_1,\ldots,\varphi_n)$ est une base de $G$, alors l'application $$\mathrm{ev}^{\mathcal{B}^*}\colon\left\{ \begin{array}{rcl}E & \longrightarrow & k^n\\ x & \longmapsto & (\varphi_1(x),\ldots,\varphi_n(x))\end{array}\right.$$ induit un isomorphisme entre $E/{}^\circ G$ et $k^n$. En particulier, on a $$\mathrm{codim}_{E}({}^\circ G)=\dim(G).$$
Le deuxième point de l'énoncé précédent est parfois exprimé sous la forme équivalente suivante.
**Proposition. ---** Soit $(\varphi_1,\ldots,\varphi_n)\in (E^*)^n$ une famille de formes linéaires. Le rang de la famille $(\varphi_1,\ldots,\varphi_n)$ est égal au rang de l'application linéaire $$\Phi\colon\left\{\begin{array}{rcl}E & \longrightarrow & k^n\\ x & \longmapsto & (\varphi_1(x),\ldots,\varphi_n(x)). \end{array}\right.$$
Enfin, quand l'espace ambiant est de dimension finie, tout se passe au mieux.
**Proposition. ---** Soient $E$ un espace de dimension finie, $F$ un sous-espace de $E$ et $G$ un sous-espace de $E^*$.
1. On a $\dim(F)+\dim(F^\circ)=\dim(E)=\dim(E^*)=\dim(G)+\dim({}^\circ G)$.
2. $j_E({}^\circ G)=G^\circ$ et $({}^\circ G)^\circ=G$.
3. Si $(\varphi_1,\ldots,\varphi_n)$ est une famille de formes linéaires, alors $$\dim\left(\bigcap_{i=1}^n\mathrm{Ker}(\varphi_i)\right)\ge\dim(E)-n$$ avec égalité si et seulement si la famille $(\varphi_1,\ldots,\varphi_n)$ est libre.
---
## Réduction des endomorphismes
Dans toute cette deuxième partie, $E$ est un $k$-espace vectoriel de dimension finie et $u\colon E\to E$ une application linéaire.
### 1. Considérations polynomiales
#### Polynômes minimaux et caractéristiques
Le morphisme d'évaluation en $u$ est un morphisme d'algèbre : $$\mathrm{ev}_u\colon\left\{ \begin{array}{rcl} k[X] & \longrightarrow & \mathrm{End}(E)\\
P& \longmapsto & P(u).\end{array} \right.$$ **Définition. ---** La sous-algèbre de $\mathrm{End}(E)$ engendrée par $u$ est l'image de $\mathrm{ev}_u$. Son noyau est de la forme $\mathrm{Ker}(\mathrm{ev}_u)=(\mu_u):=\left\{Q\mu_u\mid Q\in k[X]\right\}$ pour un unique polynôme $\mu_u$ unitaire qui est appelé le **polynôme minimal** de $u$.
Si maintenant $x\in E$ est un vecteur fixé, on peut considérer : $$\mathrm{ev}_{u,x}\colon\left\{ \begin{array}{rcl} k[X] & \longrightarrow & E\\
P& \longmapsto & P(u)(x).\end{array} \right.$$ On vérifie facilement de $\mathrm{Ker}(\mathrm{ev}_{u,x})$ est également un idéal de $K[X]$.
**Définition. ---**
1. On note $\mu_{u,x}$ le générateur unitaire de $\mathrm{Ker}(\mathrm{ev}_{u,x})$. Tout polynome $P$ tel que $P(u)(x)=0$ s'écrit donc $P=\mu_{u,x}Q$ avec $Q\in k[X]$. En particulier, $\mu_{u,x}$ divise $\mu_u$ pour tout $x\in E$.
2. L'image de $\mathrm{ev}_{u,x}$ est appelé sous-espace cyclique (ou monogène) engendré par $x$, on le note $k[u]\cdot x$. S'il existe $x\in E$ tel que $E=k[u]\cdot x$, on dit que $u$ est cyclique (de vecteur cyclique $x$).
> **Remarque. ---** Le sous-espace $F=k[u]\cdot x$ est stable par $u$ et $u_{\mid F}$ est cyclique !
**Définition. ---** Le polynôme $\chi_u(X):=\det(X\mathrm{Id}_E-u)$ s'appelle le **polynôme caractéristique** de $u$.
**Théorème (Cayley--Hamilton). ---** Le polynôme minimal divise le polynôme caractéristique.
**Proposition. ---** Un endomorphisme $u$ est cyclique si et seulement si $\mu_u=\chi_u$.
#### Conséquences du lemme des noyaux
**Lemme des noyaux. ---** Si $P=P_1\cdots P_r$ où les polynômes $P_i$ sont deux à deux premiers entre eux, on a alors : $$\mathrm{Ker}(P(u))=\bigoplus_{i=1}^r\mathrm{Ker}(P_i(u)).$$ Les projecteurs $\pi_i\colon\mathrm{Ker}(P(u))\to \mathrm{Ker}(P_i(u))$ sont des polynômes en $u$.
**Proposition. ---** Les polynômes $\mu_u$ et $\chi_u$ ont mêmes facteurs irréductibles. On peut donc écrire $$\mu_u=P_1^{\alpha_1}\cdots P_r^{\alpha_r}\quad\text{et}\quad \chi_u=P_1^{\beta_1}\cdots P_r^{\beta_r}$$ avec $\alpha_i\le\beta_i$ pour $i=1,\ldots,r$.
**Corollaire. ---** Les décompositions associées à $\mu_u$ et $\chi_u$ sont les mêmes : $$E=\bigoplus_{i=1}\mathrm{Ker}\left(P_i^{\alpha_i}(u)\right)=\bigoplus_{i=1}\mathrm{Ker}\left(P_i^{\beta_i}(u)\right).$$ Les sous-espaces $F_i:=\mathrm{Ker}\left(P_i^{\alpha_i}(u)\right)=\mathrm{Ker}\left(P_i^{\beta_i}(u)\right)$ s'appellent les **sous-espaces caractéristiques** de $u$ et sont de dimension $$\dim(F_i)=\beta_i\deg(P_i).$$
### 2. Réduction en composantes cycliques (Frobenius)
**Théorème (Frobenius). ---** Soit $u\in\mathrm{End}(E)$. Il existe alors une décomposition $E=E_1\oplus\cdots\oplus E_r$ de $E$ en sous-espaces cycliques pour $u$ (cela signifique que $E_i$ est $u$-stable et que $u_{\mid E_i}$ est cyclique pour tout $i=1,\ldots, r$) vérifiant de plus $\mu_{u_{\mid E_1}}=\mu_u$ et pour tout $i=2,\ldots,r$, $\mu_{u_{\mid E_i}}$ divise $\mu_{u_{\mid E_{i-1}}}$.
Si on note $P_i=\mu_{u_{\mid E_i}}$, la suite de polynômes $(P_1,P_2,\ldots,P_r)$ vérifie donc $P_1=\mu_u$ et $P_i$ divise $P_{i-1}$ pour $i=2,\ldots,r$. Cette suite est unique (elle ne dépend pas de la décomposition choisie) et elle caractérise complètement la classe de similitude de $u$.
**Version matricielle. ---** Soit $A\in\mathrm{M}_n(k)$. Il existe une matrice inversible $Q\in\mathrm{GL}_n(k)$ et une unique suite de polynômes $(P_1,P_2,\ldots,P_r)$ avec $P_1=\mu_u$ et $P_i$ divise $P_{i-1}$ pour $i=2,\ldots,r$ telle que : $$QAQ^{-1}= \begin{pmatrix} C_{P_1} & 0 & \cdots & 0\\ 0 & C_{P_2} & \ddots & \vdots \\ \vdots &\ddots & \ddots & 0 \\0 & \cdots & 0 & C_{P_r} \end{pmatrix}$$ où $C_{P_i}$ est la matrice compagnon associée au polynôme $P_i$.
**Lemme. ---** Soit $u\in\mathrm{End}(E)$. Il existe alors $x\in E$ tel que $\mu_{u,x}=\mu_u$.
**Lemme. ---** Si $u\in\mathrm{End}(E)$ et $x\in E$ tel que $\mu_{u,x}=\mu_u$, alors le sous-espace $k[u]\cdot x\subset E$ admet un supplémentaire stable par $u$.
### 3. Réduction des endomorphismes scindés (Jordan)
On considère maintenant $u\in\mathrm{End}(E)$ tel que $\chi_u=\prod_{i=1}^p(X-\lambda_i)^{\alpha_i}$ est scindé.
**Théorème (Jordan--Chevalley). ---** Il existe un unique couple d'endomorphismes $(d,n)$ vérifiant :
1. $d$ est diagonalisable et $n$ est nilpotent ;
2. $u=d+n$ et $d\circ n=n\circ d$.
Le couple $(d,n)$ s'appelle la décomposition de Jordan--Chevalley de l'endomorphisme $u$.
#### Réduction des nilpotents
**Lemme. ---** Pour $u\in\mathrm{End}(E)$, on pose $K_i:=\mathrm{Ker}(u^i)$. On a évidemment $K_{i}\subset K_{i+1}$. L'application $u$ induit une application **injective** $u_i\colon K_{i+1}/K_i\hookrightarrow K_i/K_{i-1}$ pour tout $i\ge1$. La suite $m_i:=\dim(K_{i+1})-\dim(K_{i})$ (pour $i\ge 0$) est donc d'abord strictement décroissante puis nulle à partir d'un certain rang. Si $p=\inf(i\ge1\mid m_i=0)$, on a donc $$(0)\subsetneq K_1 \subsetneq K_2\subsetneq \cdots\subsetneq K_p=K_{p+1}=\cdots$$ En particulier, si $u$ est nilpotent, on a $p=\inf(i\ge1\mid u^i=0)$.
**Lemme. ---** La matrice $$J_n=\begin{pmatrix}0 & 1 & 0 & \cdots & 0\\ 0 & 0 & 1 & \ddots & \vdots \\ 0 & \cdots & 0 & \ddots & 0 \\ \vdots & \ddots & \ddots & \ddots & 1 \\ 0 & \cdots & \cdots & \cdots & 0\end{pmatrix}$$ vérifie :
1. $\dim (\mathrm{Ker}(J_n))=1$ ; plus généralement $\dim (\mathrm{Ker}(J_n^\ell))=\inf(\ell, n)$ ;
2. $J_n^n=0$ mais $J_n^{n-1}\neq 0$ ($J_n$ est d'indice $n$).
**Théorème (Jordan). ---** Pour tout endomorphisme nilpotent $u\in\mathrm{End}(E)$, il existe une base $\mathcal{B}$ de $E$ et une suite d'entiers $1\le d_1\le d_2\le\cdots\le d_r$ telles que $$\mathrm{Mat}_{\mathcal{B}}(u)=\begin{pmatrix}J_{d_1} & 0 & \cdots & 0\\ 0& J_{d_2} & \ddots & \vdots \\ \vdots & \ddots & \ddots & 0 \\ 0 & \cdots & 0 & J_{d_r} \end{pmatrix}.$$ La suite d'entiers $1\le d_1\le d_2\le\cdots\le d_r$ est uniquement déterminée par $u$ et elle caractérise complètement la classe de similitude de $u$.
#### Cas général
**Réduction de Jordan. ---** Soit $u\in\mathrm{End}(E)$ avec $\chi_u=\prod_{i=1}^p(X-\lambda_i)^{\alpha_i}$. Pour chaque $i=1,\ldots, p$, il existe une partition $1\le d^{(i)}_1\le \cdots \le d^{(i)}_{r_i}$ de $\alpha_i$ (c'est-à-dire une ralation $\alpha_i=\sum_{j=1}^{r_i}d^{(i)}_j$) et une base de $E$ telle que la matrice de $u$ dans cette base soit diagonale par blocs avec des blocs de la forme $$J_{d^{(i)}_j}(\lambda_i)\colon= \lambda_i\mathrm{Id}+J_{d^{(i)}_j}$$ pour $i=1,\ldots, p$ et $j=1,\ldots,r_i$.
> **Remarque. ---** À nouveau, la donnée des $\lambda_i$ et des suites d'entiers $1\le d^{(i)}_1\le \cdots \le d^{(i)}_{r_i}$ caractérise la classe de similitude de $u$. En particulier, si $k=\mathbb{C}$, tout endomorphisme a un polynôme caractéristique scindé et la réduction de Jordan fournit une description complète des classes de similitude.
----
## Formes quadratiques
:warning: Dans tout ce chapitre, $k$ sera un corps de caractéristique de $2$.
### 1. Formes bilinéaires et orthogonalité
#### Généralités sur les formes bilinéaires
**Définition. ---** Une forme quadratique sur un espace vectoriel $E$ sur $k$ est une application $q:E\to k$ telle qu'il existe $f:E\times E\to k$ une forme bilinéaire avec $q(x)=f(x,x)$ pour tout $x\in k$.
> **Remarque. ---** On peut écrire $f(x,y)=f_{\mathrm{sym}}(x,y)+f_{\mathrm{alt}}(x,y)$ avec $$f_{\mathrm{sym}}(x,y)=\frac{f(x,y)+f(y,x)}{2}\quad\text{et}\quad f_{\mathrm{alt}}(x,y)=\frac{f(x,y)-f(y,x)}{2}.$$ Les formes bilinéaires $f_{\mathrm{sym}}$ et $f_{\mathrm{alt}}$ sont respectivement symétrique et alternée. Enfin, on a clairement $f(x,x)=f_{\mathrm{sym}}(x,x)$. Une forme quadratique peut donc être décrite par une forme bilinéaire **symétrique**.
**Proposition. ---** Si $q:E\to k$ est une forme quadratique, il existe une unique forme bilinéaire symétrique $f$ telle que $q(x)=f(x,x)$. Cette forme est appelée la **forme polaire** de $q$ et sera noté $f_q$.
>**Remarque. ---** On a $f_q(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}$.
On peut utiliser $f_q$ pour définir une application (linéaire) de $E\to E^*$ de la façon suivante : $$\hat{f}_q\colon\left\{ \begin{array}{rcl} E & \longrightarrow & E^* \\ x & \longmapsto & \hat{f}_q(x)\colon\left\{ \begin{array}{rcl}E &\to & k\\ y & \mapsto & f_q(x,y) \end{array} \right. \end{array}\right.$$
:accept: À partir de maintenant, on supposera $\dim(E)<+\infty$.
**Définition. ---** Si $q$ est une forme quadratique, on définit :
* le noyau (ou radical) de $q$ comme étant $N(q):=\mathrm{Ker}\left(\hat{f}_q\right)=\left\{x\in E\mid \forall\, y\in E,\ f_q(x,y)=0 \right\}$ ;
* le rang de $q$ par $\mathrm{rg}(q):=\mathrm{rg}\left(\hat{f}_q\right)$.
* le cône isotrope de $q$ par $\mathcal{C}(q):=\left\{x\in E\mid q(x)=0 \right\}$
>**Remarque.---** On a toujours $\dim(E)=\dim(N(q))+\mathrm{rg}(q)$.
>:warning: On a toujours $N(q)\subset \mathcal{C}(q)$ mais en général l'inclusion est stricte.
**Définition. ---** On dit que la forme $q$ est non dégénérée si $N(q)=0$ ou encore si $\mathrm{rg}(q)=\dim(E)$.
**Proposition. ---** Soient $q$ une forme quadratique sur $E$ et $F\subset E$ un supplémentaire du noyau de $q$. La forme induite $q_{\mid F}:F\to k$ est alors non dégénérée.
>**Remarque. ---** En écrivant $x=x_F+x_{N}$ suivant la décomposition $E=F\oplus N(q)$, on vérifie facilement que $\forall\, x\in E,\ q(x)=q_{\mid F}(x_F)$.
#### Notion d'orthogonalité relativement à une forme quadratique
**Définition. ---** Soit $q$ une forme quadratique. Deux vecteurs $x$ et $y$ de $E$ sont dits **orthogonaux** si $f_q(x,y)=0$. Si $F\subset E$ est un sous-espace, le sous-espace $$F^\perp:=\left\{x\in E\mid \forall\,y\in F,\ f_q(x,y)=0\right\}$$ est appelé l'**orthogonal** de $F$ pour la forme $q$.
>**Remarque. ---** On vérifie facilement que $F^{\perp} ={}^{\circ}\left(\hat{f}_q(F) \right)$ et que $N(q)=E^\perp$.
**Proposition. ---**
1. Le procédé $F\longmapsto F^\perp$ est décroissant pour l'inclusion : si $F\subset G$, alors $G^\perp\subset F^\perp$. De plus, on a $(F+G)^\perp=(F\cap G)^\perp$.
2. On a la relation $\dim(F^\perp)=\dim(E)-\dim(F)+\dim(N(q)\cap F)$.
3. Le double orthogonal de $F$ est donné par $F^{\perp\perp}=F+N(q)$.
4. On a toujours une inclusion $F^\perp+G^\perp\subset F^\perp\cap G^\perp$ qui peut être stricte si $N(q)$ est non trivial.
5. En particulier, si $q$ est non dégénérée, on a alors $\dim(E)=\dim(F)+\dim(F^\perp)$ et $F^{\perp\perp}=F$ pour tout sous-espace $F$ de $E$. Enfin, l'égalité $F^\perp+G^\perp= F^\perp\cap G^\perp$ est vérifiée pour tous sous-espaces $F$ et $G$ de $E$ (et $q$ non dégénérée).
**Proposition. ---** Soient $q$ une forme quadratique sur $E$ et $F\subset E$ un sous-espace. La forme $q_{\mid F}$ est non dégénérée si et seulement si $F\cap F^\perp=0$. Si de plus $q$ est non dégénérée (sur $E$), on a également $q_{\mid F}$ est non dégénérée si et seulement si $E=F\oplus F^\perp$.
:warning: Même si $q$ est non dégénérée sur $E$, la forme quadratique $q_{\mid F}$ peut avoir un noyau non trivial.
### 2. Interprétation matricielle
**Définition. ---** Si $\mathcal{B}=(e_1,\ldots,e_n)$ est une base de $E$, on pose $$Q:=\mathrm{Mat}_{\mathcal{B}}(q)=\left(f_q(e_i,e_j)\right)_{1\leq i,j\leq n}$$ et on dit que $Q$ est la matrice de $q$ dans la base $\mathcal{B}$.
>**Remarque. ---** Par construction $Q$ est une matrice symétrique. De plus, si $x\in E$ est représenté par le vecteur colonne $X$ dans la base $\mathcal{B}$, on a alors $q(x)={}^t XQX$. Enfin, si $\mathcal{B}^*=(e_1^*,\ldots,e_n^*)$ est la base duale de $\mathcal{B}$, on a aussi $Q=\mathrm{Mat}_{\mathcal{B}^*,\mathcal{B}}\left(\hat{f}_q \right)$.
**Proposition. ---** On a clairement $\mathrm{rg}(q)=\mathrm{rg}(Q)$ et $N(q)=\mathrm{Ker}(Q)$ en identifiant $E$ à $k^n$ *via* la base $\mathcal{B}$.
#### Effet d'un changement de base
Si $X=PX'$ avec $P\in \mathrm{GL}_n(k)$, on a alors $q(x)={}^tXQX={}^tX'({}^tPQP)X'$.
**Définition. --** Deux matrices symétriques $Q$ et $Q'$ sont dites **congruentes** s'il existe $P\in \mathrm{GL}_n(k)$ telle que $Q'={}^tPQP$.
>**Remarque. ---** On peut formuler cela au niveau des formes quadratiques. Deux formes quadratiques $q$ et $q'$ qont congruentes s'il existe $u\in \mathrm{GL}(E)$ tel que $q'=q\circ u$.
#### Discriminant
**Définition. ---** Si $Q$ est la matrice de $q$ (supposée non dégénérée) dans une base de $E$, on pose $\mathrm{disc}(q):=\det(Q)\in k^*/(k^*)^2$. Cette quantité est bien définie. Par convention, on pose $\mathrm{disc}(q)=0$ si $q$ est dégénérée.
>**Remarque. ---** Le quotient $k^*/(k^*)^2$ est un groupe pour la multiplication. C'est un groupe d'exposant $2$ : tout élément $g\in k^*/(k^*)^2$ vérifie $g^2=1$.
### 3. Réductions des formes quadratiques
#### Réduction en sommes de carrés
**Théorème (réduction de Gauß). ---** Si $q:E\to k$ est une forme quadratique, il existe une base orthogonale pour $q$. En d'autres termes, il existe une base de $E$ dans laquelle la matrice de $q$ est diagonale.
>**Reformulation matricielle. ---** Si $Q$ est une matrice symétrique, il existe une matrice $P\in\mathrm{GL}_n(k)$ telle que ${}^tPQP$ est diagonale.
**Corollaire. ---** Si $q:E\to k$ est une forme quadratique, il existe des formes linéaires $(\varphi_1,\ldots,\varphi_r)\in E^*$ formant une famille libre de $E^*$ et des scalaires non nuls $a_1,\ldots,a_r\in k^*$ tels que $$\forall\, x\in E,\ q(x)=\sum_{i=1}^r a_i\left(\varphi_i(x)\right)^2.$$
>**Remarque. ---** Le nombre de carrés (le nombre $r$ avec les notations ci-dessus) n'est autre que le rang de $q$.
#### Classification : cas complexe
**Théorème. ---** Soit $q:E\to\mathbb{C}$ une forme quadratique avec $E$ un $\mathbb{C}$-espace vectoriel de dimension finie. Si $r=\mathrm{rg}(q)$, il existe une base de $E$ pour laquelle $q(x)=x_1^2+\cdots+x_r^2$ où les $x_i$ sont les coordonnées de $x$ dans la base en question.
De façon équivalente, si $Q$ est une matrice symétrique complexe de rang $r$, il existe $P\in\mathrm{GL}_n(\mathbb{C})$ telle que $${}^tPQP=\begin{pmatrix} I_r & 0 \\ 0 & 0\end{pmatrix}.$$
Une forme quadratique complexe est donc uniquement caractérisée par son rang.
#### Classification : cas réel
**Définition. ---** soit $q:E\to \mathbb{R}$ une forme quadratique sur $E$ un $\mathbb{R}$-espace vectoriel de dimension finie. On dit que $q$ est **positive** (resp. **négative**) si $\forall\,x\in E,\ q(x)\ge 0$ (resp. $\le$). On dira que $q$ est **définie positive** si $q$ est positive et si, de plus, $q(x)=0\Leftrightarrow x=0$.
>**Remarque. ---** La forme $q$ est positive si et seulement s'il n'y a que des signes $+$ dans la décomposition de Gauß de $q$. De la même façon, $q$ est définie positive si et seulement s'il y a exactement $n$ signes $+$ dans cette décomposition (avec $n=\dim(E)$).
**Théorème. ---** Soit $q:E\to \mathbb{R}$ une forme quadratique sur un espace vectoriel réel $E$. Il existe alors deux entiers $s,t\ge0$ et une base de $E$ telle que $\forall\, x\in E,\ q(x)=x_1^2+\cdots+x_s^2-x_{s+1}^2-\cdots-x_{s+t}^2$.
De façons équivalente, si $Q$ est une matrice symétrique réelle, il existe $P\in\mathrm{GL}_n(\mathbb{R})$ telle que $${}^tPQP=\begin{pmatrix} I_s & 0 &0 \\ 0 & -I_t & 0\\ 0 & 0 & 0\end{pmatrix}.$$ Le couple $(s,t)$ est unique (loi d'inertie de Sylvester).
>**Remarque. ---** Avec les notations ci-dessus, on a $\mathrm{rg}(q)=s+t$.
**Définition. ---** Le couple $(s,t)$ s'appelle la **signature** de la forme réelle $q$.
>**Remarque. ---** Les valeurs de $s$ et $t$ s'obtiennent par les formules $$\begin{align*}s&=\max\left(\dim(F)\mid q_{\mid F}\ \text{est définie positive}\right), \\ t&=\max\left(\dim(G)\mid q_{\mid G}\ \text{est définie négative}\right).\end{align*}$$
----
## Espaces euclidiens et hermitiens
Dans ce chapitre, le corps de base sera $\mathbb{R}$ ou $\mathbb{C}$ et les espaces de dimensions finies.
### Produit scalaire
#### Généralités
**Définition (cas euclidien). ---** Un produit scalaire sur un $\mathbb{R}$-espace vectoriel $E$ est la donnée d'une forme bilinéaire définie positive.
**Définition (cas hermitien). ---** Un produit scalaire sur un $\mathbb{C}$-espace vectoriel $E$ est la donnée d'une application $\langle -,-\rangle\colon E\times E\to \mathbb{C}$ vérifiant :
1. (sesqui-linéarité) pour tout $\lambda\in\mathbb{C}$ et $(x,y,z)\in E$, on a $$\langle \lambda x+y,z\rangle = \lambda\langle x,z\rangle + \langle y,z\rangle\quad \text{et}\quad \langle x,\lambda y +z\rangle = \overline{\lambda}\langle x,y\rangle + \langle x,z\rangle\ ;$$
2. (symétrie hermitienne) pour tout $(x,y)\in E$, $\langle x,y\rangle = \overline{\langle y,x\rangle}$ ;
3. (positivité) pour tout $x\in E$, $\langle x,x\rangle\ge 0$ et $\langle x,x\rangle= 0$ si et seulement si $x=0$.
#### Norme associée à un produit scalaire
Si $(E,\langle -,-\rangle)$ est un espace hermitien ou euclidien, on pose $\Vert x\Vert=\sqrt{\langle x,x\rangle}$.
**Théorème. ---** Les inégalités suivantes sont vérifiées :
* (Cauchy--Schwarz) pour tout $(x,y)\in E$, on a $\left\Vert\langle x,y\rangle\right\Vert\le \Vert x\Vert\cdot \Vert y\Vert$ avec éaglité si et seulement si $x$ et $y$ sont liés ;
* (Mikowski) pour tout $(x,y)\in E$, $\vert x+y\Vert \le \Vert x\Vert + \Vert y\Vert$, avec égalité si et seulement si $x$ et $y$ sont positivement liés.
**Corollaire. ---** L'application $x\longmapsto \Vert x\Vert$ est une norme sur $E$.
#### Procédé de Gram--Schmidt
**Définition. ---** Une famille $(u_1,\ldots,u_p)$ de vecteurs de $E$ est dite orthonormée si $\langle u_j,u_k\rangle=\delta_{j,k}$ pour tout $1\le j,k\le p$.
>**Remarque. ---** une famille orthonormée est toujours libre.
**Proposition. ---** Soit $(u_1,\ldots,u_p)$ une famille libre. Il existe alors $(v_1,\ldots,v_p)$ une famille orthonormée telle que $$\forall\, k\in[\![1,p]\!],\ \mathrm{Vect}(u_1,\ldots, u_k)=\mathrm{Vect}(v_1,\ldots, v_k).$$ De plus cette famille est unique si on impose de plus $\langle u_k,v_k\rangle\in\mathbb{R}_+$ pour tout $1\le k\le p$.
**Corollaire. ---** Tout espace euclidien/hermitien admet des bases orthonormées. De plus, toute famille orthonormée peut être complétée en une base orthonormée.
### Adjoint d'un endomorphisme
**Théorème. ---** Soit $u\in\mathrm{End}(E)$ un endomorphisme. Il existe un unique endomorphisme noté $u^*\in\mathrm{End}(E)$ tel que $$\forall\, (x,y)\in E\times E,\ \langle u(x), y\rangle = \langle x,u^*(y)\rangle.$$ L'endomorphisme $u^*$ s'appelle l'adjoint de $u$ (relativement au produit scalaire $\langle -,-\rangle$).
:warning: Si $E$ est hermitien, il faut faire attention à la chose suivante : $(\lambda u)^*=\overline{\lambda}u^*$ pour tout $\lambda\in\mathbb{C}$ et tout $u\in\mathrm{End}(E)$. De manière générale, on a toujours $(u+v)^*=u^*+v^*$ pour deux endomorphismes $u$ et $v$.
**Proposition. ---** Si $\mathcal{B}$ est une base orthonormée de $E$ et si $u\in\mathrm{End}(E)$ est un endomorphisme, on a alors $$\mathrm{Mat}_\mathcal{B}\left( u^* \right)={}^t\overline{\mathrm{Mat}_\mathcal{B}(u)}.$$
**Proposition. ---** Si $u\in\mathrm{End}(E)$ et si $F\subset E$ est stable par $u$, le sous-espace $F^\perp$ est stable par $u^*$. De plus, on a tooujours $$\mathrm{Ker}\left(u^*\right) = \mathrm{Im}(u)^\perp\quad \text{et}\quad \mathrm{Im}\left(u^*\right) = \mathrm{Ker}(u)^\perp.$$
### Groupe unitaire/orthogonal
**Définition. ---** Un endomorphisme $u$ est dit **unitaire** (cas hermitien) ou **orthogonal** (cas euclidien) si $$\forall\, (x,y)\in E,\ \langle u(x),u(y)\rangle =\langle x,y\rangle.$$ On note $\mathrm{U}(E)$ l'ensemble des endomorphismes unitaires et $\mathrm{O}(E)$ dans le cas orthogonal.
>**Remarque. ---** Un endomorphisme $u$ est unitaire/orthogonal si et seulement s'il est inversible et si $u^*=u^{-1}$. Si on fixe une base orthonormée \mathcal{B}$ de $E$ et si on note $A=\mathrm{Mat}_\mathcal{B}(u)$, on a alors $$u\in \mathrm{U}(E)\ (\text{resp.}\ \mathrm{O}(E)) \Longleftrightarrow {}^t\overline{A}A=\mathrm{I}_n\ (\text{resp.}\ {}^tAA=\mathrm{I}_n).$$ On note $\mathrm{U}_n$ et $\mathrm{O}_n(\mathbb{R})$ les ensembles de matrices correspondants. Ce sont des sous-groupes de $\mathrm{GL}_n(\mathbb{C})$ et $\mathrm{GL}_n(\mathbb{R})$ respectivement.
**Proposition. ---** Une matrice $A\in \mathrm{GL}_n(\mathbb{C})$ est unitaire si et seulement si ses colonnes (ou lignes) forment une base orthonormée de $\mathbb{C}^n$ pour le produit scalaire usuel.
### Endomorphismes normaux
**Définition. ---** Un endomorphisme $u\in\mathrm{End}(E)$ est dit *normal* si $u\circ u^* = u^*\circ u$.
>**Remarque. ---** Matriciellement cela revient à $A{}^t\overline{A}={}^t\overline{A}A$ si $A$ est la matrice de $u$ dans une base orthonormée.
**Théorème. ---** Un endomorphisme est normal si set seulement s'il est diagonalisable dans une base orthonormée. Si $A\in\mathrm{GL}_n(\mathbb{C})$ vérifie $A{}^t\overline{A}={}^t\overline{A}A$, alors il existe $U\in\mathrm{U}_n$ et $\lambda_1,\ldots,\lambda_n\in\mathbb{C}$ tels que $$A=U\begin{pmatrix}\lambda_1 & 0 & 0\\ 0 & \ddots & 0\\ 0&0&\lambda_n\end{pmatrix}{}^t\overline{U}.$$