Si consideri l'applicazione lineare $a_\varphi$ introdotta precedentemente. Si osserva che $W^\perp=\Ker(i^\top\circ a_\varphi)$, dove $i : W \to V$ è tale che $i(\vec w)=\vec w$. Allora,
per la formula delle dimensioni, vale la seguente identità:
Poiché $\rg(A)=\rg(A^\top)$, si deduce che $\rg(f)=\rg(g)\implies\rg(i^\top\circ a_\varphi)=\rg(a_\varphi\circ i)=\rg(\restr{a_\varphi}{W})=\dim W -\dim\Ker\restr{a_\varphi}{W}$, ossia che:
\rg(i^\top\circ a_\varphi) = \dim W - \dim (W \cap\underbrace{\Ker a_\varphi}_{V^\perp}) = \dim W - \dim (W \cap V^\perp).
\end{equation}
Si conclude allora, sostituendo l'equazione \eqref{eq:dim_formula_dimensioni_2} nell'equazione \eqref{eq:dim_formula_dimensioni_1}, che $\dim V =\dim W^\top+\dim W -\dim(W \cap V^\perp)$, ossia la tesi.
\begin{remark} Si identifica $\w^\perp$ come il sottospazio di tutti i vettori di $V$ ortogonali a $\w$.
In particolare, se $W =\Span(\vec w)$ è il sottospazio generato da $\vec w \neq\vec0$, $\vec w \in V$, allora $W^\perp=\w^\perp$. Inoltre valgono le seguenti equivalenze: $\vec w \notin W^\perp\iff$$\Rad(\restr{\varphi}{W})= W \cap W^\perp=\zerovecset$$\iff\vec w \text{ non è isotropo }\iff$$V = W \oplus W^\perp$.
Si dimostra il teorema per induzione su $n :=\dim V$. Per $n \leq1$, la tesi è triviale (se esiste una base, tale base è
già ortogonale). Sia
allora il teorema vero per $i \leq n$. Se $V$ ammette un vettore non isotropo $\vec w$, sia $W =\Span(\vec w)$ e si consideri la decomposizione $V = W \oplus W^\perp$. Poiché $W^\perp$ ha dimensione $n-1$, per ipotesi induttiva
diretta ortogonale} rispetto al prodotto scalare $\varphi$ di $V$, ossia che $U \oplus W = U \oplus^\perp W$, se $\varphi(\vec u, \vec w)=0$$\forall\vec u \in U$, $\vec w \in W$.
Siano $\vv1$, ..., $\vv k \in V$ e sia $M =\left(\varphi(\vv i, \vv j)\right)_{i, j =1\textrm{---}k}\in M(k, \KK)$,
dove $\varphi$ è un prodotto scalare di $V$. Sia inoltre $W =\Span(\vv1, ..., \vv k)$. Si dimostrino
allora le seguenti affermazioni.
\begin{enumerate}[(i)]
\item Se $M$ è invertibile, allora $\vv1$, ..., $\vv k$ sono linearmente indipendenti.
\item Siano $\vv1$, ..., $\vv k$ linearmente indipendenti. Allora $M$ è invertibile $\iff$$\restr{\varphi}{W}$ è non degenere $\iff$$W \cap W^\perp=\zerovecset$.
\item Siano $\vv1$, ..., $\vv k$ a due a due ortogonali tra loro. Allora $M$ è invertibile $\iff$ nessun
vettore $\vv i$ è isotropo.
\item Siano $\vv1$, ..., $\vv k$ a due a due ortogonali tra loro e siano anche linearmente indipendenti.
Allora $M$ è invertibile $\implies$ si può estendere $\basis_W =\{\vv1, \ldots, \vv k\}$ a una base ortogonale di $V$.
\item Sia $\KK=\RR$. Sia inoltre $\varphi > 0$. Allora $\vv1$, ..., $\vv k$ sono linearmente
indipendenti $\iff$$M$ è invertibile.
\item Sia $\KK=\RR$. Sia ancora $\varphi > 0$. Allora se $\vv1$, ..., $\vv k$ sono a due a due
ortogonali e sono tutti non nulli, sono anche linearmente indipendenti.
\end{enumerate}
\end{exercise}
\begin{solution}
\begin{enumerate}[(i)]
\item Siano $a_1$, ..., $a_k \in\KK$ tali che $a_1\vv1+\ldots+ a_k \vv k =0$. Vale in
particolare che $\vec0=\varphi(\vv i, \vec0)=\varphi(\vv i, a_1\vv1+\ldots+ a_k \vv k)=
\sum_{j=1}^k a_j \varphi(\vv i, \vv j)$$\forall 1 \leq i \leq k$. Allora $\sum_{j=1}^k a_j M^j = 0$.
Dal momento che $M$ è invertibile, $\rg(M)= k$, e quindi l'insieme delle colonne di $M$ è linearmente
indipendente, da cui si ricava che $a_j =0$$\forall1\leq j \leq k$, e quindi che $\vv1$, ...,
$\vv k$ sono linearmente indipendenti.
\item Poiché $\vv1$, ..., $\vv k$ sono linearmente indipendenti, tali vettori formano una base di
$W$, detta $\basis$. In particolare, allora, vale che $M = M_\basis(\restr{\varphi}{W})$. Pertanto,
se $M$ è invertibile, $\Rad(\restr{\varphi}{W})=\Ker M =\zerovecset$, e dunque $\restr{\varphi}{W}$
è non degenere. Se invece $\restr{\varphi}{W}$ è non degenere, $\zerovecset=\Rad(\restr{\varphi}{W})= W \cap W^\perp$. Infine, se $W \cap W^\perp=\zerovecset$, $\zerovecset= W \cap W^\perp=\Rad(\restr{\varphi}{W})=\Ker M$, e quindi $M$ è iniettiva, e dunque invertibile.
\item Dal momento che $\vv1$, ..., $\vv k$ sono ortogonali tra loro, $M$ è una matrice diagonale.
Pertanto $M$ è invertibile se e solo se ogni suo elemento diagonale è diverso da $0$, ossia
se $\varphi(\vv i, \vv i)\neq0$$\forall1\leq i \leq k$, e dunque se e solo se nessun vettore
$\vv i$ è isotropo.
\item Se $M$ è invertibile, da (ii) si deduce che $\Rad(\restr{\varphi}{W})= W \cap W^\perp=\zerovecset$,
e quindi che $W$ e $W^\perp$ sono in somma diretta. Inoltre, per la formula delle dimensioni del prodotto
scalare, $\dim W +\dim W^\perp=\dim V +\underbrace{\dim(W \cap V^\perp)}_{\leq\dim(W \cap W^\perp)=0}=\dim V$. Pertanto $V = W \oplus^\perp W^\perp$. \\
Allora, dacché $\Char\KK\neq2$, per il teorema di Lagrange, $W^\perp$ ammette una base ortogonale $\basis_{W^\perp}$. Si conclude
dunque che $\basis=\basis_W \cup\basis_{W^\perp}$ è una base ortogonale di $V$.
\item Se $M$ è invertibile, da (i) $\vv1$, ..., $\vv k$ sono linearmente indipendenti. Siano ora
invece $\vv1$, ..., $\vv k$ linearmente indipendenti per ipotesi. Siano $a_1$, ..., $a_k \in\KK$ tali
che $a_1 M^1+\ldots+ a_k M^k =0$, allora $a_1\varphi(\vv i, \vv1)+\ldots+ a_k \varphi(\vv i, \vv k)=0$$\forall1\leq i \leq k$. Pertanto, detto $\v= a_1\vv1+\ldots+ a_k \vv k$, si ricava che:
\[\varphi(\v, \v)=\sum_{i=1}^k \sum_{j=1}^k a_j \,\varphi(\vv i, \vv j)=0. \]
Tuttavia questo è possibile solo se $\v= a_1\vv1+\ldots+ a_k \vv k =0$. Dal momento che
$\vv1$, ..., $\vv k$ sono linearmente indipendenti, si conclude che $a_1=\cdots= a_k =0$, ossia
che le colonne di $M$ sono tutte linearmente indipendenti e quindi che $\rg(M)= k \implies$$M$ è invertibile.
\item Poiché $\vv1$, ..., $\vv k$ sono ortogonali a due a due tra loro, $M$ è una matrice diagonale.
Inoltre, dacché $\varphi > 0$ e $\vv i \neq\vec0$$\forall1\leq i \leq k$, gli elementi diagonali di $M$ sono sicuramente tutti diversi da zero, e quindi $\det(M)\neq0$$\implies$$M$ è invertibile. Allora,
per il punto (v), $\vv1$, ..., $\vv k$ sono linearmente indipendenti.
Per il teorema di Lagrange, esiste una base ortogonale $\basis'$ di $V$.
Si riordini la base in modo tale che la forma quadratica valutata nei primi elementi sia strettamente positiva, che nei secondi elementi sia strettamente negativa e che negli ultimi sia nulla. Si sostituisca
$\basis'$ con una base $\basis$ tale per cui, se $q(\vv i) > 0$,
allora $\vv i \mapsto\frac{\vv i}{\sqrt{q(\vv i)}}$; se
$q(\vv i) < 0$, allora $\vv i \mapsto\frac{\vv i}{\sqrt{-q(\vv i)}}$;
altrimenti $\vv i \mapsto\vv i$. Si è allora trovata una base
la cui matrice associata del prodotto scalare è come desiderata nella
positiva, $b$ il numero di vettori con forma negativa e $c$ quello
dei vettori con forma nulla. Si consideri $W_+=\Span(\vv1, ..., \vv a)$, $W_-=\Span(\vv{a+1}, ..., \vv b)$, $W_0=\Span(\vv{b+1}, ..., \vv c)$. \\
Sia $M = M_\basis(\varphi)$. Si osserva che $c = n -\rg(M)=\dim\Ker(M)=\dim V^\perp=\iota_0$. Inoltre $\forall\v\in W_+$, dacché
$\basis$ è ortogonale,
$q(\v)= q(\sum_{i=1}^a \alpha_i \vv i)=\sum_{i=1}^a \alpha_i^2 q(\vv i) > 0$, e quindi $\restr{\varphi}{W_+} > 0$, da cui $\iota_+\geq a$.
Analogamente $\iota_-\geq b$. \\
Si mostra ora che è impossibile che $\iota_+ > a$. Se così infatti
fosse, sia $W$ tale che $\dim W =\iota_+$ e che $\restr{\varphi}{W} > 0$. $\iota_++ b + c$ sarebbe maggiore di $a + b + c = n :=\dim V$. Quindi, per la formula di Grassman, $\dim(W + W_-+ W_0)=\dim W +
\dim(W_- + W_0) - \dim (W \cap (W_- + W_0)) \implies\dim (W \cap (W_- + W_0)) = \dim W +
che $\dim W =\dim\Ker(M_\basis(\varphi))=\dim V^\perp$.
Sia allora la base $\basis=\{\ww1, \ldots, \ww k, \vv{k+1}, \ldots, \vv n\}$ un'estensione di $\{\ww1, \ldots, \ww k\}$. Se $\w\in W$ e $\v\in V$, $\varphi(\w, \v)=\varphi(\sum_{i=1}^k
= \sum_{i=1}^k \alpha_i \beta_i q(\ww i) = 0$(dove $\alpha_i$ e $\beta_i \in\KK$ rappresentano la $i$-esima coordinata di $\w$ e $\v$ nella base $\basis$), e quindi
$W \subseteq V^\perp$. Si conclude allora, tramite l'uguaglianza
dimensionale, che $W = V^\perp$. \\
\li Poiché $\dim\Ker(\varphi)=\iota_0$, vale in particolare che $\rg(\varphi)= n -\iota_0=\iota_++\iota_-$ (infatti vale che $n =\iota_++\iota_-+\iota_0$, dal momento che $n$ rappresenta il numero di elementi di una base ortogonale). \\
\li Se $V = U \oplusperp W$, allora $\iota_+(\varphi)=\iota_+(\restr{\varphi}{V})+\iota_+(\restr{\varphi}{W})$.
Analogamente vale la stessa cosa per gli altri indici. Infatti,
prese due basi ortogonali $\basis_U$, $\basis_W$ di $U$ e $W$,
la loro unione $\basis$ è una base ortogonale di $V$. Pertanto
il numero di vettori della base $\basis$ con forma quadratica positiva
è esattamente $\iota_+(\restr{\varphi}{V})+\iota_+(\restr{\varphi}{W})$.
\begin{exercise} Sia $f : V \to V'$ un isomorfismo. Allora $f$ è un'isometria $\iff$$\forall$ base $\basis=\{\vv1, \ldots, \vv n \}$ di $V$, $\basis' =\{ f(\vv1), \ldots, f(\vv n)\}$ è una base di $V'$ e $\varphi(\vv i, \vv j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$$\iff$$\exists$ base $\basis=\{\vv1, \ldots, \vv n \}$ di $V$ tale che $\basis' =\{ f(\vv1), \ldots, f(\vv n)\}$ è una base di $V'$ e $\varphi(\vv i, \vv j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$.
\begin{solution} Se $f$ è un'isometria, detta $\basis$ una base di $V$, $\basis' = f(\basis)$ è una base di $V'$
dal momento che $f$ è anche un isomorfismo. Inoltre, dacché $f$ è un'isometria, vale sicuramente che
$\varphi(\vv i, \vv j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$. \\
Sia ora assunto per ipotesi che $\forall$ base $\basis=\{\vv1, \ldots, \vv n \}$ di $V$, $\basis' =\{ f(\vv1), \ldots, f(\vv n)\}$ è una base di $V'$ e $\varphi(\vv i, \vv j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$. Allora, analogamente a prima, detta $\basis=\{\vv1, \ldots, \vv n \}$ una base di $V$, $\basis' = f(\basis)$ è una base di $V'$, e in quanto tale,
per ipotesi, è tale che $\varphi(\vv i, \vv j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$. \\
Sia infine assunto per ipotesi che $\exists$ base $\basis=\{\vv1, \ldots, \vv n \}$ di $V$ tale che $\basis' =\{ f(\vv1), \ldots, f(\vv n)\}$ è una base di $V'$ e $\varphi(\vv i, \vv j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$. Siano $\v$, $\w\in V$. Allora $\exists a_1$, ..., $a_n$, $b_1$, ..., $b_n \in\KK$
tali che $\v= a_1\vv1+\ldots+ a_n \vv n$ e $\w= b_1\vv1+\ldots+ b_n \vv n$. Si ricava pertanto
\begin{proof} Se $V$ e $V'$ sono isometrici, sia $f : V \to V'$ un'isometria. Sia $\basisC=\{\vv1, \ldots, \vv n \}$ una base di $V$. Allora, poiché $f$ è anche un isomorfismo, $\basisC' = f(\basisC)$ è una base di $V$ tale che
$\varphi(\vv i, \vv j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$. Pertanto $M_\basisC(\varphi)= M_{\basisC'}(\varphi')$. Si conclude allora che, cambiando base in $V$ (o in $V'$), la matrice associata
al prodotto scalare varia per congruenza dalla formula di cambiamento di base per il prodotto scalare, da cui si ricava che per ogni scelta di $\basis$ base di $V$ e di $\basis'$ base di $V'$, $M_\basis(\varphi)\cong M_{\basis'}(\varphi')$. Inoltre, se tale risultato è vero per ogni $\basis$ base di $V$ e di $\basis'$ base di $V'$, dal momento che sicuramente esistono due basi $\basis$, $\basis'$ di $V$ e $V'$, vale anche (ii) $\implies$ (iii). \\
Si dimostra ora (iii) $\implies$ (i). Per ipotesi $M_\basis(\varphi)\cong M_{\basis'}(\varphi')$, quindi
$\exists P \in\GL(n, \KK)\mid M_{\basis'}(\varphi')= P^\top M_\basis(\varphi) P$. Allora $\exists$$\basis''$
base di $V'$ tale che $P = M_{\basis''}^{\basis'}(\Idv)$, da cui $P\inv= M_{\basis'}^{\basis''}(\varphi)$. Per la formula di cambiamento di base del prodotto
scalare, $M_{\basis''}(\varphi)=(P\inv)^\top M_{\basis'} P\inv= M_\basis(\varphi)$. Detta
$\basis'' =\{\ww1, \ldots, \ww n \}$, si costruisce allora l'isomorfismo $f : V \to V'$ tale
che $f(\vv i)=\ww i$$\forall1\leq i \leq n$.. Dal momento che per costruzione $M_\basis(\varphi)= M_{\basis''}(\varphi')$,
$\varphi(\vv i, \vv j)=\varphi'(\ww i, \ww j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$.
Si conclude dunque che $\varphi(\v, \w)=\varphi'(f(\v), f(\w))$$\forall\v, \w\in V$, e dunque
che $f$ è un'isometria, come desiderato dalla tesi.
segnatura, e così quindi anche $\varphi$ e $\varphi'$. \\
\leftproof Se $\varphi$ e $\varphi'$ hanno la stessa segnatura, esistono due basi $\basis=\{\vv1, \ldots, \vv n \}$ e $\basis' =\{\ww1, \ldots, \ww n \}$, una
di $V$ e una di $V'$, tali che $M = M_\basis(\varphi)= M_{\basis'}(\varphi')$ e che $M$ è una matrice di
Sylvester. Allora si costruisce $f : V \to V'$ tale che $f(\vv i)=\ww i$. Esso è un isomorfismo, e per
costruzione $\varphi(\vv i, \vv j)=\varphi'(\ww i, \ww j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$, da cui
si conclude che $\varphi(\v, \w)=\varphi'(f(\v), f(\w))$$\forall\v$, $\w\in V$, e quindi che $V$ e
Senza perdità di generalità si assuma $\iota_-(\varphi)\leq\iota_+(\varphi)$ (il caso $\iota_-(\varphi) > \iota_+(\varphi)$ è analogo). Sia $W$ un sottospazio con $\dim W > \iota_-(\varphi)$. Sia $W^+$
un sottospazio con $\dim W^+=\iota_+(\varphi)$ e $\restr{\varphi}{W^+} > 0$. Allora, per la formula
di Grassmann, $\dim W +\dim W^+ > n \implies\dim W +\dim W^+ > \dim W +\dim W^+-\dim(W \cap W^+)\implies\dim(W \cap W^+) > 0$. Quindi $\exists\w\in W$, $\w\neq\vec0$ tale che $\varphi(\w, \w) > 0$, da cui
si ricava che $W$ non è isotropo. Pertanto $W(\varphi)\leq\iota_-(\varphi)$. \\
Sia $a :=\iota_+(\varphi)$ e sia $b :=\iota_-(\varphi)$.
Sia ora $\basis=\{\vv1, \ldots, \vv a, \ww1, \ldots, \ww b \}$ una base tale per cui $M_\basis(\varphi)$ è la matrice di Sylvester per $\varphi$. Siano $\vv1$, ..., $\vv a$ tali che $\varphi(\vv i, \vv i)=1$
con $1\leq i \leq a$. Analogamente siano $\ww1$, ..., $\ww b$ tali che $\varphi(\ww i, \ww i)=-1$ con
$1\leq i \leq b$. Detta allora $\basis' =\{\vv1 ' :=\vv1+\ww1, \ldots, \vv b ' :=\vv b +\ww b \}$, sia $W =\Span(\basis')$. \\
Si osserva che $\basis'$ è linearmente indipendente, e dunque che $\dim W =\iota_-$. Inoltre
$\varphi(\vv i ', \vv j ')=\varphi(\vv i +\ww i, \vv j +\ww j)$. Se $i \neq j$, allora
$\varphi(\vv i ', \vv j ')=0$, dal momento che i vettori di $\basis$ sono a due a due ortogonali
tra loro. Se invece $i = j$, allora $\varphi(\vv i ', \vv j ')=\varphi(\vv i, \vv i)+\varphi(\ww i, \ww i)=1-1=0$. Quindi $M_{\basis'}(\restr{\varphi}{W})=0$, da cui si conclude che $\restr{\varphi}{W}=0$.
Pertanto $W(\varphi)\geq i_-(\varphi)$, e quindi $W(\varphi)= i_-(\varphi)$, da cui la tesi.