Siano $U$ e $W \subseteq V$ due sottospazi di $V$ in somma diretta. Allora si dice che $U$ e $W$ sono in \textbf{somma diretta ortogonale} rispetto al prodotto scalare $\varphi$ di $V$, ossia che $U \oplus W = U \oplus^\perp W$, se $\varphi(\vec u, \vec w)=0$$\forall\vec u \in U$, $\vec w \in W$.
\li$\varphi(\vec{x}, \vec{y})=\vec{x}^\top A \,\vec{y}$ per $\KK^n$, con $A \in M(n, \KK)$ simmetrica, detto anche \textbf{prodotto scalare indotto dalla matrice $A$}, ed indicato con $\varphi_A$.
sia ordinato.}$\KK=\RR$. Allora un prodotto scalare $\varphi$ si dice \textbf{definito positivo} ($\varphi > 0$) se $\v\in V$, $\vec{v}\neq\vec{0}\implies
\varphi(\vec{v}, \vec{v}) > 0$. Analogamente $\varphi$ è \textbf{definito negativo}($\varphi < 0$) se $\vec{v}\neq\vec 0 \implies\varphi(\v, \v) < 0$. In generale si dice che $\varphi$ è \textbf{definito} se è definito positivo o
Al contrario, il prodotto scalare $\varphi : \RR^2\to\RR$ tale che $\varphi((x_1, x_2), (y_1, y_2))= x_1 y_1- x_2 y_2$ non è definito positivo: $\varphi((x, y), (x, y))=0$, $\forall$$(x, y)\mid x^2= y^2$, ossia se
x_1 y_1 + x_2 y_2 - x_3 y_3$, i vettori isotropi sono i vettori della forma $(x, y, z)$ tali che $x^2 + y^2 = z^2$, e quindi $\CI(\varphi)$ è l'insieme dei
vettori stanti sul cono di equazione $x^2+ y^2= z^2$.
Sia $\varphi$ un prodotto scalare di $V$ e sia $\basis=(\vv1, ..., \vv{n})$ una base ordinata di $V$. Allora si definisce la \textbf{matrice associata}
Il radicale del prodotto scalare canonico su $\RR^n$ ha dimensione nulla, dal momento che $\forall\vec{v}\in\RR^n \setminus\{\vec{0}\}$, $q(\vec{v})=\varphi(\vec{v}, \vec{v}) > 0\implies\v\notin V^\perp$. In
generale ogni prodotto scalare definito positivo (o negativo) è non degenere, dal momento che ogni vettore
non nullo non è isotropo, e dunque non può appartenere a $V^\perp$.
Sia $\alpha_\varphi : V \to\dual{V}$ la mappa\footnote{In letteratura questa mappa, se invertibile, è nota come \textit{isomorfismo musicale}, ed è in realtà indicata come $\flat$.} tale che
$\alpha_\varphi(\vec{v})= p$, dove $p(\vec{w})=\varphi(\vec{v}, \vec{w})$$\forall\v$, $\w\in V$. \\
Si osserva che $\alpha_\varphi$ è un'applicazione lineare. Infatti, $\forall\v$, $\w$, $\U\in V$,
Si osserva inoltre che $\Ker\alpha_\varphi$ raccoglie tutti
i vettori $\v\in V$ tali che $\varphi(\v, \w)=0$$\forall\w\in W$, ossia esattamente i vettori di $V^\perp$, per cui si conclude che $V^\perp=\Ker\alpha_\varphi$ (per cui $V^\perp$ è effettivamente uno
spazio vettoriale). Se $V$ ha dimensione finita, $\dim V =\dim\dual{V}$,
Si conclude allora, tramite la contronominale, che se $\CI(\varphi)= V^\perp$, $\varphi$
è necessariamente semidefinito.
\end{proof}
\section{Formula delle dimensioni e di polarizzazione rispetto a $\varphi$}
\begin{definition}[sottospazio ortogonale a $W$]
Sia $W \subseteq V$ un sottospazio di $V$. Si identifica allora come \textbf{sottospazio ortogonale a $W$}
il sottospazio $W^\perp=\{\v\in V \mid\varphi(\v, \w)\,\forall\w\in W \}$.
\end{definition}
\begin{proposition}[formula delle dimensioni del prodotto scalare]
Sia $W \subseteq V$ un sottospazio di $V$. Allora vale la seguente identità:
\[\dim W +\dim W^\perp=\dim V +\dim(W \cap V^\perp). \]
\end{proposition}
\begin{proof}
Si consideri l'applicazione lineare $a_\varphi$ introdotta precedentemente. Si osserva che $W^\perp=\Ker(i^\top\circ a_\varphi)$, dove $i : W \to V$ è tale che $i(\vec w)=\vec w$. Allora,
per la formula delle dimensioni, vale la seguente identità:
\begin{equation}
\label{eq:dim_formula_dimensioni_1}
\dim V = \dim W^\perp + \rg (i^\top\circ a_\varphi).
\end{equation}
\vskip 0.05in
Sia allora $f = i^\top\circ a_\varphi$.
Si consideri ora l'applicazione $g = a_\varphi\circ i : W \to\dual V$. Sia ora $\basis_W$ una base di $W$ e
$\basis_V$ una base di $V$. Allora le matrici associate di $f$ e di $g$ sono le seguenti:
Poiché $\rg(A)=\rg(A^\top)$, si deduce che $\rg(f)=\rg(g)\implies\rg(i^\top\circ a_\varphi)=\rg(a_\varphi\circ i)=\rg(\restr{a_\varphi}{W})=\dim W -\dim\Ker\restr{a_\varphi}{W}$, ossia che:
\begin{equation}
\label{eq:dim_formula_dimensioni_2}
\rg(i^\top\circ a_\varphi) = \dim W - \dim (W \cap\underbrace{\Ker a_\varphi}_{V^\perp}) = \dim W - \dim (W \cap V^\perp).
\end{equation}
Si conclude allora, sostituendo l'equazione \eqref{eq:dim_formula_dimensioni_2} nell'equazione \eqref{eq:dim_formula_dimensioni_1}, che $\dim V =\dim W^\top+\dim W -\dim(W \cap V^\perp)$, ossia la tesi.
Si consideri nuovamente l'applicazione lineare $\alpha_\varphi$ introdotta
precedentemente. Si osserva innanzitutto che\footnote{$\alpha_\varphi\inv$ in questo caso non indica un'eventuale applicazione inversa di $\alpha_\varphi$, ma indica l'insieme delle eventuali controimmagini degli elementi su cui è applicata.}$W^\perp=\alpha_\varphi\inv(\Ann(W))$. Allora vale la seguente identità:
Si mostra che $\Im\alpha_\varphi=\Ann(V^\perp)$. Chiaramente $\Im\alpha_\varphi\subseteq\Ann(V^\perp)$: siano infatti $\v\in V$ e $\w\in V^\perp$, allora $\alpha_\varphi(\v)(\w)=\varphi(\v, \w)=0$. Inoltre $\dim\Im\alpha_\varphi=\rg\alpha_\varphi= n -\dim\Ker\alpha_\varphi=\dim V -\dim V^\perp=\dim\Ann(V^\perp)$,
da cui segue l'uguaglianza dei due sottospazi. Allora l'equazione \eqref{eq:formula_dimensioni_dimostrazione_alternativa_1} si può riscrivere\footnote{Si è utilizzata l'identità $\Ann(U)\cap\Ann(W)=\Ann(U + W)$, dove $U$ e $W$ sono due sottospazi di $V$, nonché che $\Ker\alpha_\varphi= V^\perp$.} come:
\[\dim W^\perp-\dim(V^\perp\cap W^\perp)=\dim V -\dim(W + V^\perp), \]
e quindi, applicando la formula di Grassmann, che\footnote{Ricordiamo che $V^\perp\subseteq W^\perp$ per ogni sottospazio $W$ di $V$, e quindi che $\dim(V^\perp\cap W^\perp)=\dim V^\perp$.}:
\[\dim W^\perp-\dim V^\perp=\dim V -\dim W -\dim V^\perp+\dim(W \cap V^\perp), \]
In particolare, se $W =\Span(\vec w)$ è il sottospazio generato da $\vec w \neq\vec0$, $\vec w \in V$, allora $W^\perp=\w^\perp$. Inoltre valgono le seguenti equivalenze: $\vec w \notin W^\perp\iff$$\Rad(\restr{\varphi}{W})= W \cap W^\perp=\zerovecset$$\iff\vec w \text{ non è isotropo }\iff$$V = W \oplus^\perp W^\perp$. \\
In generale, se $W$ è un sottospazio qualsiasi di $V$ tale che $W \cap W^\perp=\zerovecset$, vale
\section{Il teorema di Lagrange e basi ortogonali}
\begin{definition}
Si definisce \textbf{base ortogonale} di $V$ una base $\vv1$, ..., $\vv n$ tale per cui $\varphi(\vv i, \vv j)=0
\impliedby i \neq j$, ossia una base per cui la matrice associata del prodotto scalare è diagonale.
\end{definition}
\begin{theorem}[di Lagrange]
Ogni spazio vettoriale $V$ su $\KK$ tale per cui $\Char\KK\neq2$ ammette una base ortogonale.
\end{theorem}
\begin{proof}
Si dimostra il teorema per induzione su $n :=\dim V$. Per $n \leq1$, la tesi è triviale (se esiste una base, tale base è
già ortogonale). Sia
allora il teorema vero per $i \leq n$. Se $V$ ammette un vettore non isotropo $\vec w$, sia $W =\Span(\vec w)$ e si consideri la decomposizione $V = W \oplus W^\perp$. Poiché $W^\perp$ ha dimensione $n-1$, per ipotesi induttiva
ammette una base ortogonale. Inoltre, tale base è anche ortogonale a $W$, e quindi l'aggiunta di $\vec w$ a
questa base ne fa una base ortogonale di $V$. Se invece $V$ non ammette vettori non isotropi, ogni forma quadratica
Inoltre, per ogni base ortogonale, esistono esattamente
$\iota_+$ vettori della base con forma quadratica positiva,
$\iota_-$ con forma negativa e $\iota_0$ con
forma nulla.
\end{theorem}
\begin{proof}
Per il teorema di Lagrange, esiste una base ortogonale $\basis'$ di $V$.
Si riordini la base in modo tale che la forma quadratica valutata nei primi elementi sia strettamente positiva, che nei secondi elementi sia strettamente negativa e che negli ultimi sia nulla. Si sostituisca
$\basis'$ con una base $\basis$ tale per cui, se $q(\vv i) > 0$,
allora $\vv i \mapsto\frac{\vv i}{\sqrt{q(\vv i)}}$; se
$q(\vv i) < 0$, allora $\vv i \mapsto\frac{\vv i}{\sqrt{-q(\vv i)}}$;
altrimenti $\vv i \mapsto\vv i$. Si è allora trovata una base
la cui matrice associata del prodotto scalare è come desiderata nella
tesi. \\
Sia ora $\basis$ una qualsiasi base ortogonale di $V$.
Siano inoltre $a$ il numero di vettori della base con forma quadratica
positiva, $b$ il numero di vettori con forma negativa e $c$ quello
dei vettori con forma nulla. Si consideri $W_+=\Span(\vv1, ..., \vv a)$, $W_-=\Span(\vv{a+1}, ..., \vv b)$, $W_0=\Span(\vv{b+1}, ..., \vv c)$. \\
Sia $M = M_\basis(\varphi)$. Si osserva che $c = n -\rg(M)=\dim\Ker(M)=\dim V^\perp=\iota_0$. Inoltre $\forall\v\in W_+$, dacché
$\basis$ è ortogonale,
$q(\v)= q(\sum_{i=1}^a \alpha_i \vv i)=\sum_{i=1}^a \alpha_i^2 q(\vv i) > 0$, e quindi $\restr{\varphi}{W_+} > 0$, da cui $\iota_+\geq a$.
Analogamente $\iota_-\geq b$. \\
Si mostra ora che è impossibile che $\iota_+ > a$. Se così infatti
fosse, sia $W$ tale che $\dim W =\iota_+$ e che $\restr{\varphi}{W} > 0$. $\iota_++ b + c$ sarebbe maggiore di $a + b + c = n :=\dim V$. Quindi, per la formula di Grassman, $\dim(W + W_-+ W_0)=\dim W +
\dim(W_- + W_0) - \dim (W \cap (W_- + W_0)) \implies\dim (W \cap (W_- + W_0)) = \dim W +
\li Se $\ww1$, ..., $\ww k$ sono tutti i vettori di una base
ortogonale $\basis$ con forma quadratica nulla, si osserva che $W =\Span(\ww1, ..., \ww k)$ altro non è che $V^\perp$ stesso. \\
Infatti, come
visto anche nella dimostrazione del teorema di Sylvester reale, vale
che $\dim W =\dim\Ker(M_\basis(\varphi))=\dim V^\perp$.
Sia allora la base $\basis=\{\ww1, \ldots, \ww k, \vv{k+1}, \ldots, \vv n\}$ un'estensione di $\{\ww1, \ldots, \ww k\}$. Se $\w\in W$ e $\v\in V$, $\varphi(\w, \v)=\varphi(\sum_{i=1}^k
\alpha_i \ww i, \sum_{i=1}^k \beta_i \ww i + \sum_{i=k+1}^n \beta_i \vv i)
= \sum_{i=1}^k \alpha_i \beta_i q(\ww i) = 0$(dove $\alpha_i$ e $\beta_i \in\KK$ rappresentano la $i$-esima coordinata di $\w$ e $\v$ nella base $\basis$), e quindi
$W \subseteq V^\perp$. Si conclude allora, tramite l'uguaglianza
dimensionale, che $W = V^\perp$. \\
\li Poiché $\dim\Ker(\varphi)=\iota_0$, vale in particolare che $\rg(\varphi)= n -\iota_0=\iota_++\iota_-$ (infatti vale che $n =\iota_++\iota_-+\iota_0$, dal momento che $n$ rappresenta il numero di elementi di una base ortogonale). \\
\li Se $V = U \oplusperp W$, allora $\iota_+(\varphi)=\iota_+(\restr{\varphi}{U})+\iota_+(\restr{\varphi}{W})$.
Analogamente vale la stessa cosa per gli altri indici. Infatti,
prese due basi ortogonali $\basis_U$, $\basis_W$ di $U$ e $W$,
la loro unione $\basis$ è una base ortogonale di $V$. Pertanto
il numero di vettori della base $\basis$ con forma quadratica positiva
è esattamente $\iota_+(\restr{\varphi}{U})+\iota_+(\restr{\varphi}{W})$. \\
\li In generale, se $W$ è un sottospazio di $V$, vale che $\iota_+(\varphi)\geq\iota_+(\restr{\varphi}{W})$.
Infatti, se $U$ è un sottospazio di $W$ di dimensione $\iota_+(\restr{\varphi}{W})$ tale che
$\restr{(\restr{\varphi}{W})}{U} > 0$, allora $U$ è in particolare un sottospazio di $V$ tale che $\restr{\varphi}{U} > 0$. Pertanto, per definizione, essendo $\iota_+(\varphi)$ la dimensione del massimo sottospazio su cui $\varphi$, ristretto ad esso, è definito positivo, deve valere che $\iota_+(\varphi)\geq\iota_+(\restr{\varphi}{W})$. Analogamente, $\iota_-(\varphi)\geq\iota_-(\restr{\varphi}{W})$.
\subsubsection{Classificazione delle segnature per $n =1$, $2$, $3$}
Sia $\basis$ una base di Sylvester per $\varphi$. Sia $A = M_\basis(\varphi)$. Si indica con $x$, $y$ e $z$
le tre coordinate di $\v\in V$ secondo la base $\basis$. \\
\mbox{($n =1$)} Vi sono solo tre possibili matrici per $A$:
\begin{itemize}
\item$A =(0)$, con $\sigma=(0, 0, 1)$, $\rg(\varphi)=0$ e $\CI(\varphi)= V$,
\item$A =(1)$, con $\sigma=(1, 0, 0)$, $\rg(\varphi)=1$ e $\CI(\varphi)=\zerovecset$,
\item$A =(-1)$, con $\sigma=(0, 1, 0)$, $\rg(\varphi)=1$ e $\CI(\varphi)=\zerovecset$.
\end{itemize}
\vskip 0.1in
\mbox{($n =2$)} Vi sono sei possibili matrici per $A$:
\begin{itemize}
\item$A =0$, con $\sigma=(0, 0, 2)$, $\rg(\varphi)=0$ e $\CI(\varphi)= V$,
\item$A =\Matrix{1&0\\0&0}$, con $\sigma=(1, 0, 1)$, $\rg(\varphi)=1$ e $\CI(\varphi)=\{x =0\mid\v\in V\}= V^\perp$,
\item$A =\Matrix{-1&0\\0&0}$, con $\sigma=(0, 1, 1)$, $\rg(\varphi)=1$ e $\CI(\varphi)=\{x =0\mid\v\in V\}= V^\perp$,
\item$A =\Matrix{1&0\\0&-1}$, con $\sigma=(1, 1, 0)$, $\rg(\varphi)=2$ e $\CI(\varphi)=\{x^2= y^2\mid\v\in V\}$,
\item$A = I_2$, con $\sigma=(2, 0, 0)$, $\rg(\varphi)=2$ e $\CI(\varphi)=\zerovecset$,
\item$A =-I_2$, con $\sigma=(0, 2, 0)$, $\rg(\varphi)=2$ e $\CI(\varphi)=\zerovecset$.
\end{itemize}
Si osserva in particolare che $\det(A)=-1\iff\sigma=(1, 1, 0)$. Pertanto se $M$ è una matrice associata
al prodotto scalare $\varphi$ in una base $\basis'$, $\det(M) < 0\iff\sigma=(1, 1, 0)$. \\
\mbox{($n =3$)} Se $A$ contiene almeno uno zero nella diagonale, si può studiare $A$ riconducendosi al caso $n =2$,
considerando la matrice $A^{1,2}_{1,2}$, e incrementando di uno l'indice di nullità di $\varphi$ (eventualmente
considerando anche come varia il cono isotropo). Altrimenti $A$
può essere rappresentato dalle seguenti quattro matrici:
\begin{itemize}
\item$A = I_3$, con $\sigma=(3, 0, 0)$, $\rg(\varphi)=3$ e $\CI(\varphi)=\zerovecset$,
\item$A =-I_3$, con $\sigma=(0, 3, 0)$, $\rg(\varphi)=3$ e $\CI(\varphi)=\zerovecset$,
\item$A =\Matrix{1&0&0\\0&1&0\\0&0&-1}$, con $\sigma=(2, 1, 0)$, $\rg(\varphi)=3$ e $\CI(\varphi)=\{ x^2+ y^2= z^2\mid\v\in V \}$,
\item$A =\Matrix{1&0&0\\0&-1&0\\0&0&-1}$, con $\sigma=(1, 2, 0)$, $\rg(\varphi)=3$ e $\CI(\varphi)=\{ y^2+ z^2= x^2\mid\v\in V \}$.
\end{itemize}
Si osserva infine che, se $V =\RR^3$ e $\basis$ ne è la base canonica, i coni isotropi delle ultime due matrici rappresentano proprio due coni nello spazio tridimensionale.
dove $d' \in\{-1, 0, 1\}$. Allora $\det(A')=\det(A) d' \implies d' =\frac{\det(A')}{\det(A)}$, dal
momento che $\det(A)\neq0$, essendo $\restr{\varphi}{W}$ non degenere. \\
In particolare, $\sigma(\restr{\varphi}{W'})=(p, q, 1)$ se e solo se $\det(A')=0\implies d' =0$. Dal
momento che $\det(A')=0\iff\det(B')=0$, $d' =0\iff d =0$. Pertanto si conclude che
$\sigma(\restr{\varphi}{W'})=(p, q, 1)\iff d =0$. \\
Al contrario, $\sigma(\restr{\varphi}{W'})=(p+1, q, 0)$ se e solo se $d' =1$, ossia se e solo se $\det(A')$
e $\det(A)$ sono concordi di segno. Dal momento che il segno è un invariante del cambiamento di base per la
matrice associata a $\varphi$, $d' =1$ se e solo se $\det(B)$ e $\det(B')$ sono concordi di segno, ossia
se e solo se $d > 0$. Pertanto $\sigma(\restr{\varphi}{W'})=(p+1, q, 0)\iff d > 0$. Analogamente si
verifica che $\sigma(\restr{\varphi}{W'})=(p, q+1, 0)\iff d < 0$, da cui la tesi.
\end{proof}
\begin{algorithm}[metodo di Jacobi] \label{alg:metodo_jacobi}
Sia $\basis$ una base di $V$ e sia $A = M_\basis(\varphi)$. Se il determinante di ogni minore di testa\footnote{In realtà il metodo si estende ad ogni successione di minori coerente con un'estensione di base (i.e.~i minori principali di $A$).}
di $A$ (ossia dei minori della forma $A^{1, \ldots, i}_{1, \ldots, i}$, con $1\leq i \leq n-1$) è diverso
da zero, è possibile applicare il \textbf{metodo di Jacobi} per il calcolo della segnatura di $\varphi$. \\
Sia $d_i =\det\left(A^{1,\ldots,i}_{1,\ldots,i}\right)$$\forall1\leq i \leq n$ e si ponga $d_0 :=1$. Allora, per la \textit{Proposizione \ref{prop:pre_metodo_jacobi}}, $\iota_+$ corrisponde al numero di permanenze del segno
tra elementi consecutivi (escludendo $0$) di $(d_i)$, mentre $\iota_-$ corrisponde al numero di variazioni
del segno (anche stavolta escludendo $0$). Infine $\iota_0$ può valere solo $0$ o $1$, dove $\iota_0=1\iff\det(A)=0$.
\end{algorithm}
\begin{example}
Sia $A =\Matrix{1&1&0\\1&2&-1\\0&-1&4}\in M(3, \RR)$. \\
\vskip 0.1in
Si calcola la segnatura di $\varphi_A$ mediante
il metodo di Jacobi. Poiché $A$ è la matrice associata di $\varphi_A$ nella base canonica di $\RR^3$,
si può applicare il metodo di Jacobi direttamente su $A$. \\
Si calcola allora la successione dei $d_i$:
\begin{enumerate}
\item$d_1=\det(1)=1$,
\item$d_2=\det\Matrix{1&1\\1&2}=2-1=1$,
\item$d_3=\det(A)=(8-1)-4=3$.
\end{enumerate}
Dal momento che vi sono tre permanenze di segno, si conclude che $\sigma(\varphi_A)=(3, 0, 0)$, ossia
che $\varphi_A$ è definito positivo.
\end{example}
\subsubsection{Criterio di Sylvester per la definitezza di un prodotto scalare}
\begin{proposition}[criterio di Sylvester per i prodotti definiti] Sia $\KK=\RR$.
Sia $\basis$ una base di $V$, e sia $A = M_\basis(\varphi)$. Sia $d_i =\det\left(A^{1,\ldots,i}_{1,\ldots,i}\right)$.
Allora $\varphi$ è definito positivo se e solo se $d_i > 0$$\forall1\leq i \leq n$. Analogamente
$\varphi$ è definito negativo se e solo se $(-1)^i \, d_i > 0$$\forall1\leq i \leq n$.
\end{proposition}
\begin{proof}
Si osserva che $\varphi$ è definito positivo se e solo se $\iota_+= n$. Pertanto, per il
\textit{\nameref{alg:metodo_jacobi}}, $\varphi$ è definito positivo se e solo se vi sono
solo permanenze di segno tra elementi consecutivi nella successione $(d_i)$, e quindi
se e solo se $d_i > 0$$\forall1\leq i \leq n$. Analogamente $\varphi$ è definito
negativo se e solo se $\iota_-= n$, e quindi se e solo se vi sono solo variazioni
di segno $\iff d_i > 0$ se $i$ è pari e $d_i < 0$ se $i$ è dispari $\iff(-1)^i \, d_i > 0$, $\forall1\leq i \leq n$.
\eqref{eq:disuguaglianza_sottospazio_isotropo_1}, si ottiene che $\dim W \leq\frac{\dim V +\dim(W \cap V^\perp)}{2}$. Dal momento che $W \cap V^\perp\subseteq V^\perp$,
$\dim(W \cap V^\perp)\leq\dim V^\perp$, e quindi $\dim W \leq\frac{\dim V +\dim V^\perp}{2}$. Poiché $\dim W$ è un numero naturale, vale come conseguenza la tesi.
\li Se $W$ è isotropo e $\varphi$ è non degenere, il risultato della \textit{Proposizione \ref{prop:disuguaglianza_sottospazio_isotropo}} si riduce alla disuguaglianza
\li Ancora per la \textit{Proposizione \ref{prop:disuguaglianza_sottospazio_isotropo}}, vale che $W(\varphi)\leq\floor{\frac{\dim V +\dim V^\perp}{2}}$.
$W(\varphi)=\floor{\frac{\dim V +\dim V^\perp}{2}}$.
\end{proposition}
\begin{proof}
Sia $\basis$ una base di Sylvester per $V$. In particolare, detto $k :=\dim V^\perp$; sia $\basis=\{\vv1, \ldots, \vv{n-k}, \uu1, \ldots, \uu k \}$ ordinata in modo tale che $\vv i$ non
sia isotropo per $1\leq i \leq n-k$ e che $\uu i$ sia invece isotropo per
$1\leq i \leq k$. Si costruisca allora l'insieme $\basis' =\{\vv1 ' :=\vv1+ i \vv2, \,\vv2 ' :=\vv3+ i \vv4, \ldots, \uu1, \ldots, \uu k\}$ ottenuto prendendo in ordine quante più coppie distinte possibili di
il prodotto $\varphi(\vv i', \vv j')$. Se $i \neq j$, il prodotto ha argomenti tra di
loro già ortogonali per costruzione di $\basis$; se invece $i = j$, detto $\vv i' =\vv s + i \vv{s+1}$ con $s \in\NN$, $\varphi(\vv i', \vv i')=\varphi(\vv s, \vv s)-\varphi(\vv{s+1}, \vv{s+1})=1-1=0$. Allora $M_{\basis'}(\restr{\varphi}{W})=0\implies\restr{\varphi}{W}=0$. Pertanto $W$ è un sottospazio isotropo di dimensione
$\floor{\frac{\dim V +\dim V^\perp}{2}}$. Poiché per la \textit{Proposizione \ref{prop:disuguaglianza_sottospazio_isotropo}} tale dimensione maggiora tutte le
dimensioni dei sottospazi isotropi, si conclude che $W(\varphi)=\floor{\frac{\dim V +\dim V^\perp}{2}}$, da cui la tesi.
Senza perdità di generalità si assuma $\iota_-(\varphi)\leq\iota_+(\varphi)$ (il caso $\iota_-(\varphi) > \iota_+(\varphi)$ è analogo). Sia $W$ un sottospazio con $\dim W > \iota_0(\varphi)+\iota_-(\varphi)$. Sia $W^+$
un sottospazio con $\dim W^+=\iota_+(\varphi)$ e $\restr{\varphi}{W^+} > 0$. Si
osserva pertanto che $\dim W +\dim W^+ > \iota_+(\varphi)+\iota_-(\varphi)+\iota_0(\varphi)= n$: allora, per la formula
di Grassmann, $n -\dim(W \cap W^+) < \dim(W + W^+)\leq n \implies\dim(W \cap W^+) > 0$. Quindi $\exists\w\in W$, $\w\neq\vec0$ tale che $\varphi(\w, \w) > 0$, da cui
si ricava che $W$ non è isotropo. Pertanto $W(\varphi)\leq\iota_0(\varphi)+\iota_-(\varphi)$. \\
Siano $a :=\iota_+(\varphi)$, $b :=\iota_-(\varphi)$ e $c :=\iota_0(\varphi)$.
Sia $\basis=\{\vv1, \ldots, \vv a, \ww1, \ldots, \ww b, \uu1, \ldots, \uu c \}$ una base di Sylvester per $\varphi$. Siano $\vv1$, ..., $\vv a$ tali che $\varphi(\vv i, \vv i)=1$
Si osserva che $\basis'$ è linearmente indipendente, e dunque che $\dim W =\iota_-(\varphi)+\iota_0(\varphi)$. Chiaramente i vettori $\uu i$ sono ancora ortogonali con gli elementi di $\basis'$ e sono tali per cui $\varphi(\uu i, \uu i)=0$$\forall1\leq i \leq c$. Inoltre
$\varphi(\vv i ', \vv j ')=\varphi(\vv i +\ww i, \vv j +\ww j)$. Se $i \neq j$, allora
$\varphi(\vv i ', \vv j ')=0$, dal momento che i vettori di $\basis$ sono a due a due ortogonali
tra loro. Se invece $i = j$, allora $\varphi(\vv i ', \vv j ')=\varphi(\vv i, \vv i)+\varphi(\ww i, \ww i)=1-1=0$. Quindi $M_{\basis'}(\restr{\varphi}{W})=0$, da cui si conclude che $\restr{\varphi}{W}=0$.
\begin{proposition} Sia $f : V \to V'$ un isomorfismo. Allora $f$ è un'isometria $\iff$$\forall$ base $\basis=\{\vv1, \ldots, \vv n \}$ di $V$, $\basis' =\{ f(\vv1), \ldots, f(\vv n)\}$ è una base di $V'$ e $\varphi(\vv i, \vv j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$$\iff$$\exists$ base $\basis=\{\vv1, \ldots, \vv n \}$ di $V$ tale che $\basis' =\{ f(\vv1), \ldots, f(\vv n)\}$ è una base di $V'$ e $\varphi(\vv i, \vv j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$.
\label{prop:isometrie_base_sufficiente}
\end{proposition}
\begin{proof} Se $f$ è un'isometria, detta $\basis$ una base di $V$, $\basis' = f(\basis)$ è una base di $V'$
dal momento che $f$ è prima di tutto un isomorfismo. Inoltre, dacché $f$ è un'isometria, vale sicuramente che
$\varphi(\vv i, \vv j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$. \\
Sia ora assunto per ipotesi che $\forall$ base $\basis=\{\vv1, \ldots, \vv n \}$ di $V$, $\basis' =\{ f(\vv1), \ldots, f(\vv n)\}$ è una base di $V'$ e $\varphi(\vv i, \vv j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$. Allora, analogamente a prima, detta $\basis=\{\vv1, \ldots, \vv n \}$ una base di $V$, $\basis' = f(\basis)$ è una base di $V'$, e in quanto tale,
per ipotesi, è tale che $\varphi(\vv i, \vv j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$. \\
Sia infine assunto per ipotesi che $\exists$ base $\basis=\{\vv1, \ldots, \vv n \}$ di $V$ tale che $\basis' =\{ f(\vv1), \ldots, f(\vv n)\}$ è una base di $V'$ e $\varphi(\vv i, \vv j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$. Siano $\v$, $\w\in V$. Allora $\exists a_1$, ..., $a_n$, $b_1$, ..., $b_n \in\KK$
tali che $\v= a_1\vv1+\ldots+ a_n \vv n$ e $\w= b_1\vv1+\ldots+ b_n \vv n$. Si ricava pertanto
\item$\forall$ base $\basis$ di $V$, base $\basis'$ di $V'$,
$M_\basis(\varphi)$ e $M_{\basis'}(\varphi')$ sono congruenti;
\item$\exists$ base $\basis$ di $V$, base $\basis'$ di $V'$ tale che
$M_\basis(\varphi)$ e $M_{\basis'}(\varphi')$ sono congruenti.
\end{enumerate}
\end{proposition}
\begin{proof} Se $V$ e $V'$ sono isometrici, sia $f : V \to V'$ un'isometria. Sia $\basisC=\{\vv1, \ldots, \vv n \}$ una base di $V$. Allora, poiché $f$ è anche un isomorfismo, $\basisC' = f(\basisC)$ è una base di $V$ tale che
$\varphi(\vv i, \vv j)=\varphi'(f(\vv i), f(\vv j))$$\forall1\leq i, j \leq n$. Pertanto $M_\basisC(\varphi)= M_{\basisC'}(\varphi')$. Si conclude allora che, cambiando base in $V$ (o in $V'$), la matrice associata
al prodotto scalare varia per congruenza dalla formula di cambiamento di base per il prodotto scalare, da cui si ricava che per ogni scelta di $\basis$ base di $V$ e di $\basis'$ base di $V'$, $M_\basis(\varphi)\cong M_{\basis'}(\varphi')$. Inoltre, se tale risultato è vero per ogni $\basis$ base di $V$ e di $\basis'$ base di $V'$, dal momento che sicuramente esistono due basi $\basis$, $\basis'$ di $V$ e $V'$, vale anche (ii) $\implies$ (iii). \\
Si dimostra ora (iii) $\implies$ (i). Per ipotesi $M_\basis(\varphi)\cong M_{\basis'}(\varphi')$, quindi
$\exists P \in\GL(n, \KK)\mid M_{\basis'}(\varphi')= P^\top M_\basis(\varphi) P$. Allora $\exists$$\basis''$
base di $V'$ tale che $P = M_{\basis''}^{\basis'}(\Idv)$, da cui $P\inv= M_{\basis'}^{\basis''}(\varphi)$. Per la formula di cambiamento di base del prodotto
Si conclude dunque, dalla \textit{Proposizione \ref{prop:isometrie_base_sufficiente}}, che $\varphi(\v, \w)=\varphi'(f(\v), f(\w))$$\forall\v, \w\in V$, e dunque