Siano $U$ e $W \subseteq V$ due sottospazi di $V$ in somma diretta. Allora si dice che $U$ e $W$ sono in \textbf{somma diretta ortogonale} rispetto al prodotto scalare $\varphi$ di $V$, ossia che $U \oplus W = U \oplus^\perp W$, se $\varphi(\vec u, \vec w)=0$$\forall\vec u \in U$, $\vec w \in W$.
\li$\varphi(\vec{x}, \vec{y})=\vec{x}^\top A \,\vec{y}$ per $\KK^n$, con $A \in M(n, \KK)$ simmetrica, detto anche \textbf{prodotto scalare indotto dalla matrice $A$}, ed indicato con $\varphi_A$.
sia ordinato.}$\KK=\RR$. Allora un prodotto scalare $\varphi$ si dice \textbf{definito positivo} ($\varphi > 0$) se $\v\in V$, $\vec{v}\neq\vec{0}\implies
\varphi(\vec{v}, \vec{v}) > 0$. Analogamente $\varphi$ è \textbf{definito negativo}($\varphi < 0$) se $\vec{v}\neq\vec 0 \implies\varphi(\v, \v) < 0$. In generale si dice che $\varphi$ è \textbf{definito} se è definito positivo o
Al contrario, il prodotto scalare $\varphi : \RR^2\to\RR$ tale che $\varphi((x_1, x_2), (y_1, y_2))= x_1 y_1- x_2 y_2$ non è definito positivo: $\varphi((x, y), (x, y))=0$, $\forall$$(x, y)\mid x^2= y^2$, ossia se
x_1 y_1 + x_2 y_2 - x_3 y_3$, i vettori isotropi sono i vettori della forma $(x, y, z)$ tali che $x^2 + y^2 = z^2$, e quindi $\CI(\varphi)$ è l'insieme dei
vettori stanti sul cono di equazione $x^2+ y^2= z^2$.
Sia $\varphi$ un prodotto scalare di $V$ e sia $\basis=(\vv1, ..., \vv{n})$ una base ordinata di $V$. Allora si definisce la \textbf{matrice associata}
Il radicale del prodotto scalare canonico su $\RR^n$ ha dimensione nulla, dal momento che $\forall\vec{v}\in\RR^n \setminus\{\vec{0}\}$, $q(\vec{v})=\varphi(\vec{v}, \vec{v}) > 0\implies\v\notin V^\perp$. In
generale ogni prodotto scalare definito positivo (o negativo) è non degenere, dal momento che ogni vettore
non nullo non è isotropo, e dunque non può appartenere a $V^\perp$.
Sia $\alpha_\varphi : V \to\dual{V}$ la mappa\footnote{In letteratura questa mappa, se invertibile, è nota come \textit{isomorfismo musicale}, ed è in realtà indicata come $\flat$.} tale che
$\alpha_\varphi(\vec{v})= p$, dove $p(\vec{w})=\varphi(\vec{v}, \vec{w})$$\forall\v$, $\w\in V$. \\
Si osserva che $\alpha_\varphi$ è un'applicazione lineare. Infatti, $\forall\v$, $\w$, $\U\in V$,
Si osserva inoltre che $\Ker\alpha_\varphi$ raccoglie tutti
i vettori $\v\in V$ tali che $\varphi(\v, \w)=0$$\forall\w\in W$, ossia esattamente i vettori di $V^\perp$, per cui si conclude che $V^\perp=\Ker\alpha_\varphi$ (per cui $V^\perp$ è effettivamente uno
spazio vettoriale). Se $V$ ha dimensione finita, $\dim V =\dim\dual{V}$,
Si conclude allora, tramite la contronominale, che se $\CI(\varphi)= V^\perp$, $\varphi$
è necessariamente semidefinito.
\end{proof}
\section{Formula delle dimensioni e di polarizzazione rispetto a $\varphi$}
\begin{definition}[sottospazio ortogonale a $W$]
Sia $W \subseteq V$ un sottospazio di $V$. Si identifica allora come \textbf{sottospazio ortogonale a $W$}
il sottospazio $W^\perp=\{\v\in V \mid\varphi(\v, \w)\,\forall\w\in W \}$.
\end{definition}
\begin{proposition}[formula delle dimensioni del prodotto scalare]
Sia $W \subseteq V$ un sottospazio di $V$. Allora vale la seguente identità:
\[\dim W +\dim W^\perp=\dim V +\dim(W \cap V^\perp). \]
\end{proposition}
\begin{proof}
Si consideri l'applicazione lineare $a_\varphi$ introdotta precedentemente. Si osserva che $W^\perp=\Ker(i^\top\circ a_\varphi)$, dove $i : W \to V$ è tale che $i(\vec w)=\vec w$. Allora,
per la formula delle dimensioni, vale la seguente identità:
\begin{equation}
\label{eq:dim_formula_dimensioni_1}
\dim V = \dim W^\perp + \rg (i^\top\circ a_\varphi).
\end{equation}
\vskip 0.05in
Sia allora $f = i^\top\circ a_\varphi$.
Si consideri ora l'applicazione $g = a_\varphi\circ i : W \to\dual V$. Sia ora $\basis_W$ una base di $W$ e
$\basis_V$ una base di $V$. Allora le matrici associate di $f$ e di $g$ sono le seguenti:
Poiché $\rg(A)=\rg(A^\top)$, si deduce che $\rg(f)=\rg(g)\implies\rg(i^\top\circ a_\varphi)=\rg(a_\varphi\circ i)=\rg(\restr{a_\varphi}{W})=\dim W -\dim\Ker\restr{a_\varphi}{W}$, ossia che:
\begin{equation}
\label{eq:dim_formula_dimensioni_2}
\rg(i^\top\circ a_\varphi) = \dim W - \dim (W \cap\underbrace{\Ker a_\varphi}_{V^\perp}) = \dim W - \dim (W \cap V^\perp).
\end{equation}
Si conclude allora, sostituendo l'equazione \eqref{eq:dim_formula_dimensioni_2} nell'equazione \eqref{eq:dim_formula_dimensioni_1}, che $\dim V =\dim W^\top+\dim W -\dim(W \cap V^\perp)$, ossia la tesi.
\end{proof}
\begin{remark} Si identifica $\w^\perp$ come il sottospazio di tutti i vettori di $V$ ortogonali a $\w$.
In particolare, se $W =\Span(\vec w)$ è il sottospazio generato da $\vec w \neq\vec0$, $\vec w \in V$, allora $W^\perp=\w^\perp$. Inoltre valgono le seguenti equivalenze: $\vec w \notin W^\perp\iff$$\Rad(\restr{\varphi}{W})= W \cap W^\perp=\zerovecset$$\iff\vec w \text{ non è isotropo }\iff$$V = W \oplus^\perp W^\perp$. \\
In generale, se $W$ è un sottospazio qualsiasi di $V$ tale che $W \cap W^\perp=\zerovecset$, vale
\section{Il teorema di Lagrange e basi ortogonali}
\begin{definition}
Si definisce \textbf{base ortogonale} di $V$ una base $\vv1$, ..., $\vv n$ tale per cui $\varphi(\vv i, \vv j)=0
\impliedby i \neq j$, ossia una base per cui la matrice associata del prodotto scalare è diagonale.
\end{definition}
\begin{theorem}[di Lagrange]
Ogni spazio vettoriale $V$ su $\KK$ tale per cui $\Char\KK\neq2$ ammette una base ortogonale.
\end{theorem}
\begin{proof}
Si dimostra il teorema per induzione su $n :=\dim V$. Per $n \leq1$, la tesi è triviale (se esiste una base, tale base è
già ortogonale). Sia
allora il teorema vero per $i \leq n$. Se $V$ ammette un vettore non isotropo $\vec w$, sia $W =\Span(\vec w)$ e si consideri la decomposizione $V = W \oplus W^\perp$. Poiché $W^\perp$ ha dimensione $n-1$, per ipotesi induttiva
ammette una base ortogonale. Inoltre, tale base è anche ortogonale a $W$, e quindi l'aggiunta di $\vec w$ a
questa base ne fa una base ortogonale di $V$. Se invece $V$ non ammette vettori non isotropi, ogni forma quadratica
Inoltre, per ogni base ortogonale, esistono esattamente
$\iota_+$ vettori della base con forma quadratica positiva,
$\iota_-$ con forma negativa e $\iota_0$ con
forma nulla.
\end{theorem}
\begin{proof}
Per il teorema di Lagrange, esiste una base ortogonale $\basis'$ di $V$.
Si riordini la base in modo tale che la forma quadratica valutata nei primi elementi sia strettamente positiva, che nei secondi elementi sia strettamente negativa e che negli ultimi sia nulla. Si sostituisca
$\basis'$ con una base $\basis$ tale per cui, se $q(\vv i) > 0$,
allora $\vv i \mapsto\frac{\vv i}{\sqrt{q(\vv i)}}$; se
$q(\vv i) < 0$, allora $\vv i \mapsto\frac{\vv i}{\sqrt{-q(\vv i)}}$;
altrimenti $\vv i \mapsto\vv i$. Si è allora trovata una base
la cui matrice associata del prodotto scalare è come desiderata nella
tesi. \\
Sia ora $\basis$ una qualsiasi base ortogonale di $V$.
Siano inoltre $a$ il numero di vettori della base con forma quadratica
positiva, $b$ il numero di vettori con forma negativa e $c$ quello
dei vettori con forma nulla. Si consideri $W_+=\Span(\vv1, ..., \vv a)$, $W_-=\Span(\vv{a+1}, ..., \vv b)$, $W_0=\Span(\vv{b+1}, ..., \vv c)$. \\
Sia $M = M_\basis(\varphi)$. Si osserva che $c = n -\rg(M)=\dim\Ker(M)=\dim V^\perp=\iota_0$. Inoltre $\forall\v\in W_+$, dacché
$\basis$ è ortogonale,
$q(\v)= q(\sum_{i=1}^a \alpha_i \vv i)=\sum_{i=1}^a \alpha_i^2 q(\vv i) > 0$, e quindi $\restr{\varphi}{W_+} > 0$, da cui $\iota_+\geq a$.
Analogamente $\iota_-\geq b$. \\
Si mostra ora che è impossibile che $\iota_+ > a$. Se così infatti
fosse, sia $W$ tale che $\dim W =\iota_+$ e che $\restr{\varphi}{W} > 0$. $\iota_++ b + c$ sarebbe maggiore di $a + b + c = n :=\dim V$. Quindi, per la formula di Grassman, $\dim(W + W_-+ W_0)=\dim W +
\dim(W_- + W_0) - \dim (W \cap (W_- + W_0)) \implies\dim (W \cap (W_- + W_0)) = \dim W +
\li Se $\ww1$, ..., $\ww k$ sono tutti i vettori di una base
ortogonale $\basis$ con forma quadratica nulla, si osserva che $W =\Span(\ww1, ..., \ww k)$ altro non è che $V^\perp$ stesso. \\
Infatti, come
visto anche nella dimostrazione del teorema di Sylvester reale, vale
che $\dim W =\dim\Ker(M_\basis(\varphi))=\dim V^\perp$.
Sia allora la base $\basis=\{\ww1, \ldots, \ww k, \vv{k+1}, \ldots, \vv n\}$ un'estensione di $\{\ww1, \ldots, \ww k\}$. Se $\w\in W$ e $\v\in V$, $\varphi(\w, \v)=\varphi(\sum_{i=1}^k
\alpha_i \ww i, \sum_{i=1}^k \beta_i \ww i + \sum_{i=k+1}^n \beta_i \vv i)
= \sum_{i=1}^k \alpha_i \beta_i q(\ww i) = 0$(dove $\alpha_i$ e $\beta_i \in\KK$ rappresentano la $i$-esima coordinata di $\w$ e $\v$ nella base $\basis$), e quindi
$W \subseteq V^\perp$. Si conclude allora, tramite l'uguaglianza
dimensionale, che $W = V^\perp$. \\
\li Poiché $\dim\Ker(\varphi)=\iota_0$, vale in particolare che $\rg(\varphi)= n -\iota_0=\iota_++\iota_-$ (infatti vale che $n =\iota_++\iota_-+\iota_0$, dal momento che $n$ rappresenta il numero di elementi di una base ortogonale). \\
\li Se $V = U \oplusperp W$, allora $\iota_+(\varphi)=\iota_+(\restr{\varphi}{U})+\iota_+(\restr{\varphi}{W})$.
Analogamente vale la stessa cosa per gli altri indici. Infatti,
prese due basi ortogonali $\basis_U$, $\basis_W$ di $U$ e $W$,
la loro unione $\basis$ è una base ortogonale di $V$. Pertanto
il numero di vettori della base $\basis$ con forma quadratica positiva
è esattamente $\iota_+(\restr{\varphi}{U})+\iota_+(\restr{\varphi}{W})$. \\
\li In generale, se $W$ è un sottospazio di $V$, vale che $\iota_+(\varphi)\geq\iota_+(\restr{\varphi}{W})$.
Infatti, se $U$ è un sottospazio di $W$ di dimensione $\iota_+(\restr{\varphi}{W})$ tale che
$\restr{(\restr{\varphi}{W})}{U} > 0$, allora $U$ è in particolare un sottospazio di $V$ tale che $\restr{\varphi}{U} > 0$. Pertanto, per definizione, essendo $\iota_+(\varphi)$ la dimensione del massimo sottospazio su cui $\varphi$, ristretto ad esso, è definito positivo, deve valere che $\iota_+(\varphi)\geq\iota_+(\restr{\varphi}{W})$. Analogamente, $\iota_-(\varphi)\geq\iota_-(\restr{\varphi}{W})$.
\subsubsection{Classificazione delle segnature per $n =1$, $2$, $3$}
Sia $\basis$ una base di Sylvester per $\varphi$. Sia $A = M_\basis(\varphi)$. Si indica con $x$, $y$ e $z$
le tre coordinate di $\v\in V$ secondo la base $\basis$. \\
\mbox{($n =1$)} Vi sono solo tre possibili matrici per $A$:
\begin{itemize}
\item$A =(0)$, con $\sigma=(0, 0, 1)$, $\rg(\varphi)=0$ e $\CI(\varphi)= V$,
\item$A =(1)$, con $\sigma=(1, 0, 0)$, $\rg(\varphi)=1$ e $\CI(\varphi)=\zerovecset$,
\item$A =(-1)$, con $\sigma=(0, 1, 0)$, $\rg(\varphi)=1$ e $\CI(\varphi)=\zerovecset$.
\end{itemize}
\vskip 0.1in
\mbox{($n =2$)} Vi sono sei possibili matrici per $A$:
\begin{itemize}
\item$A =0$, con $\sigma=(0, 0, 2)$, $\rg(\varphi)=0$ e $\CI(\varphi)= V$,
\item$A =\Matrix{1&0\\0&0}$, con $\sigma=(1, 0, 1)$, $\rg(\varphi)=1$ e $\CI(\varphi)=\{x =0\mid\v\in V\}= V^\perp$,
\item$A =\Matrix{-1&0\\0&0}$, con $\sigma=(0, 1, 1)$, $\rg(\varphi)=1$ e $\CI(\varphi)=\{x =0\mid\v\in V\}= V^\perp$,
\item$A =\Matrix{1&0\\0&-1}$, con $\sigma=(1, 1, 0)$, $\rg(\varphi)=2$ e $\CI(\varphi)=\{x^2= y^2\mid\v\in V\}$,
\item$A = I_2$, con $\sigma=(2, 0, 0)$, $\rg(\varphi)=2$ e $\CI(\varphi)=\zerovecset$,
\item$A =-I_2$, con $\sigma=(0, 2, 0)$, $\rg(\varphi)=2$ e $\CI(\varphi)=\zerovecset$.
\end{itemize}
Si osserva in particolare che $\det(A)=-1\iff\sigma=(1, 1, 0)$. Pertanto se $M$ è una matrice associata
al prodotto scalare $\varphi$ in una base $\basis'$, $\det(M) < 0\iff\sigma=(1, 1, 0)$. \\
\mbox{($n =3$)} Se $A$ contiene almeno uno zero nella diagonale, si può studiare $A$ riconducendosi al caso $n =2$,
considerando la matrice $A^{1,2}_{1,2}$, e incrementando di uno l'indice di nullità di $\varphi$ (eventualmente
considerando anche come varia il cono isotropo). Altrimenti $A$
può essere rappresentato dalle seguenti quattro matrici:
\begin{itemize}
\item$A = I_3$, con $\sigma=(3, 0, 0)$, $\rg(\varphi)=3$ e $\CI(\varphi)=\zerovecset$,
\item$A =-I_3$, con $\sigma=(0, 3, 0)$, $\rg(\varphi)=3$ e $\CI(\varphi)=\zerovecset$,
\item$A =\Matrix{1&0&0\\0&1&0\\0&0&-1}$, con $\sigma=(2, 1, 0)$, $\rg(\varphi)=3$ e $\CI(\varphi)=\{ x^2+ y^2= z^2\mid\v\in V \}$,
\item$A =\Matrix{1&0&0\\0&-1&0\\0&0&-1}$, con $\sigma=(1, 2, 0)$, $\rg(\varphi)=3$ e $\CI(\varphi)=\{ y^2+ z^2= x^2\mid\v\in V \}$.
\end{itemize}
Si osserva infine che, se $V =\RR^3$ e $\basis$ ne è la base canonica, i coni isotropi delle ultime due matrici rappresentano proprio due coni nello spazio tridimensionale.
e che $\iota_-(\restr{\varphi}{W'})\geq\iota_-(\restr{\varphi}{W})$. Inoltre $\restr{\varphi}{W}$
è non degenere dal momento che $\iota_0(\restr{\varphi}{W})=0$, e pertanto
$p + q =\rg(\restr{\varphi}{W})= k$. \\
Siano ora $\basis_\perp$ e $\basis_\perp'$ due basi di Sylvester di $W$ e $W'$. Siano $A = M_{\basis_\perp}(\restr{\varphi}{W})$
e $A' = M_{\basis_\perp'}(\restr{\varphi}{W})$. Allora $\det(A)=(-1)^p (-1)^q$, mentre $\det(A')=(-1)^p (-1)^q \, d'$,
dove $d' \in\{-1, 0, 1\}$. Allora $\det(A')=\det(A) d' \implies d' =\frac{\det(A')}{\det(A)}$, dal
momento che $\det(A)\neq0$, essendo $\restr{\varphi}{W}$ non degenere. \\
In particolare, $\sigma(\restr{\varphi}{W'})=(p, q, 1)$ se e solo se $\det(A')=0\implies d' =0$. Dal
momento che $\det(A')=0\iff\det(B')=0$, $d' =0\iff d =0$. Pertanto si conclude che
$\sigma(\restr{\varphi}{W'})=(p, q, 1)\iff d =0$. \\
Al contrario, $\sigma(\restr{\varphi}{W'})=(p+1, q, 0)$ se e solo se $d' =1$, ossia se e solo se $\det(A')$
e $\det(A)$ sono concordi di segno. Dal momento che il segno è un invariante del cambiamento di base per la
matrice associata a $\varphi$, $d' =1$ se e solo se $\det(B)$ e $\det(B')$ sono concordi di segno, ossia
se e solo se $d > 0$. Pertanto $\sigma(\restr{\varphi}{W'})=(p+1, q, 0)\iff d > 0$. Analogamente si
verifica che $\sigma(\restr{\varphi}{W'})=(p, q+1, 0)\iff d < 0$, da cui la tesi.
\end{proof}
\begin{algorithm}[metodo di Jacobi] \label{alg:metodo_jacobi}
Sia $\basis$ una base di $V$ e sia $A = M_\basis(\varphi)$. Se il determinante di ogni minore di testa\footnote{In realtà il metodo si estende ad ogni successione di minori coerente con un'estensione di base (i.e.~i minori principali di $A$).}
di $A$ (ossia dei minori della forma $A^{1, \ldots, i}_{1, \ldots, i}$, con $1\leq i \leq n-1$) è diverso
da zero, è possibile applicare il \textbf{metodo di Jacobi} per il calcolo della segnatura di $\varphi$. \\
Sia $d_i =\det\left(A^{1,\ldots,i}_{1,\ldots,i}\right)$$\forall1\leq i \leq n$ e si ponga $d_0 :=1$. Allora, per la \textit{Proposizione \ref{prop:pre_metodo_jacobi}}, $\iota_+$ corrisponde al numero di permanenze del segno
tra elementi consecutivi (escludendo $0$) di $(d_i)$, mentre $\iota_-$ corrisponde al numero di variazioni
del segno (anche stavolta escludendo $0$). Infine $\iota_0$ può valere solo $0$ o $1$, dove $\iota_0=1\iff\det(A)=0$.
\end{algorithm}
\begin{example}
Sia $A =\Matrix{1&1&0\\1&2&-1\\0&-1&4}\in M(3, \RR)$. \\
\vskip 0.1in
Si calcola la segnatura di $\varphi_A$ mediante
il metodo di Jacobi. Poiché $A$ è la matrice associata di $\varphi_A$ nella base canonica di $\RR^3$,
si può applicare il metodo di Jacobi direttamente su $A$. \\
Si calcola allora la successione dei $d_i$:
\begin{enumerate}
\item$d_1=\det(1)=1$,
\item$d_2=\det\Matrix{1&1\\1&2}=2-1=1$,
\item$d_3=\det(A)=(8-1)-4=3$.
\end{enumerate}
Dal momento che vi sono tre permanenze di segno, si conclude che $\sigma(\varphi_A)=(3, 0, 0)$, ossia
che $\varphi_A$ è definito positivo.
\end{example}
\subsubsection{Criterio di Sylvester per la definitezza di un prodotto scalare}
\begin{proposition}[criterio di Sylvester per i prodotti definiti] Sia $\KK=\RR$.
Sia $\basis$ una base di $V$, e sia $A = M_\basis(\varphi)$. Sia $d_i =\det\left(A^{1,\ldots,i}_{1,\ldots,i}\right)$.
Allora $\varphi$ è definito positivo se e solo se $d_i > 0$$\forall1\leq i \leq n$. Analogamente
$\varphi$ è definito negativo se e solo se $(-1)^i \, d_i > 0$$\forall1\leq i \leq n$.
\end{proposition}
\begin{proof}
Si osserva che $\varphi$ è definito positivo se e solo se $\iota_+= n$. Pertanto, per il
\textit{\nameref{alg:metodo_jacobi}}, $\varphi$ è definito positivo se e solo se vi sono
solo permanenze di segno tra elementi consecutivi nella successione $(d_i)$, e quindi
se e solo se $d_i > 0$$\forall1\leq i \leq n$. Analogamente $\varphi$ è definito
negativo se e solo se $\iota_-= n$, e quindi se e solo se vi sono solo variazioni
di segno $\iff d_i > 0$ se $i$ è pari e $d_i < 0$ se $i$ è dispari $\iff(-1)^i \, d_i > 0$, $\forall1\leq i \leq n$.