Due vettori $\v$, $\w\in V$ si dicono \textbf{ortogonali} rispetto al prodotto scalare $\varphi$, ossia $\v\perp\w$, se $\varphi(\v, \w)=0$.
Due vettori $\v$, $\w\in V$ si dicono \textbf{ortogonali} rispetto al prodotto scalare $\varphi$, ossia $\v\perp\w$, se $\varphi(\v, \w)=0$.
\end{definition}
\end{definition}
\begin{definition}[somma diretta ortogonale]
Siano $U$ e $W \subseteq V$ due sottospazi di $V$ in somma diretta. Allora si dice che $U$ e $W$ sono in \textbf{somma diretta ortogonale} rispetto al prodotto scalare $\varphi$ di $V$, ossia che $U \oplus W = U \oplus^\perp W$, se $\varphi(\vec u, \vec w)=0$$\forall\vec u \in U$, $\vec w \in W$.
\end{definition}
\begin{definition}
\begin{definition}
Si definisce prodotto scalare \textit{canonico} di $\KK^n$ la forma bilineare simmetrica $\varphi$ con
Si definisce prodotto scalare \textit{canonico} di $\KK^n$ la forma bilineare simmetrica $\varphi=\innprod{\cdot, \cdot}$ con
\li poiché $\varphi$ è simmetrica, $\varphi$ è lineare e omogenea anche nel secondo argomento, e quindi è una
\li poiché $\varphi$ è simmetrica, $\varphi$ è lineare e omogenea anche nel secondo argomento, e quindi è una
forma bilineare simmetrica, ossia un prodotto scalare su $\KK^n$.
forma bilineare simmetrica, ossia un prodotto scalare su $\KK^n$.
\end{remark}
\end{remark}
@ -57,7 +58,7 @@
\li$\varphi(p(x), q(x))= p(a) q(a)$ per $\KK[x]$, con $a \in\KK$, \\
\li$\varphi(p(x), q(x))= p(a) q(a)$ per $\KK[x]$, con $a \in\KK$, \\
\li$\varphi(p(x), q(x))=\sum_{i=1}^n p(x_i) q(x_i)$ per $\KK[x]$, con $x_1$, ..., $x_n$ distinti, \\
\li$\varphi(p(x), q(x))=\sum_{i=1}^n p(x_i) q(x_i)$ per $\KK[x]$, con $x_1$, ..., $x_n$ distinti, \\
\li$\varphi(p(x), q(x))=\int_a^b p(x)q(x) dx$ per lo spazio delle funzioni integrabili su $\RR$, con $a$, $b$ in $\RR$, \\
\li$\varphi(p(x), q(x))=\int_a^b p(x)q(x) dx$ per lo spazio delle funzioni integrabili su $\RR$, con $a$, $b$ in $\RR$, \\
\li$\varphi(\vec{x}, \vec{y})=\vec{x}^\top A \vec{y}$ per $\KK^n$, con $A \in M(n, \KK)$ simmetrica.
\li$\varphi(\vec{x}, \vec{y})=\vec{x}^\top A \,\vec{y}$ per $\KK^n$, con $A \in M(n, \KK)$ simmetrica, detto anche \textbf{prodotto scalare indotto dalla matrice $A$}, ed indicato con $\varphi_A$.
\end{example}
\end{example}
\subsection{Prodotto definito o semidefinito}
\subsection{Prodotto definito o semidefinito}
@ -273,7 +274,7 @@
\begin{proof}
\begin{proof}
Si dimostrano le due implicazioni separatamente. \\
Si dimostrano le due implicazioni separatamente. \\
\rightproof Sia $\varphi$ semidefinito. Chiaramente $V^\perp\subseteq\CI(\varphi)$. Si assuma
\rightproof Sia $\varphi$ semidefinito. Chiaramente $V^\perp\subseteq\CI(\varphi)$. Si assuma per assurdo
che $V^\perp\subsetneq\CI(\varphi)$. Sia allora $\v$ tale che $\v\in\CI(\varphi)$ e che $\v\notin V^\perp$.
che $V^\perp\subsetneq\CI(\varphi)$. Sia allora $\v$ tale che $\v\in\CI(\varphi)$ e che $\v\notin V^\perp$.
Poiché $\v\notin V^\perp$, esiste un vettore $\w\in V$ tale che $\varphi(\v, \w)\neq0$. Si osserva
Poiché $\v\notin V^\perp$, esiste un vettore $\w\in V$ tale che $\varphi(\v, \w)\neq0$. Si osserva
che $\v$ e $\w$ sono linearmente indipendenti tra loro. Se infatti non lo fossero, esisterebbe $\mu\in\RR$
che $\v$ e $\w$ sono linearmente indipendenti tra loro. Se infatti non lo fossero, esisterebbe $\mu\in\RR$
@ -357,10 +358,13 @@
\end{proof}
\end{proof}
\begin{remark} Si identifica $\w^\perp$ come il sottospazio di tutti i vettori di $V$ ortogonali a $\w$.
\begin{remark} Si identifica $\w^\perp$ come il sottospazio di tutti i vettori di $V$ ortogonali a $\w$.
In particolare, se $W =\Span(\vec w)$ è il sottospazio generato da $\vec w \neq\vec0$, $\vec w \in V$, allora $W^\perp=\w^\perp$. Inoltre valgono le seguenti equivalenze: $\vec w \notin W^\perp\iff$$\Rad(\restr{\varphi}{W})= W \cap W^\perp=\zerovecset$$\iff\vec w \text{ non è isotropo }\iff$$V = W \oplus W^\perp$.
In particolare, se $W =\Span(\vec w)$ è il sottospazio generato da $\vec w \neq\vec0$, $\vec w \in V$, allora $W^\perp=\w^\perp$. Inoltre valgono le seguenti equivalenze: $\vec w \notin W^\perp\iff$$\Rad(\restr{\varphi}{W})= W \cap W^\perp=\zerovecset$$\iff\vec w \text{ non è isotropo }\iff$$V = W \oplus^\perp W^\perp$. \\
In generale, se $W$ è un sottospazio qualsiasi di $V$ tale che $W \cap W^\perp=\zerovecset$, vale
che $V = W \oplus^\perp W^\perp$.
\end{remark}
\end{remark}
\begin{proposition}[formula di polarizzazione]
\begin{proposition}[formula di polarizzazione]\label{prop:formula_polarizzazione}
Se $\Char\KK\neq2$, un prodotto scalare è univocamente determinato dalla sua forma quadratica $q$.
Se $\Char\KK\neq2$, un prodotto scalare è univocamente determinato dalla sua forma quadratica $q$.
In particolare vale la seguente identità:
In particolare vale la seguente identità:
@ -386,7 +390,7 @@
allora il teorema vero per $i \leq n$. Se $V$ ammette un vettore non isotropo $\vec w$, sia $W =\Span(\vec w)$ e si consideri la decomposizione $V = W \oplus W^\perp$. Poiché $W^\perp$ ha dimensione $n-1$, per ipotesi induttiva
allora il teorema vero per $i \leq n$. Se $V$ ammette un vettore non isotropo $\vec w$, sia $W =\Span(\vec w)$ e si consideri la decomposizione $V = W \oplus W^\perp$. Poiché $W^\perp$ ha dimensione $n-1$, per ipotesi induttiva
ammette una base ortogonale. Inoltre, tale base è anche ortogonale a $W$, e quindi l'aggiunta di $\vec w$ a
ammette una base ortogonale. Inoltre, tale base è anche ortogonale a $W$, e quindi l'aggiunta di $\vec w$ a
questa base ne fa una base ortogonale di $V$. Se invece $V$ non ammette vettori non isotropi, ogni forma quadratica
questa base ne fa una base ortogonale di $V$. Se invece $V$ non ammette vettori non isotropi, ogni forma quadratica
è nulla, e quindi il prodotto scalare è nullo per la proposizione precedente. Allora in questo caso
è nulla, e quindi il prodotto scalare è nullo per la \textit{\nameref{prop:formula_polarizzazione}}. Allora in questo caso
ogni base è una base ortogonale, completando il passo induttivo, e dunque la dimostrazione.
ogni base è una base ortogonale, completando il passo induttivo, e dunque la dimostrazione.
\end{proof}
\end{proof}
@ -397,34 +401,310 @@
di $\v$ rispetto a $\w$ come il rapporto $C(\w, \v)=\frac{\varphi(\v, \w)}{\varphi(\w, \w)}$.
di $\v$ rispetto a $\w$ come il rapporto $C(\w, \v)=\frac{\varphi(\v, \w)}{\varphi(\w, \w)}$.
\end{definition}
\end{definition}
Se $\CI(\varphi)=\zerovecset$ (e quindi nel caso di $\KK=\RR$, dalla
\begin{algorithm}[algoritmo di ortogonalizzazione di Gram-Schmidt]
\textit{Proposizione \ref{prop:definitezza_varphi}}, se $\varphi$ è definito) ed è
Se $\CI(\varphi)=\zerovecset$ (e quindi nel caso di $\KK=\RR$, dalla
data una base $\basis=\{\vv1, \ldots, \vv n \}$ per $V$, è possibile
\textit{Proposizione \ref{prop:definitezza_varphi}}, se $\varphi$ è definito) ed è
applicare l'\textbf{algoritmo di ortogonalizzazione di Gram-Schmidt} per ottenere
data una base $\basis=\{\vv1, \ldots, \vv n \}$ per $V$, è possibile
da $\basis$ una nuova base $\basis' =\{\vv1', \ldots, \vv n' \}$ con le seguenti proprietà:
applicare l'\textbf{algoritmo di ortogonalizzazione di Gram-Schmidt} per ottenere
da $\basis$ una nuova base $\basis' =\{\vv1', \ldots, \vv n' \}$ con le seguenti proprietà:
\begin{enumerate}[(i)]
\item$\basis'$ è una base ortogonale,
\item$\basis'$ mantiene la stessa bandiera di $\basis$ (ossia $\Span(\vv1, \ldots, \vv i)=\Span(\vv1', \ldots, \vv i')$ per ogni $1\leq i \leq n$).
\end{enumerate}
L'algoritmo si applica nel seguente modo: si prenda in considerazione $\vv1$ e si sottragga ad ogni altro vettore
della base il vettore $C(\vv1, \vv i)\,\vv1=\frac{\varphi(\vv1, \vv i)}{\varphi(\vv1, \vv1)}\vv1$,
rendendo ortogonale ogni altro vettore della base con $\vv1$. Si sta quindi applicando la mappa
$\vv i \mapsto\vv i -\frac{\varphi(\vv1, \vv i)}{\varphi(\vv1, \vv1)}\vv i =\vv i ^{(1)}$.
Si verifica infatti che $\vv1$ e $\vv i ^{(1)}$ sono ortogonali per $2\leq i \leq n$:
Si riapplica dunque l'algoritmo di Gram-Schmidt prendendo come spazio vettoriale lo spazio generato dai
Inoltre, per ogni base ortogonale, esistono esattamente
vettori a cui si è applicato precedentemente l'algoritmo, ossia $V' =\Span(\vv2^{(1)}, \ldots, \vv n ^{(1)})$,
$\iota_+$ vettori della base con forma quadratica positiva,
fino a che non si ottiene $V' =\zerovecset$.
$\iota_-$ con forma negativa e $\iota_0$ con
forma nulla.
\end{theorem}
\begin{proof}
Per il teorema di Lagrange, esiste una base ortogonale $\basis'$ di $V$.
Si riordini la base in modo tale che la forma quadratica valutata nei primi elementi sia strettamente positiva, che nei secondi elementi sia strettamente negativa e che negli ultimi sia nulla. Si sostituisca
$\basis'$ con una base $\basis$ tale per cui, se $q(\vv i) > 0$,
allora $\vv i \mapsto\frac{\vv i}{\sqrt{q(\vv i)}}$; se
$q(\vv i) < 0$, allora $\vv i \mapsto\frac{\vv i}{\sqrt{-q(\vv i)}}$;
altrimenti $\vv i \mapsto\vv i$. Si è allora trovata una base
la cui matrice associata del prodotto scalare è come desiderata nella
tesi. \\
Sia ora $\basis$ una qualsiasi base ortogonale di $V$.
Siano inoltre $a$ il numero di vettori della base con forma quadratica
positiva, $b$ il numero di vettori con forma negativa e $c$ quello
dei vettori con forma nulla. Si consideri $W_+=\Span(\vv1, ..., \vv a)$, $W_-=\Span(\vv{a+1}, ..., \vv b)$, $W_0=\Span(\vv{b+1}, ..., \vv c)$. \\
Sia $M = M_\basis(\varphi)$. Si osserva che $c = n -\rg(M)=\dim\Ker(M)=\dim V^\perp=\iota_0$. Inoltre $\forall\v\in W_+$, dacché
$\basis$ è ortogonale,
$q(\v)= q(\sum_{i=1}^a \alpha_i \vv i)=\sum_{i=1}^a \alpha_i^2 q(\vv i) > 0$, e quindi $\restr{\varphi}{W_+} > 0$, da cui $\iota_+\geq a$.
Analogamente $\iota_-\geq b$. \\
Si mostra ora che è impossibile che $\iota_+ > a$. Se così infatti
fosse, sia $W$ tale che $\dim W =\iota_+$ e che $\restr{\varphi}{W} > 0$. $\iota_++ b + c$ sarebbe maggiore di $a + b + c = n :=\dim V$. Quindi, per la formula di Grassman, $\dim(W + W_-+ W_0)=\dim W +
\dim(W_- + W_0) - \dim (W \cap (W_- + W_0)) \implies\dim (W \cap (W_- + W_0)) = \dim W +
$\v\neq\{\vec0\}\mid\v\in W \cap(W_-+ W_0)$. Tuttavia
questo è assurdo, dacché dovrebbe valere sia $q(\v) > 0$ che
$q(\v) < 0$, \Lightning. Quindi $\iota_+= a$, e analogamente
$\iota_-= b$.
\end{proof}
\begin{definition}
Si dice \textbf{base di Sylvester} una base di $V$ tale per cui la
matrice associata di $\varphi$ sia esattamente nella forma
vista nell'enunciato del teorema di Sylvester. Analogamente
si definisce tale matrice come \textbf{matrice di Sylvester}.
\end{definition}
\begin{remark}\nl
\li Come conseguenza del teorema di Sylvester reale, si osserva che la segnatura di una matrice simmetrica reale
è invariante per cambiamento di base, se la base è ortogonale. \\
\li La segnatura è un invariante completo per la congruenza nel caso reale. Se infatti due matrici hanno la stessa segnatura, queste sono
entrambe congruenti alla stessa matrice di Sylvester, e quindi, essendo
la congruenza una relazione di equivalenza, sono congruenti
tra loro. Analogamente vale il viceversa, dal momento che ogni
base ortogonale di due matrici congruenti deve contenere gli
stessi numeri $\iota_+$, $\iota_-$ e $\iota_0$ di vettori
di base con forma quadratica positiva, negativa e nulla. \\
\li Se $\ww1$, ..., $\ww k$ sono tutti i vettori di una base
ortogonale $\basis$ con forma quadratica nulla, si osserva che $W =\Span(\ww1, ..., \ww k)$ altro non è che $V^\perp$ stesso. \\
Infatti, come
visto anche nella dimostrazione del teorema di Sylvester reale, vale
che $\dim W =\dim\Ker(M_\basis(\varphi))=\dim V^\perp$.
Sia allora la base $\basis=\{\ww1, \ldots, \ww k, \vv{k+1}, \ldots, \vv n\}$ un'estensione di $\{\ww1, \ldots, \ww k\}$. Se $\w\in W$ e $\v\in V$, $\varphi(\w, \v)=\varphi(\sum_{i=1}^k
\alpha_i \ww i, \sum_{i=1}^k \beta_i \ww i + \sum_{i=k+1}^n \beta_i \vv i)
= \sum_{i=1}^k \alpha_i \beta_i q(\ww i) = 0$(dove $\alpha_i$ e $\beta_i \in\KK$ rappresentano la $i$-esima coordinata di $\w$ e $\v$ nella base $\basis$), e quindi
$W \subseteq V^\perp$. Si conclude allora, tramite l'uguaglianza
dimensionale, che $W = V^\perp$. \\
\li Poiché $\dim\Ker(\varphi)=\iota_0$, vale in particolare che $\rg(\varphi)= n -\iota_0=\iota_++\iota_-$ (infatti vale che $n =\iota_++\iota_-+\iota_0$, dal momento che $n$ rappresenta il numero di elementi di una base ortogonale). \\
\li Se $V = U \oplusperp W$, allora $\iota_+(\varphi)=\iota_+(\restr{\varphi}{U})+\iota_+(\restr{\varphi}{W})$.
Analogamente vale la stessa cosa per gli altri indici. Infatti,
prese due basi ortogonali $\basis_U$, $\basis_W$ di $U$ e $W$,
la loro unione $\basis$ è una base ortogonale di $V$. Pertanto
il numero di vettori della base $\basis$ con forma quadratica positiva
è esattamente $\iota_+(\restr{\varphi}{U})+\iota_+(\restr{\varphi}{W})$. \\
\li In generale, se $W$ è un sottospazio di $V$, vale che $\iota_+(\varphi)\geq\iota_+(\restr{\varphi}{W})$.
Infatti, se $U$ è un sottospazio di $W$ di dimensione $\iota_+(\restr{\varphi}{W})$ tale che
$\restr{(\restr{\varphi}{W})}{U} > 0$, allora $U$ è in particolare un sottospazio di $V$ tale che $\restr{\varphi}{U} > 0$. Pertanto, per definizione, essendo $\iota_+(\varphi)$ la dimensione del massimo sottospazio su cui $\varphi$, ristretto ad esso, è definito positivo, deve valere che $\iota_+(\varphi)\geq\iota_+(\restr{\varphi}{W})$. Analogamente, $\iota_-(\varphi)\geq\iota_-(\restr{\varphi}{W})$.
\end{remark}
\subsubsection{Metodo di Jacobi per il calcolo della segnatura}
\begin{proposition}\label{prop:pre_metodo_jacobi} Sia $\KK$ un campo ordinato
i cui elementi positivi sono tutti quadrati (e.g.~$\RR$).
Sia $W$ un sottospazio di $V$ di dimensione $k$. Sia $W'$ un sottospazio di $V$ di dimensione
$k+1$. Sia $\sigma(\restr{\varphi}{W})=(p, q, 0)$, con $p$, $q \in\NN$ e siano $\basis$ e $\basis'$
due basi di $W$ e $W'$. Siano $B = M_\basis(\restr{\varphi}{W'})$ e $B' = M_{\basis'}(\restr{\varphi}{W}))$. \\
Sia $d :=\displaystyle\frac{\det(B')}{\det(B)}$. Allora vale che:
\[\sigma(\restr{\varphi}{W'})=\system{(p+1, q, 0)&\se d > 0, \\(p, q+1, 0)&\se d < 0, \\(p, q, 1)&\altrimenti.}\]
\vskip 0.05in
\end{proposition}
\begin{proof}
Dalla precedente osservazione, vale che $\iota_+(\restr{\varphi}{W'})\geq\iota_+(\restr{\varphi}{W})$
e che $\iota_-(\restr{\varphi}{W'})\geq\iota_-(\restr{\varphi}{W})$. Inoltre $\restr{\varphi}{W}$
è non degenere dal momento che $\iota_0(\restr{\varphi}{W})=0$, e pertanto
$p + q =\rg(\restr{\varphi}{W})= k$. \\
Siano ora $\basis_\perp$ e $\basis_\perp'$ due basi di Sylvester di $W$ e $W'$. Siano $A = M_{\basis_\perp}(\restr{\varphi}{W})$
e $A' = M_{\basis_\perp'}(\restr{\varphi}{W})$. Allora $\det(A)=(-1)^p (-1)^q$, mentre $\det(A')=(-1)^p (-1)^q \, d'$,
dove $d' \in\{-1, 0, 1\}$. Allora $\det(A')=\det(A) d' \implies d' =\frac{\det(A')}{\det(A)}$, dal
momento che $\det(A)\neq0$, essendo $\restr{\varphi}{W}$ non degenere. \\
In particolare, $\sigma(\restr{\varphi}{W'})=(p, q, 1)$ se e solo se $\det(A')=0\implies d' =0$. Dal
momento che $\det(A')=0\iff\det(B')=0$, $d' =0\iff d =0$. Pertanto si conclude che
$\sigma(\restr{\varphi}{W'})=(p, q, 1)\iff d =0$. \\
Al contrario, $\sigma(\restr{\varphi}{W'})=(p+1, q, 0)$ se e solo se $d' =1$, ossia se e solo se $\det(A')$
e $\det(A)$ sono concordi di segno. Dal momento che il segno è un invariante del cambiamento di base per la
matrice associata a $\varphi$, $d' =1$ se e solo se $\det(B)$ e $\det(B')$ sono concordi di segno, ossia
se e solo se $d > 0$. Pertanto $\sigma(\restr{\varphi}{W'})=(p+1, q, 0)\iff d > 0$. Analogamente si
verifica che $\sigma(\restr{\varphi}{W'})=(p, q+1, 0)\iff d < 0$, da cui la tesi.
\end{proof}
\begin{algorithm}[metodo di Jacobi] \label{alg:metodo_jacobi}
Sia $\basis$ una base di $V$ e sia $A = M_\basis(\varphi)$. Se il determinante di ogni minore di testa\footnote{In realtà il metodo si estende ad ogni successione di minori coerente con un'estensione di base (i.e.~i minori principali di $A$).}
di $A$ (ossia dei minori della forma $A^{1, \ldots, i}_{1, \ldots, i}$, con $1\leq i \leq n-1$) è diverso
da zero, è possibile applicare il \textbf{metodo di Jacobi} per il calcolo della segnatura di $\varphi$. \\
Sia $d_i =\det\left(A^{1,\ldots,i}_{1,\ldots,i}\right)$$\forall1\leq i \leq n$ e si ponga $d_0 :=1$. Allora, per la \textit{Proposizione \ref{prop:pre_metodo_jacobi}}, $\iota_+$ corrisponde al numero di permanenze del segno
tra elementi consecutivi (escludendo $0$) di $(d_i)$, mentre $\iota_-$ corrisponde al numero di variazioni
del segno (anche stavolta escludendo $0$). Infine $\iota_0$ può valere solo $0$ o $1$, dove $\iota_0=1\iff\det(A)=0$.
\end{algorithm}
\begin{example}
Sia $A =\Matrix{1&1&0\\1&2&-1\\0&-1&4}\in M(3, \RR)$. \\
\vskip 0.1in
Si calcola la segnatura di $\varphi_A$ mediante
il metodo di Jacobi. Poiché $A$ è la matrice associata di $\varphi_A$ nella base canonica di $\RR^3$,
si può applicare il metodo di Jacobi direttamente su $A$. \\
Si calcola allora la successione dei $d_i$:
\begin{enumerate}
\item$d_1=\det(1)=1$,
\item$d_2=\det\Matrix{1&1\\1&2}=2-1=1$,
\item$d_3=\det(A)=(8-1)-4=3$.
\end{enumerate}
Dal momento che vi sono tre permanenze di segno, si conclude che $\sigma(\varphi_A)=(3, 0, 0)$, ossia
che $\varphi_A$ è definito positivo.
\end{example}
\subsubsection{Criterio di Sylvester per la definitezza di un prodotto scalare}
\begin{proposition}[criterio di Sylvester per i prodotti definiti] Sia $\KK=\RR$.
Sia $\basis$ una base di $V$, e sia $A = M_\basis(\varphi)$. Sia $d_i =\det\left(A^{1,\ldots,i}_{1,\ldots,i}\right)$.
Allora $\varphi$ è definito positivo se e solo se $d_i > 0$$\forall1\leq i \leq n$. Analogamente
$\varphi$ è definito negativo se e solo se $(-1)^i \, d_i > 0$$\forall1\leq i \leq n$.
\end{proposition}
\begin{proof}
Si osserva che $\varphi$ è definito positivo se e solo se $\iota_+= n$. Pertanto, per il
\textit{\nameref{alg:metodo_jacobi}}, $\varphi$ è definito positivo se e solo se vi sono
solo permanenze di segno tra elementi consecutivi nella successione $(d_i)$, e quindi
se e solo se $d_i > 0$$\forall1\leq i \leq n$. Analogamente $\varphi$ è definito
negativo se e solo se $\iota_-= n$, e quindi se e solo se vi sono solo variazioni
di segno $\iff d_i > 0$ se $i$ è pari e $d_i < 0$ se $i$ è dispari $\iff(-1)^i \, d_i > 0$, $\forall1\leq i \leq n$.