You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

1153 lines
66 KiB
TeX

\chapter{Aggiunta di un endomorfismo e spazi euclidei}
\begin{note}
Nel corso del documento, per $V$ si intenderà uno spazio vettoriale di dimensione
finita $n$ e per $\varphi$ un suo prodotto, hermitiano o scalare
dipendentemente dal contesto.
\end{note}
\begin{definition} (base ortonormale)
Si definisce \textbf{base ortonormale} di uno spazio vettoriale $V$ su un suo prodotto $\varphi$
una base ortogonale $\basis = \{ \vv 1, \ldots, \vv n \}$ tale che $\varphi(\vv i, \vv j) = \delta_{ij}$.
\end{definition}
\section{Trasposto di un endomorfismo su un prodotto scalare}
\begin{proposition}
Sia $V$ uno spazio vettoriale con prodotto scalare $\varphi$ non degenere.
Sia $f \in \End(V)$. Allora esiste un unico endomorfismo
$f_\varphi^\top : V \to V$, detto il \textbf{trasposto di} $f$ e indicato con $f^\top$ in assenza
di ambiguità\footnote{Si tenga infatti in conto della differenza tra $f_\varphi^\top : V \to V$, di cui si discute
nell'enunciato, e $f^\top : V^* \to V^*$ che invece è tale che $f^top(g) = g \circ f$.}, tale che:
\[ a_\varphi \circ g = f^\top \circ a_\varphi, \]
\vskip 0.05in
ossia che:
\[ \varphi(\v, f(\w)) = \varphi(g(\v), \w) \, \forall \v, \w \in V. \]
\end{proposition}
\begin{proof}
Si consideri $(f^\top \circ a_\varphi)(\v) \in V^*$. Per il teorema di rappresentazione di Riesz per
il prodotto scalare, esiste un unico $\v'$ tale che $(f^\top \circ a_\varphi)(\v)(\w) = \varphi(\v', \w) \implies \varphi(\v, f(\w)) = \varphi(\v', \w)$ $\forall \w \in V$. Si costruisce allora una mappa
$f_\varphi^\top : V \to V$ che associa a $\v$ tale $\v'$. Si dimostra che $f_\varphi^\top$ è un'applicazione lineare, e che
dunque è un endomorfismo:
\begin{enumerate}[(i)]
\item Siano $\vv 1$, $\vv 2 \in V$. Si deve dimostrare innanzitutto che $f_\varphi^\top(\vv 1 + \vv 2) = f_\varphi^\top(\vv 1) + f_\varphi^\top(\vv 2)$, ossia che $\varphi(f_\varphi^\top(\vv 1) + f_\varphi^\top(\vv 2), \w) = \varphi(\vv 1 + \vv 2, f(\w))$ $\forall \w \in V$. \\
Si osservano le seguenti identità:
\begin{align*}
&\varphi(\vv 1 + \vv 2, f(\w)) = \varphi(\vv 1, f(\w)) + \varphi(\vv 2, f(\w)) = (*), \\
&\varphi(f_\varphi^\top(\vv 1) + f_\varphi^\top(\vv 2), \w) = \varphi(f_\varphi^\top(\vv 1), \w) + \varphi(f_\varphi^\top(\vv 2), \w) = (*),
\end{align*}
da cui si deduce l'uguaglianza desiderata, essendo $f_\varphi^\top(\vv 1 + \vv 2)$ l'unico vettore di $V$
con la proprietà enunciata dal teorema di rappresentazione di Riesz.
\item Sia $\v \in V$. Si deve dimostrare che $f_\varphi^\top(a \v) = a f_\varphi^\top(\v)$, ossia che $\varphi(a f_\varphi^\top(\v), \w) =
\varphi(a\v, f(\w))$ $\forall a \in \KK$, $\w \in V$. È
sufficiente moltiplicare per $a$ l'identità $\varphi(f_\varphi^\top(\v), \w) = \varphi(\v, f(\w))$. Analogamente
a prima, si deduce che $f_\varphi^\top(a \v) = a f_\varphi^\top(\v)$, essendo $f_\varphi^\top(a \v)$ l'unico vettore di $V$ con la
proprietà enunciata dal teorema di rappresentazione di Riesz.
\end{enumerate}
Infine si dimostra che $f_\varphi^\top$ è unico. Sia infatti $g$ un endomorfismo di $V$ che condivide la stessa
proprietà di $f_\varphi^\top$. Allora $\varphi(f_\varphi^\top(\v), \w) = \varphi(\v, f(\w)) = \varphi(g(\v), \w)$ $\forall \v$, $\w \in V$, da cui si deduce che $\varphi(f_\varphi^\top(\v) - '(\v), \w) = 0$ $\forall \v$, $\w \in V$, ossia che
$f_\varphi^\top(\v) - g(\v) \in V^\perp$ $\forall \v \in V$. Tuttavia $\varphi$ è non degenere, e quindi $V^\perp = \zerovecset$, da cui si deduce che deve valere l'identità $f_\varphi^\top(\v) = g(\v)$ $\forall \v \in V$, ossia
$g = f_\varphi^\top$.
\end{proof}
\begin{proposition}
Sia $\varphi$ un prodotto scalare non degenere di $V$. Sia $f \in \End(V)$. Allora
vale la seguente identità:
\[ M_\basis(f_\varphi^\top) = M_\basis(\varphi)\inv M_\basis(f)^\top M_\basis(\varphi), \]
dove $\basis$ è una base di $V$.
\end{proposition}
\begin{proof}
Sia $\basis^*$ la base relativa a $\basis$ in $V^*$. Per la proposizione precedente vale la seguente identità:
\[ a_\varphi \circ f_\varphi^\top = f^\top \circ a_\varphi. \]
Pertanto, passando alle matrici associate, si ricava che:
\[ M_{\basis^*}^\basis(a_\varphi) M_\basis(f_\varphi^\top) = M_{\basis^*}(f^\top) M_{\basis^*}^\basis(a_\varphi). \]
Dal momento che valgono le seguenti due identità:
\[ M_{\basis^*}^\basis(a_\varphi) = M_\basis(\varphi), \qquad M_{\basis^*}(f^\top) = M_\basis(f)^\top, \]
e $a_\varphi$ è invertibile (per cui anche $M_\basis(\varphi)$ lo è), si conclude che:
\[ M_\basis(\varphi) M_\basis(f_\varphi^\top) = M_\basis(f)^\top M_\basis(\varphi) \implies M_\basis(f_\varphi^\top) = M_\basis(\varphi)\inv M_\basis(f)^\top M_\basis(\varphi), \]
da cui la tesi.
\end{proof}
\begin{corollary} Sia $\varphi$ un prodotto scalare di $V$.
Se $\basis$ è una base ortonormale, $\varphi$ è non degenere e $M_\basis(f_\varphi^\top) = M_\basis(f)^\top$.
\end{corollary}
\begin{proof}
Se $\basis$ è una base ortonormale, $M_\basis(\varphi) = I_n$. Pertanto $\varphi$ è
non degenere. Allora, per la proposizione precedente:
\[ M_\basis(f_\varphi^\top) = M_\basis(\varphi)\inv M_\basis(f)^\top M_\basis(\varphi) = M_\basis(f)^\top. \]
\end{proof}
\section{Aggiunto di un endomorfismo su un prodotto hermitiano}
\begin{proposition}
Sia $V$ uno spazio vettoriale su $\CC$ e sia $\varphi$ un suo prodotto hermitiano. Allora esiste un'unica
mappa\footnote{Si osservi che $f^*$ non è un'applicazione lineare, benché sia invece \textit{antilineare}.} $f^* : V \to V$, detta \textbf{aggiunto di} $f$, tale che $\varphi(\v, f(\w)) = \varphi(f^*(\v), \w)$ $\forall \v$, $\w \in V$.
\end{proposition}
\begin{proof}
Sia $\v \in V$. Si consideri il funzionale $\sigma$ tale che $\sigma(\w) = \varphi(\v, f(\w))$. Per il
teorema di rappresentazione di Riesz per il prodotto scalare esiste un unico $\v' \in V$ tale per cui
$\varphi(\v, f(\w)) = \sigma(\w) = \varphi(\v', \w)$. Si costruisce allora una mappa $f^*$ che associa
$\v$ a tale $\v'$. \\
Si dimostra infine che la mappa $f^*$ è unica. Sia infatti $\mu : V \to V$ che condivide la stessa
proprietà di $f^*$. Allora $\varphi(f^*(\v), \w) = \varphi(\v, f(\w)) = \varphi(\mu(\v), \w)$ $\forall \v$, $\w \in V$, da cui si deduce che $\varphi(f^*(\v) - \mu(\v), \w) = 0$ $\forall \v$, $\w \in V$, ossia che
$f^*(\v) - \mu(\v) \in V^\perp$ $\forall \v \in V$. Tuttavia $\varphi$ è non degenere, e quindi $V^\perp = \zerovecset$, da cui si deduce che deve valere l'identità $f^*(\v) = \mu(\v)$ $\forall \v \in V$, ossia
$\mu = f^*$.
\end{proof}
\begin{remark}
L'operazione di trasposizione di un endomorfismo sul prodotto scalare non degenere $\varphi$ è un'involuzione. Infatti valgono
le seguenti identità $\forall \v$, $\w \in V$:
\[ \system{\varphi(\w, f^\top(\v)) = \varphi(f^\top(\v), \w) = \varphi(\v, f(\w)), \\ \varphi(\w, f^\top(\v)) = \varphi((f^\top)^\top(\w), \v) =
\varphi(\v, (f^\top)^\top(\w)).} \]
\vskip 0.05in
Si conclude allora, poiché $\varphi$ è non degenere, che
$f(\w) = (f^\top)^\top(\w)$ $\forall \w \in V$, ossia che $f = (f^\top)^\top$.
\end{remark}
\begin{remark}
Analogamente si può dire per l'operazione di aggiunta per un prodotto hermitiano $\varphi$ non degenere.
Valgono infatti le seguenti identità $\forall \v$, $\w \in V$:
\[ \system{\conj{\varphi(\w, f^*(\v))} = \varphi(f^*(\v), \w) = \varphi(\v, f(\w)), \\ \conj{\varphi(\w, f^*(\v))} = \conj{\varphi((f^*)^*(\w), \v)} =
\varphi(\v, (f^*)^*(\w)),} \]
\vskip 0.05in
da cui si deduce, come prima, che $f = (f^*)^*$.
\end{remark}
\begin{proposition}
Sia $\varphi$ un prodotto hermitiano non degenere di $V$. Sia $f \in \End(V)$. Allora
vale la seguente identità:
\[ M_\basis(f_\varphi^*) = M_\basis(\varphi)\inv M_\basis(f)^* M_\basis(\varphi), \]
dove $\basis$ è una base di $V$.
\end{proposition}
\begin{proof} Sia $\basis = \{ \vv 1, \ldots, \vv n\}$.
Dal momento che $\varphi$ è non degenere, $\Ker M_\basis(\varphi) = V^\perp = \zerovecset$, e quindi
$M_\basis(\varphi)$ è invertibile. \\
Dacché allora $\varphi(f^*(\v), \w) = \varphi(\v, f(\w))$ $\forall \v$, $\w \in V$,
vale la seguente identità:
\[ [f^*(\v)]_\basis^* M_\basis(\varphi) [\w]_\basis = [\v]_\basis^* M_\basis(\varphi) [f(\w)]_\basis, \]
ossia si deduce che:
\[ [\v]_\basis^* M_\basis(f^*)^* M_\basis(\varphi) [\w]_\basis = [\v]_\basis^* M_\basis(\varphi) M_\basis(f) [\w]_\basis. \]
Sostituendo allora a $\v$ e $\w$ i vettori della base $\basis$, si ottiene che:
\begin{gather*}
(M_\basis(f^*)^* M_\basis(\varphi))_{ij} = [\vv i]_\basis^* M_\basis(f^*)^* M_\basis(\varphi) [\vv j]_\basis = \\ = [\vv i]_\basis^* M_\basis(\varphi) M_\basis(f) [\vv j]_\basis = (M_\basis(\varphi) M_\basis(f))_{ij},
\end{gather*}
e quindi che $M_\basis(f^*)^* M_\basis(\varphi) = M_\basis(\varphi) M_\basis(f)$. Moltiplicando
a destra per l'inversa di $M_\basis(\varphi)$ e prendendo l'aggiunta di ambo i membri (ricordando
che $M_\basis(\varphi)^* = M_\basis(\varphi)$, essendo $\varphi$ un prodotto hermitiano), si ricava
l'identità desiderata.
\end{proof}
\begin{corollary} Sia $\varphi$ un prodotto hermitiano di $V$ spazio vettoriale su $\CC$.
Se $\basis$ è una base ortonormale, $\varphi$ è non degenere e $M_\basis(f_\varphi^*) = M_\basis(f)^*$.
\end{corollary}
\begin{proof}
Se $\basis$ è una base ortonormale, $M_\basis(\varphi) = I_n$. Pertanto $\varphi$ è
non degenere. Allora, per la proposizione precedente:
\[ M_\basis(f_\varphi^*) = M_\basis(\varphi)\inv M_\basis(f)^* M_\basis(\varphi) = M_\basis(f)^*. \]
\end{proof}
\section{Tipi di operatori di $(V, \varphi)$}
\subsection{Operatori simmetrici e ortogonali per un prodotto scalare}
\begin{note}
D'ora in poi, nel corso del documento, s'intenderà per $\varphi$ un prodotto scalare (o eventualmente hermitiano) non degenere di $V$.
\end{note}
\begin{definition} (operatori simmetrici)
Sia $f \in \End(V)$. Si dice allora che $f$ è \textbf{simmetrico} (o \textit{autoaggiunto}) se $f = f^\top$.
\end{definition}
\begin{definition} (applicazioni e matrici ortogonali)
Sia $f \in \End(V)$. Si dice allora che $f$ è \textbf{ortogonale} se $\varphi(\v, \w) = \varphi(f(\v), f(\w))$,
ossia se è un'isometria in $V$.
Sia $A \in M(n, \KK)$. Si dice dunque che $A$ è \textbf{ortogonale} se $A^\top A = A A^\top = I_n$.
\end{definition}
\begin{definition}
Le matrici ortogonali di $M(n, \KK)$ formano un sottogruppo moltiplicativo di $\GL(n, \KK)$, detto \textbf{gruppo ortogonale},
e indicato con $O_n$. Il sottogruppo di $O_n$ contenente solo le matrici con determinante pari a $1$ è
detto \textbf{gruppo ortogonale speciale}, e si denota con $SO_n$.
\end{definition}
\begin{remark}
Si possono classificare in modo semplice alcuni di questi gruppi ortogonali per $\KK = \RR$. \\
\li $A \in O_n \implies 1 = \det(I_n) = \det(A A^\top) = \det(A)^2 \implies \det(A) = \pm 1$.
\li $A = (a) \in O_1 \iff A^\top A = I_1 \iff a^2 = 1 \iff a = \pm 1$, da cui si ricava che l'unica matrice
di $SO_1$ è $(1)$. Si osserva inoltre che $O_1$ è abeliano di ordine $2$, e quindi che $O_1 \cong \ZZ/2\ZZ$. \\
\li $A = \Matrix{a & b \\ c & d} \in O_2 \iff \Matrix{a^2 + b^2 & ab + cd \\ ab + cd & c^2 + d^2} = A^\top A = I_2.$ \\
Pertanto deve essere soddisfatto il seguente sistema di equazioni:
\[ \system{a^2 + b^2 = c^2 + d^2 = 1, \\ ac + bd = 0.} \]
Si ricava dunque che si può identificare
$A$ con le funzioni trigonometriche $\cos(\theta)$ e $\sin(\theta)$ con $\theta \in [0, 2\pi)$ nelle due forme:
\begin{align*}
&A = \Matrix{\cos(\theta) & -\sin(\theta) \\ \sin(\theta) & \cos(\theta)} \quad &\text{(}\!\det(A) = 1, A \in SO_2\text{)}, \\
&A = \Matrix{\cos(\theta) & \sin(\theta) \\ \sin(\theta) & -\cos(\theta)} \quad &\text{(}\!\det(A) = -1\text{)}.
\end{align*}
\end{remark}
\subsection{Operatori hermitiani e unitari per prodotti hermitiani}
\begin{definition} (applicazioni e matrici hermitiane)
Sia $f \in \End(V)$ e si consideri il prodotto hermitiano $\varphi$. Si dice allora che
$f$ è \textbf{hermitiano} se $f = f^*$. Sia $A \in M(n, \CC)$. Si dice dunque che $A$
è \textbf{hermitiana} se $A = A^*$.
\end{definition}
\begin{definition} (applicazioni e matrici unitarie)
Sia $f \in \End(V)$ e si consideri il prodotto hermitiano $\varphi$. Si dice allora che
$f$ è \textbf{unitario} se $\varphi(\v, \w) = \varphi(f(\v), f(\w))$. Sia $A \in M(n, \CC)$.
Si dice dunque che $A$ è \textbf{unitaria} se $A^* A = A A^* = I_n$.
\end{definition}
\begin{definition}
Le matrici unitarie di $M(n, \CC)$ formano un sottogruppo moltiplicativo di $\GL(n, \CC)$, detto \textbf{gruppo unitario},
e indicato con $U_n$. Il sottogruppo di $U_n$ contenente solo le matrici con determinante pari a $1$ è
detto \textbf{gruppo unitario speciale}, e si denota con $SU_n$.
\end{definition}
\begin{remark}\nl
Si possono classificare in modo semplice alcuni di questi gruppi unitari.
\li $A \in U_n \implies 1 = \det(I_n) = \det(A A^*) = \det(A) \conj{\det(A)} = \abs{\det(A)}^2 = 1$. \\
\li $A = (a) \in U_1 \iff A^* A = I_1 \iff \abs{a}^2 = 1 \iff a = e^{i\theta}$, $\theta \in [0, 2\pi)$, ossia il numero complesso $a$ appartiene alla circonferenza di raggio unitario. \\
\li $A = \Matrix{a & b \\ c & d} \in SU_2 \iff A A^* = \Matrix{\abs{a}^2 + \abs{b}^2 & a\conj c + b \conj d \\ \conj a c + \conj b d & \abs{c}^2 + \abs{d}^2} = I_2$, $\det(A) = 1$, ossia se il seguente
sistema di equazioni è soddisfatto:
\[ \system{\abs{a}^2 + \abs{b}^2 = \abs{c}^2 + \abs{d}^2 = 1, \\ a\conj c + b \conj d = 0, \\ ad-bc=1,} \]
le cui soluzioni riassumono il gruppo $SU_2$ nel seguente modo:
\[ SU_2 = \left\{ \Matrix{x & -y \\ \conj y & \conj x} \in M(2, \CC) \;\middle\vert\; \abs{x}^2 + \abs{y}^2 = 1 \right\}. \]
\end{remark}
\section{Spazi euclidei reali e complessi}
\subsection{Prime definizioni e risultati preliminari}
\begin{definition} (spazio euclideo reale)
Si definisce \textbf{spazio euclideo reale} uno spazio vettoriale $V$ su $\RR$ dotato
del prodotto scalare standard $\varphi = \innprod{\cdot, \cdot}$.
\end{definition}
\begin{definition} (spazio euclideo complesso)
Si definisce \textbf{spazio euclideo complesso} uno spazio vettoriale $V$ su $\CC$ dotato
del prodotto hermitiano standard $\varphi = \innprod{\cdot, \cdot}$.
\end{definition}
\begin{proposition}
Sia $(V, \varphi)$ uno spazio euclideo reale e sia $\basis$ una base ortonormale di $V$. Allora $f \in \End(V)$ è simmetrico $\iff$ $M_\basis(f) = M_\basis(f)^\top$ $\iff$ $M_\basis(f)$ è simmetrica.
\end{proposition}
\begin{proof}
Per il corollario precedente, $f$ è simmetrico $\iff f = f^\top \iff M_\basis(f) = M_\basis(f^\top) =
M_\basis(f)^\top$.
\end{proof}
\begin{proposition}
Sia $(V, \varphi)$ uno spazio euclideo reale e sia $\basis$ una base ortonormale di $V$. Allora
$f \in \End(V)$ è ortogonale $\iff$ $M_\basis(f) M_\basis(f)^\top = M_\basis(f)^\top M_\basis(f) = I_n$ $\defiff$ $M_\basis(f)$ è ortogonale.
\end{proposition}
\begin{proof}
Si osserva che $M_\basis(\varphi) = I_n$. Sia $\basis = \{ \vv 1, \ldots, \vv n\}$. Se $f$ è ortogonale, allora
$[\v]_\basis^\top \, [\w]_\basis = [\v]_\basis^\top \, M_\basis(\varphi) [\w]_\basis = \varphi(\v, \w) =
\varphi(f(\v), f(\w)) = (M_\basis(f) [\v]_\basis)^\top \, M_\basis(\varphi) (M_\basis(f) [\w]_\basis) =
[\v]_\basis^\top M_\basis(f)^\top M_\basis(\varphi) M_\basis(f) [\w]_\basis = [\v]_\basis^\top M_\basis(f)^\top M_\basis(f) [\w]_\basis$. Allora, come visto nel corollario precedente, si ricava che $M_\basis(f)^\top M_\basis(f) = I_n$. Dal momento che gli inversi sinistri sono anche inversi destri, $M_\basis(f)^\top M_\basis(f) = M_\basis(f) M_\basis(f)^\top = I_n$. \\
Se invece $M_\basis(f)^\top M_\basis(f) = M_\basis(f) M_\basis(f)^\top = I_n$, $\varphi(\v, \w) = [\v]_\basis^\top [\w]_\basis = [\v]_\basis^\top M_\basis(f)^\top M_\basis(f) [\w]_\basis =
(M_\basis(f) [\v]_\basis)^\top (M_\basis(f) [\w]_\basis) =$ $(M_\basis(f) [\v]_\basis)^\top M_\basis(\varphi) (M_\basis(f) [\w]_\basis) = \varphi(f(\v), f(\w))$, e quindi
$f$ è ortogonale.
\end{proof}
\begin{proposition}
Sia $(V, \varphi)$ uno spazio euclideo complesso e sia $\basis$ una base ortonormale di $V$. Allora $f \in \End(V)$ è hermitiano $\iff$ $M_\basis(f) = M_\basis(f)^*$ $\defiff$ $M_\basis(f)$ è hermitiana.
\end{proposition}
\begin{proof}
Per il corollario precedente, $f$ è hermitiana $\iff$ $f = f^*$ $\iff M_\basis(f) = M_\basis(f^*) = M_\basis(f)^*$.
\end{proof}
\begin{proposition}
Sia $(V, \varphi)$ uno spazio euclideo complesso e sia $\basis$ una base ortonormale di $V$. Allora $f \in \End(V)$ è unitario $\iff$ $M_\basis(f) M_\basis(f)^* = M_\basis(f)^* M_\basis(f) = I_n$ $\defiff$ $M_\basis(f)$ è unitaria.
\end{proposition}
\begin{proof}
Si osserva che $M_\basis(\varphi) = I_n$. Sia $\basis = \{ \vv 1, \ldots, \vv n\}$. Se $f$ è unitario, allora
$[\v]_\basis^* \, [\w]_\basis = [\v]_\basis^* \, M_\basis(\varphi) [\w]_\basis = \varphi(\v, \w) =
\varphi(f(\v), f(\w)) = (M_\basis(f) [\v]_\basis)^* \, M_\basis(\varphi) (M_\basis(f) [\w]_\basis) =
[\v]_\basis^* M_\basis(f)^* M_\basis(\varphi) M_\basis(f) [\w]_\basis = [\v]_\basis^* M_\basis(f)^* M_\basis(f) [\w]_\basis$. Allora, come visto nel corollario precedente, si ricava che $M_\basis(f)^* M_\basis(f) = I_n$. Dal momento che gli inversi sinistri sono anche inversi destri, $M_\basis(f)^* M_\basis(f) = M_\basis(f) M_\basis(f)^* = I_n$. \\
Se invece $M_\basis(f)^* M_\basis(f) = M_\basis(f) M_\basis(f)^* = I_n$, $\varphi(\v, \w) = [\v]_\basis^* [\w]_\basis = [\v]_\basis^* M_\basis(f)^* M_\basis(f) [\w]_\basis$ $=
(M_\basis(f) [\v]_\basis)^* (M_\basis(f) [\w]_\basis)$ $= (M_\basis(f) [\v]_\basis)^* M_\basis(\varphi) (M_\basis(f) [\w]_\basis) = \varphi(f(\v), f(\w))$, e quindi
$f$ è unitario.
\end{proof}
\begin{remark}
Se $\basis$ è una base ortonormale di $(V, \varphi)$, ricordando che $M_\basis(f^\top) = M_\basis(f)^\top$ e che $M_\basis(f^*) = M_\basis(f)^*$, sono equivalenti allora i seguenti fatti: \\
\li $f \circ f^\top = f^\top \circ f = \Idv$ $\iff$ $M_\basis(f)$ è ortogonale $\iff$ $f$ è ortogonale, \\
\li $f \circ f^* = f^* \circ f = \Idv$ $\iff$ $M_\basis(f)$ è unitaria $\iff$ $f$ è unitario (se $V$ è uno spazio vettoriale su $\CC$).
\end{remark}
\begin{proposition}
Sia $V = \RR^n$ uno spazio vettoriale col prodotto scalare standard $\varphi$. Allora sono equivalenti i seguenti fatti:
\begin{enumerate}[(i)]
\item $A \in O_n$,
\item $f_A$ è un operatore ortogonale,
\item le colonne e le righe di $A$ formano una base ortonormale di $V$.
\end{enumerate}
\end{proposition}
\begin{proof}
Sia $\basis$ la base canonica di $V$. Allora $M_\basis(f_A) = A$, e quindi, per una proposizione
precedente, $f_A$ è un operatore ortogonale. Viceversa si deduce che se $f_A$ è un operatore ortogonale,
$A \in O_n$. Dunque è sufficiente dimostrare che $A \in O_n \iff$ le colonne e le righe di $A$ formano una
base ortonormale di $V$. \\
\rightproof Se $A \in O_n$, in particolare $A \in \GL(n, \RR)$, e quindi $A$ è invertibile. Allora le
sue colonne e le sue righe formano già una base di $V$, essendo $n$ vettori di $V$ linearmente indipendenti.
Inoltre, poiché $A \in O_n$, $\varphi(\e i, \e j) = \varphi(A \e i, A \e j)$, e quindi le colonne di $A$ si mantengono a due a due ortogonali tra di loro, mentre $\varphi(A \e i, A \e i) = \varphi(\e i, \e i) = 1$.
Pertanto le colonne di $A$ formano una base ortonormale di $V$. \\
Si osserva che anche $A^\top \in O_n$. Allora le righe di $A$, che non sono altro che
le colonne di $A^\top$, formano anch'esse una base ortonormale di $V$. \\
\leftproof Nel moltiplicare $A^\top$ con $A$ altro non si sta facendo che calcolare il prodotto
scalare $\varphi$ tra ogni riga di $A^\top$ e ogni colonna di $A$ , ossia $(A^* A)_{ij} = \varphi((A^\top)_i, A^j) = \varphi(A^i, A^j) = \delta_{ij}$.
Quindi $A^\top A = A A^\top = I_n$, da cui si deduce che $A \in O_n$.
\end{proof}
\begin{proposition}
Sia $V = \CC^n$ uno spazio vettoriale col prodotto hermitiano standard $\varphi$. Allora sono equivalenti i seguenti fatti:
\begin{enumerate}[(i)]
\item $A \in U_n$,
\item $f_A$ è un operatore unitario,
\item le colonne e le righe di $A$ formano una base ortonormale di $V$.
\end{enumerate}
\end{proposition}
\begin{proof}
Sia $\basis$ la base canonica di $V$. Allora $M_\basis(f_A) = A$, e quindi, per una proposizione
precedente, $f_A$ è un operatore unitario. Viceversa si deduce che se $f_A$ è un operatore unitario,
$A \in U_n$. Dunque è sufficiente dimostrare che $A \in U_n \iff$ le colonne e le righe di $A$ formano una
base ortonormale di $V$. \\
\rightproof Se $A \in U_n$, in particolare $A \in \GL(n, \RR)$, e quindi $A$ è invertibile. Allora le
sue colonne e le sue righe formano già una base di $V$, essendo $n$ vettori di $V$ linearmente indipendenti.
Inoltre, poiché $A \in U_n$, $\varphi(\e i, \e j) = \varphi(A \e i, A \e j)$, e quindi le colonne di $A$ si mantengono a due a due ortogonali tra di loro, mentre $\varphi(A \e i, A \e i) = \varphi(\e i, \e i) = 1$.
Pertanto le colonne di $A$ formano una base ortonormale di $V$. \\
Si osserva che anche $A^\top \in U_n$. Allora le righe di $A$, che non sono altro che
le colonne di $A^\top$, formano anch'esse una base ortonormale di $V$. \\
\leftproof Nel moltiplicare $A^*$ con $A$ altro non si sta facendo che calcolare il prodotto
hermitiano $\varphi$ tra ogni riga coniugata di $A^*$ e ogni colonna di $A$, ossia $(A^* A)_{ij} = \varphi((A^\top)_i, A^j) = \varphi(A^i, A^j) = \delta_{ij}$.
Quindi $A^* A = A A^* = I_n$, da cui si deduce che $A \in U_n$.
\end{proof}
\begin{proposition}
Sia $(V, \varphi)$ uno spazio euclideo reale. Allora valgono i seguenti tre risultati:
\begin{enumerate}[(i)]
\item $(V_\CC, \varphi_\CC)$ è uno spazio euclideo complesso.
\item Se $f \in \End(V)$ è simmetrico, allora $f_\CC \in \End(V)$ è hermitiano.
\item Se $f \in \End(V)$ è ortogonale, allora $f_\CC \in \End(V)$ è unitario.
\end{enumerate}
\end{proposition}
\begin{proof}
Dacché $\varphi$ è il prodotto scalare standard dello spazio euclideo reale $V$, esiste una base ortnormale di $V$. Sia allora $\basis$ una base ortonormale di $V$. Si dimostrano i tre risultati separatamente.
\begin{itemize}
\item È sufficiente dimostrare che $\varphi_\CC$ altro non è che il prodotto hermitiano standard.
Come si è già osservato precedentemente, $M_\basis(\varphi_\CC) = M_\basis(\varphi)$, e quindi,
dacché $M_\basis(\varphi) = I_n$, essendo $\basis$ ortonormale, vale anche che $M_\basis(\varphi_\CC) = I_n$,
ossia $\varphi_\CC$ è proprio il prodotto hermitiano standard.
\item Poiché $f$ è simmetrico, $M_\basis(f) = M_\basis(f)^\top$, e quindi anche
$M_\basis(f_\CC) = M_\basis(f_\CC)^\top$. Dal momento che $M_\basis(f) \in M(n, \RR)$,
$M_\basis(f) = \conj{M_\basis(f)} \implies M_\basis(f_\CC)^\top = M_\basis(f_\CC)^*$.
Quindi $M_\basis(f_\CC) = M_\basis(f_\CC)^*$, ossia $M_\basis(f_\CC)$ è hermitiana,
e pertanto anche $f_\CC$ è hermitiano.
\item Poiché $f$ è ortogonale, $M_\basis(f) M_\basis(f)^\top = I_n$, e quindi
anche $M_\basis(f_\CC) M_\basis(f_\CC)^\top = I_n$. Allora, come prima, si deduce
che $M_\basis(f_\CC)^\top = M_\basis(f_\CC)^*$, essendo $M_\basis(f_\CC) = M_\basis(f) \in M(n, \RR)$,
da cui
si ricava che $M_\basis(f_\CC) M_\basis(f_\CC)^* = M_\basis(f_\CC) M_\basis(f_\CC)^\top = I_n$, ossia che $f_\CC$ è unitario. \\ \qedhere
\end{itemize}
\end{proof}
\begin{exercise}
Sia $(V, \varphi)$ uno spazio euclideo reale. Allora valgono i seguenti risultati:
\begin{itemize}
\item Se $f$, $g \in \End(V)$ commutano, allora anche $f_\CC$, $g_\CC \in \End(V_\CC)$ commutano.
\item Se $f \in \End(V)$, $(f^\top)_\CC = (f_\CC)^*$.
\item Se $f \in \End(V)$, $f$ diagonalizzabile $\iff$ $f^\top$ diagonalizzabile.
\end{itemize}
\end{exercise}
\begin{solution}
Dacché $\varphi$ è il prodotto scalare standard dello spazio euclideo reale $V$, esiste una base ortonormale $\basis = \{ \vv 1, \ldots, \vv n\}$ di $V$. Si dimostrano allora separatamente i tre risultati.
\begin{itemize}
\item Si osserva che $M_\basis(f_\CC) M_\basis(g_\CC) = M_\basis(f) M_\basis(g) =
M_\basis(g) M_\basis(f) = M_\basis(g_\CC) M_\basis(f_\CC)$, e quindi
che $f_\CC \circ g_\CC = g_\CC \circ f_\CC$.
\item Si osserva che $M_\basis(f) \in M(n, \RR) \implies M_\basis(f)^\top = M_\basis(f)^*$, e quindi che $M_\basis((f^\top)_\CC) = M_\basis(f^\top) = M_\basis(f)^\top = M_\basis(f)^* = M_\basis(f_\CC)^* = M_\basis((f_\CC)^*)$. Allora
$(f^\top)_\CC= (f_\CC)^*$.
\item Poiché $\basis$ è ortonormale, $M_\basis(f^\top) = M_\basis(f)^\top$. Allora, se
$f$ è diagonalizzabile, anche $M_\basis(f)$ lo è, e quindi $\exists P \in \GL(n, \KK)$,
$D \in M(n, \KK)$ diagonale tale che $M_\basis(f) = P D P\inv$. Allora $M_\basis(f^\top) =
M_\basis(f)^\top = (P^\top)\inv D^\top P^\top$ è simile ad una matrice diagonale, e
pertanto $M_\basis(f^\top)$ è diagonalizzabile. Allora anche $f^\top$ è diagonalizzabile.
Vale anche il viceversa considerando l'identità $f = (f^\top)^\top$ e l'implicazione
appena dimostrata.
\end{itemize}
\end{solution}
\subsection{Norme euclidee}
\begin{note}
D'ora in poi, qualora non specificato diversamente, si assumerà che $V$ sia uno spazio
euclideo, reale o complesso.
\end{note}
\begin{definition} (norma euclidea)
Sia $(V, \varphi)$ un qualunque spazio euclideo. Si definisce \textbf{norma} la mappa
$\norm{\cdot} : V \to \RR^+$ tale che $\norm{\v} = \sqrt{\varphi(\v, \v)}$.
\end{definition}
\begin{definition} (distanza euclidea tra due vettori)
Sia $(V, \varphi)$ un qualunque spazio euclideo. Si definisce \textbf{distanza} la mappa
$d : V \times V \to \RR^+$ tale che $d(\v, \w) = \norm{\v - \w}$.
\end{definition}
\begin{remark}\nl
\li Si osserva che in effetti $\varphi(\v, \v) \in \RR^+$ $\forall \v \in V$. Infatti, sia
per il caso reale che per il caso complesso, $\varphi$ è definito positivo. \\
\li Vale che $\norm{\v} = 0 \iff \v = \vec 0$. Infatti, se $\v = \vec 0$, chiaramente
$\varphi(\v, \v) = 0 \implies \norm{\v} = 0$; se invece $\norm{\v} = 0$,
$\varphi(\v, \v) = 0$, e quindi $\v = \vec 0$, dacché $V^\perp = \zerovecset$, essendo
$\varphi$ definito positivo. \\
\li Inoltre, vale chiaramente che $\norm{\alpha \v} = \abs{\alpha} \norm{\v}$. \\
\li Se $f$ è un operatore ortogonale (o unitario), allora $f$ mantiene sia le
norme che le distanze tra vettori. Infatti $\norm{\v - \w}^2 = \varphi(\v - \w, \v - \w) =
\varphi(f(\v - \w), f(\v - \w)) = \varphi(f(\v) - f(\w), f(\v) - f(\w)) = \norm{f(\v) - f(\w)}^2$,
da cui segue che $\norm{\v - \w} = \norm{f(\v) - f(\w)}$.
\end{remark}
\begin{proposition} [disuguaglianza di Cauchy-Schwarz]
Vale che $\norm{\v} \norm{\w} \geq \abs{\varphi(\v, \w)}$, $\forall \v$, $\w \in V$, dove
l'uguaglianza è raggiunta soltanto se $\v$ e $\w$ sono linearmente dipendenti.
\end{proposition}
\begin{proof}
Si consideri innanzitutto il caso $\KK = \RR$, e quindi il caso in cui $\varphi$ è
il prodotto scalare standard. Siano $\v$, $\w \in V$.
Si consideri la disuguaglianza $\norm{\v + t\w}^2 \geq 0$, valida
per ogni elemento di $V$. Allora $\norm{\v + t \w}^2 = \norm{\v}^2 + 2 \varphi(\v, \w) t + \norm{\w}^2 t^2 \geq 0$. L'ultima disuguaglianza è possibile se e solo se $\frac{\Delta}{4} \leq 0$, e quindi se e solo
se $\varphi(\v, \w)^2 - \norm{\v}^2 \norm{\w}^2 \leq 0 \iff \norm{\v} \norm{\w} \geq \varphi(\v, \w)$.
Vale in particolare l'equivalenza se e solo se $\norm{\v + t\w} = 0$, ossia se $\v + t\w = \vec 0$, da cui
la tesi. \\
Si consideri ora il caso $\KK = \CC$, e dunque il caso in cui $\varphi$ è il prodotto hermitiano
standard. Siano $\v$, $\w \in V$, e siano $\alpha$, $\beta \in \CC$. Si consideri allora
la disuguaglianza $\norm{\alpha \v + \beta \w}^2 \geq 0$, valida per ogni elemento di $V$. Allora
$\norm{\alpha \v + \beta \w}^2 = \norm{\alpha \v}^2 + \varphi(\alpha \v, \beta \w) + \varphi(\beta \w, \alpha \v) + \norm{\beta \w}^2 = \abs{\alpha}^2 \norm{\v}^2 + \conj{\alpha} \beta \, \varphi(\v, \w) +
\alpha \conj{\beta} \, \varphi(\w, \v) + \abs{\beta}^2 \norm{\w}^2 \geq 0$. Ponendo allora
$\alpha = \norm{\w}^2$ e $\beta = -\varphi(\w, \v) = \conj{-\varphi(\v, \w)}$, si deduce che:
\[ \norm{\v}^2 \norm{\w}^4 - \norm{\w}^2 \abs{\varphi(\v, \w)} \geq 0. \]
\vskip 0.05in
Se $\w = \vec 0$, la disuguaglianza di Cauchy-Schwarz è già dimostrata. Altrimenti, è sufficiente
dividere per $\norm{\w}^2$ (dal momento che $\w \neq \vec 0 \iff \norm{\w} \neq 0$) per ottenere
la tesi. Come prima, is osserva che l'uguaglianza si ottiene se e solo se $\v$ e $\w$ sono
linearmente dipendenti.
\end{proof}
\begin{proposition} [disuguaglianza triangolare]
$\norm{\v + \w} \leq \norm{\v} + \norm{\w}$.
\end{proposition}
\begin{proof}
Si osserva che $\norm{\v + \w}^2 = \norm{\v}^2 + \varphi(\v, \w) + \varphi(\w, \v) + \norm{\w}^2$.
Se $\varphi$ è il prodotto scalare standard, si ricava che:
\[ \norm{\v + \w}^2 = \norm{\v}^2 + 2 \varphi(\v, \w) + \norm{\w}^2
\leq \norm{\v}^2 + 2 \norm{\v} \norm{\w} + \norm{\w}^2 =
(\norm{\v} + \norm{\w})^2,\]
dove si è utilizzata la disuguaglianza di Cauchy-Schwarz. Da quest'ultima disuguaglianza si ricava, prendendo la radice quadrata, la disuguaglianza
desiderata. \\
Se invece $\varphi$ è il prodotto hermitiano standard, $\norm{\v + \w}^2 = \norm{\v}^2 + 2 \, \Re(\varphi(\v, \w)) + \norm{\w}^2 \leq \norm{\v}^2 + 2 \abs{\varphi(\v, \w)} + \norm{\w}^2$. Allora, riapplicando
la disuguaglianza di Cauchy-Schwarz, si ottiene che:
\[ \norm{\v + \w}^2 \leq (\norm{\v} + \norm{\w})^2, \]
da cui, come prima, si ottiene la disuguaglianza desiderata.
\end{proof}
\begin{remark}
Utilizzando il concetto di norma euclidea, si possono ricavare due teoremi fondamentali della geometria,
e già noti dalla geometria euclidea. \\
\li Se $\v \perp \w$, allora $\norm{\v + \w}^2 = \norm{\v}^2 + \overbrace{(\varphi(\v, \w) + \varphi(\w, \v))}^{=\,0} + \norm{\w}^2 = \norm{\v}^2 + \norm{\w}^2$ (teorema di Pitagora), \\
\li Se $\norm{\v} = \norm{\w}$ e $\varphi$ è un prodotto scalare, allora $\varphi(\v + \w, \v - \w) = \norm{\v}^2 - \varphi(\v, \w) + \varphi(\w, \v) - \norm{\w}^2 = \norm{\v}^2 - \norm{\w}^2 = 0$, e quindi
$\v + \w \perp \v - \w$ (le diagonali di un rombo sono ortogonali tra loro).
\end{remark}
\begin{remark}
Sia $\basis = \{ \vv 1, \ldots, \vv n \}$ è una base ortogonale di $V$ per $\varphi$. \\
\li Se $\v = a_1 \vv 1 + \ldots + a_n \vv n$, con $a_1$, ..., $a_n \in \KK$, si osserva
che $\varphi(\v, \vv i) = a_i \varphi(\vv i, \vv i)$. Quindi $\v = \sum_{i=1}^n \frac{\varphi(\v, \vv i)}{\varphi(\vv i, \vv i)} \, \vv i$. In particolare, $\frac{\varphi(\v, \vv i)}{\varphi(\vv i, \vv i)}$ è
detto \textbf{coefficiente di Fourier} di $\v$ rispetto a $\vv i$, e si indica con $C(\v, \vv i)$. Se $\basis$ è ortonormale,
$\v = \sum_{i=1}^n \varphi(\v, \vv i) \, \vv i$. \\
\li Quindi $\norm{\v}^2 = \varphi(\v, \v) = \sum_{i=1}^n \frac{\varphi(\v, \vv i)^2}{\varphi(\vv i, \vv i)}$. In
particolare, se $\basis$ è ortonormale, $\norm{\v}^2 = \sum_{i=1}^n \varphi(\v, \vv i)^2$. In tal caso,
si può esprimere la disuguaglianza di Bessel: $\norm{\v}^2 \geq \sum_{i=1}^k \varphi(\v, \vv i)^2$ per $k \leq n$.
\end{remark}
\begin{remark}
Si osserva adesso che se $(V, \varphi)$ è uno spazio euclideo (e quindi $\varphi > 0$), e $W$ è
un sottospazio di $V$, vale la seguente decomposizione:
\[ V = W \oplus^\perp W^\perp. \]
Pertanto ogni vettore $\v \in V$ può scriversi come $\w + \w'$ dove $\w \in W$ e $\w' \in W^\perp$,
dove $\varphi(\w, \w') = 0$.
\end{remark}
\subsection{La proiezione ortogonale}
\begin{definition} (proiezione ortogonale)
Si definisce l'applicazione $\pr_W : V \to V$, detta \textbf{proiezione ortogonale} su $W$,
in modo tale che $\pr_W(\v) = \w$, dove $\v = \w + \w'$, con $\w \in W$ e $\w' \in W^\perp$.
\end{definition}
\begin{remark}\nl
\li Dacché la proiezione ortogonale è un caso particolare della classica applicazione lineare
di proiezione su un sottospazio di una somma diretta, $\pr_W$ è un'applicazione lineare. \\
\li Vale chiaramente che $\pr_W^2 = \pr_W$, da cui si ricava, se $W^\perp \neq \zerovecset$, che
$\varphi_{\pr_W}(\lambda) = \lambda (\lambda -1)$, ossia che $\Sp(\pr_W) = \{0, 1\}$. Infatti
$\pr_W(\v)$ appartiene già a $W$, ed essendo la scrittura in somma di due elementi, uno di $W$ e
uno di $W'$, unica, $\pr_W(\pr_W(\v)) = \pr_W(\v)$, da cui l'identità $\pr_W^2 = \pr_W$. \\
\li Seguendo il ragionamento di prima, vale anche che $\restr{\pr_W}{W} = \Idw$ e che
$\restr{\pr_W}{W^\perp} = 0$. \\
\li Inoltre, vale la seguente riscrittura di $\v \in V$: $\v = \pr_W(\v) + \pr_{W^\perp}(\v)$. \\
\li Se $\basis = \{ \vv1, \ldots, \vv n \}$ è una base ortogonale di $W$, allora
$\pr_W(\v) = \sum_{i=1}^n \frac{\varphi(\v, \vv i)}{\varphi(\vv i, \vv i)} \vv i = \sum_{i=1}^n C(\v, \vv i) \vv i$. Infatti $\v -\sum_{i=1}^n C(\v, \vv i) \vv i \in W^\perp$. \\
\li $\pr_W$ è un operatore simmetrico (o hermitiano se lo spazio è complesso). Infatti $\varphi(\pr_W(\v), \w) =
\varphi(\pr_W(\v), \pr_W(\w) + \pr_{W^\perp}(\w)) = \varphi(\pr_W(\v), \pr_W(\w)) = \varphi(\pr_W(\v) + \pr_{W^\perp}(\v), \pr_W(\w)) = \varphi(\v, \pr_W(\w))$.
\end{remark}
\begin{proposition}
Sia $(V, \varphi)$ uno spazio euclideo. Allora valgono i seguenti risultati:
\begin{enumerate}[(i)]
\item Siano $U$, $W \subseteq V$ sono sottospazi di $V$, allora $U \perp W$, ossia\footnote{È sufficiente che valga $U \subseteq W^\perp$ affinché valga anche $W \subseteq U^\perp$. Infatti $U \subseteq W^\perp \implies W = W^\dperp \subseteq U^\perp$. Si osserva che in generale vale che $W \subseteq W^\dperp$, dove vale l'uguaglianza nel caso di un prodotto $\varphi$ non degenere, com'è nel caso di uno spazio euclideo,
essendo $\varphi > 0$ per ipotesi.} $U \subseteq W^\perp$, $\iff \pr_U \circ \pr_W = \pr_W \circ \pr_U = 0$.
\item Sia $V = W_1 \oplus \cdots \oplus W_n$. Allora $\v = \sum_{i=1}^n \pr_{W_i}(\v)$ $\iff$ $W_i \perp W_j$ $\forall i \neq j$, $1 \leq i, j \leq n$.
\end{enumerate}
\end{proposition}
\begin{proof}
Si dimostrano i due risultati separatamente.
\begin{enumerate}[(i)]
\item Sia $\v \in V$. Allora $\pr_W(\v) \in W = W^\dperp \subseteq U^\perp$. Pertanto
$\pr_U(\pr_W(\v)) = \vec 0$. Analogamente $\pr_W(\pr_U(\v)) = \vec 0$, da cui la tesi.
\item Sia vero che $\v = \sum_{i=1}^n \pr_{W_i}(\v)$ $\forall \v \in V$. Sia $\w \in W_j$. Allora $\w = \sum_{i=1}^n \pr_{W_i}(\w) = \w + \sum_{\substack{i=1 \\ i \neq j}} \pr_{W_i}(\w) \implies \pr_{W_i}(\w) = \vec 0$ $\forall i \neq j$. Quindi $\w \in W_i^\perp$ $\forall i \neq j$, e si conclude che $W_i \subseteq W_j^\perp
\implies W_i \perp W_j$. Se invece $W_i \perp W_j$ $\forall i \neq j$, sia $\basis_i = \left\{ \w_i^{(1)}, \ldots, \w_i^{(k_i)} \right\}$ una base ortogonale di $W_i$. Allora $\basis = \cup_{i=1}^n \basis_i$ è anch'essa
una base ortogonale di $V$, essendo $\varphi\left(\w_i^{(t_i)}, \w_j^{(t_j)}\right) = 0$ per ipotesi.
Pertanto $\v = \sum_{i=1}^n \sum_{j=1}^{k_i} C\left(\v, \w_i^{(j)}\right) \w_i^{(j)} = \sum_{i=1}^n \pr_{W_i}(\v)$,
da cui la tesi. \qedhere
\end{enumerate}
\end{proof}
\subsection{L'inversione ortogonale e le riflessioni}
\begin{definition} (inversione ortogonale)
Si definisce l'applicazione $\rho_W : V \to V$, detta \textbf{inversione ortogonale}, in modo tale che, detto $\v = \w + \w' \in V$ con $\w \in W$, $\w \in W^\perp$, $\rho_W(\v) = \w - \w'$. Se $\dim W = \dim V - 1$,
si dice che $\rho_W$ è una \textbf{riflessione}.
\end{definition}
\begin{remark}\nl
\li Si osserva che $\rho_W$ è un'applicazione lineare. \\
\li Vale l'identità $\rho_W^2 = \Idv$, da cui si ricava che $\varphi_{\rho_W}(\lambda) \mid (\lambda-1)(\lambda+1)$. In particolare, se $W^\perp \neq \zerovecset$, vale proprio
che $\Sp(\rho_W) = \{\pm1\}$, dove $V_1 = W$ e $V_{-1} = W^\perp$. \\
\li $\rho_W$ è ortogonale (o unitaria, se $V$ è uno spazio euclideo complesso). Infatti se $\vv 1 = \ww 1 + \ww 1'$ e $\vv 2 = \ww 2 + \ww 2 '$, con $\ww 1$, $\ww 2 \in W$ e $\ww 1'$, $\ww 2' \in W$, $\varphi(\rho_W(\vv 1), \rho_W(\vv 2)) = \varphi(\ww 1 - \ww 1', \ww 2 - \ww 2') = \varphi(\ww 1, \ww 2) \underbrace{- \varphi(\ww 1', \ww 2) - \varphi(\ww 1, \ww 2')}_{=\,0} + \varphi(\ww 1', \ww 2') = \varphi(\ww 1 - \ww 1', \ww 2 - \ww 2')$. \\
Quindi $\varphi(\rho_W(\vv 1), \rho_W(\vv 2)) = \varphi(\ww 1, \ww 2) + \varphi(\ww 1', \ww 2) + \varphi(\ww 1, \ww 2') + \varphi(\ww 1', \ww 2') = \varphi(\vv 1, \vv 2)$.
\end{remark}
\subsubsection{Il teorema di Cartan-Dieudonné}
\begin{lemma} Sia $(V, \varphi)$ uno spazio euclideo reale.
Siano $\U$, $\w \in V$. Se $\norm{\U} = \norm{\w}$, allora esiste un sottospazio $W$ di dimensione
$n-1$ per cui la riflessione $\rho_W$ relativa a $\varphi$ è tale che $\rho_W(\U) = \w$.
\end{lemma}
\begin{proof} Se $\v$ e $\w$ sono linearmente dipendenti, dal momento che $\norm{v} = \norm{w}$, deve valere anche
che $\v = \w$. Sia $\U \neq \vec 0$, $\U \in \Span(\v)^\perp$. Si consideri $U = \Span(\U)$: si osserva che
$\dim U = 1$ e che, essendo $\varphi$ non degenere, $\dim U^\perp = n-1$. Posto allora $W = U^\perp$, si ricava,
sempre perché $\varphi$ è non degenere, che $U = U^\dperp = W^\perp$. Si conclude pertanto che $\rho_W(\v) =
\v = \w$. \\
Siano adesso $\v$ e $\w$ linearmente indipendenti e sia $U = \Span(\v - \w)$. Dal momento che $\dim U = 1$ e $\varphi$ è non degenere, $\dim U^\perp = n-1$. Sia allora $W = U^\perp$. Allora, come prima, $U = U^\dperp = W^\perp$. Si consideri dunque la riflessione $\rho_W$: dacché $\v = \frac{\v + \w}{2} + \frac{\v - \w}{2}$, e $\varphi(\frac{\v + \w}{2}, \frac{\v - \w}{2}) = \frac{\norm{\v} - \norm{\w}}{4} = 0$, $\v$ è già decomposto in un elemento di $W$ e in uno di $W^\perp$, per cui si conclude che $\rho_W(\v) =
\frac{\v + \w}{2} - \frac{\v - \w}{2} = \w$, ottenendo la tesi.
\end{proof}
\begin{theorem} [di CartanDieudonné] Sia $(V, \varphi)$ uno spazio euclideo reale.
Ogni isometria di $V$ è allora prodotto di al più $n$ riflessioni.
\end{theorem}
\begin{proof}
Si dimostra la tesi applicando il principio di induzione sulla dimensione $n$
di $V$. \\
\basestep Sia $n = 1$ e sia inoltre $f$ un'isometria di $V$. Sia $\vv 1$ l'unico elemento di una base ortonormale $\basis$ di $V$. Allora $\norm{f(\vv 1)} = \norm{\vv 1} = 1$, da cui si ricava che\footnote{Infatti, detto $\lambda \in \RR$ tale che $f(\vv 1) = \lambda \vv 1$, $\norm{\vv 1} = \norm{f(\vv 1)} = \lambda^2 \norm{\vv 1} \implies \lambda = \pm 1$, ossia $f = \pm \Id$, come volevasi dimostrare.} $f(\vv 1) = \pm \vv 1$,
ossia che $f = \pm \Idv$. Se $f = \Idv$, $f$ è un prodotto vuoto, e già verifica la tesi; altrimenti
$f = \rho_{\zerovecset}$, dove si considera $V = V \oplus^\perp \zerovecset$. Pertanto $f$ è prodotto
di al più una riflessione. \\
\inductivestep Sia $\basis = \{ \vv1, \ldots, \vv n \}$ una base di $V$. Sia $f$ un'isometria di $V$. Si
assuma inizialmente l'esistenza di $\vv i$ tale per cui $f(\vv i) = \vv i$. Allora, detto $W = \Span(\vv i)$, si può decomporre $V$ come $W \oplus^\perp W^\perp$. Si osserva che $W^\perp$ è $f$-invariante: infatti,
se $\U \in W^\perp$, $\varphi(\vv i, f(\U)) = \varphi(f(\vv i), f(\U)) = \varphi(\vv i, \U) = 0 \implies
f(\U) \in W^\perp$. Pertanto si può considerare l'isometria $\restr{f}{W^\perp}$. Dacché $\dim W^\perp = n - 1$,
per il passo induttivo esistono $W_1$, ..., $W_k$ sottospazi di $W^\perp$ con $k \leq n-1$ per cui $\rho_{W_1}$, ..., $\rho_{W_k} \in \End(W^\perp)$ sono tali che $\restr{f}{W^\perp} = \rho_{W_1} \circ \cdots \circ \rho_{W_k}$. \\
Si considerino allora le riflessioni $\rho_{W_1 \oplus^\perp W}$, ..., $\rho_{W_k \oplus^\perp W}$.
Si mostra che $\restr{\rho_{W_1 \oplus^\perp W} \circ \cdots \circ \rho_{W_k \oplus^\perp W}}{W} = \Idw = \restr{f}{W}$.
Affinché si faccia ciò è sufficiente mostrare che $(\rho_{W_1 \oplus^\perp W} \circ \cdots \circ \rho_{W_k \oplus^\perp W})(\vv i) = \vv i$. Si osserva che $\vv i \in W_i \oplus^\perp W$ $\forall 1 \leq i \leq k$, e
quindi che $\rho_{W_k \oplus^\perp W}(\vv i) = \vv i$. Reiterando l'applicazione di questa identità nel prodotto,
si ottiene infine il risultato desiderato. Infine, si dimostra che $\restr{\rho_{W_1 \oplus^\perp W} \circ \cdots \circ \rho_{W_k \oplus^\perp W}}{W^\perp} = \rho_{W_1} \circ \cdots \circ \rho_{W_k} = \restr{f}{W^\perp}$. Analogamente a prima,
è sufficiente mostrare che $\rho_{W_k \oplus^\perp W}(\U) = \rho_{W_k}(\U)$ $\forall \U \in W^\perp$.
Sia $\U = \rho_{W_k}(\U) + \U'$ con $\U' \in W_k^\perp \cap W^\perp \subseteq (W_k \oplus^\perp W)^\perp$,
ricordando che $W^\perp = W_k \oplus^\perp (W^\perp \cap W_k^\perp)$.
Allora, poiché $\rho_{W_k}(\U) \in W_k \subseteq (W_k \oplus^\perp W)$, si conclude che
$\rho_{W_k \oplus^\perp W}(\U) = \rho_{W_k}(\U)$. Pertanto, dacché vale che $V = W \oplus^\perp W^\perp$ e che $\rho_{W_1 \oplus^\perp W} \circ \cdots \circ \rho_{W_k \oplus^\perp W}$ e $f$, ristretti su $W$ o su $W^\perp$, sono le stesse identiche mappe, allora
in particolare vale l'uguaglianza più generale:
\[ f = \rho_{W_1 \oplus^\perp W} \circ \cdots \circ \rho_{W_k \oplus^\perp W}, \]
\vskip 0.05in
e quindi $f$ è prodotto di $k \leq n-1$ riflessioni. \\
Se invece non esiste alcun $\vv i$ tale per cui $f(\vv i) = \vv i$, per il \textit{Lemma 1} esiste
una riflessione $\tau$ tale per cui $\tau(f(\vv i)) = \vv i$. In particolare $\tau \circ f$ è anch'essa
un'isometria, essendo composizione di due isometrie. Allora, da prima, esistono $U_1$, ..., $U_k$ sottospazi
di $V$ con $k \leq n-1$ tali per cui $\tau \circ f = \rho_{U_1} \circ \cdots \circ \rho_{U_k}$, da
cui $f = \tau \circ \rho_{U_1} \circ \cdots \circ \rho_{U_k}$, ossia $f$ è prodotto di al più
$n$ riflessioni, concludendo il passo induttivo.
\end{proof}
\setcounter{lemma}{0}
\subsection{Il teorema spettrale per operatori simmetrici ed hermitiani}
\begin{lemma}
Sia $f \in \End(V)$ simmetrico (o hermitiano). Allora $f$ ha solo autovalori reali\footnote{Nel caso
di $f$ simmetrico, si intende in particolare che tutte le radici del suo polinomio caratteristico
sono reali.}.
\end{lemma}
\begin{proof}
Si assuma che $V$ è uno spazio euclideo complesso, e quindi che $\varphi$ è un prodotto hermitiano. Allora,
se $f$ è hermitiano, sia $\lambda \in \CC$ un suo autovalore\footnote{Tale autovalore esiste sicuramente dal momento
che $\KK = \CC$ è un campo algebricamente chiuso.} e sia $\v \in V_\lambda$. Allora $\varphi(\v, f(\v)) =
\varphi(f(\v), \v) = \conj{\varphi(\v, f(\v))} \implies \varphi(\v, f(\v)) \in \RR$. Inoltre vale
la seguente identità:
\[ \varphi(\v, f(\v)) = \varphi(\v, \lambda \v) = \lambda \varphi(\v, \v), \]
da cui, ricordando che $\varphi$ è non degenere e che $\varphi(\v, \v) \in \RR$, si ricava che:
\[ \lambda = \frac{\varphi(\v, f(\v))}{\varphi(\v, \v)} \in \RR. \]
\vskip 0.05in
Sia ora invece $V$ è uno spazio euclideo reale e $\varphi$ è un prodotto scalare. Allora, $(V_\CC, \varphi_\CC)$
è uno spazio euclideo complesso, e $f_\CC$ è hermitiano. Sia $\basis$ una base di $V$. Allora, come visto all'inizio di questa
dimostrazione, $f_\CC$ ha solo autovalori reali, da cui si ricava che il polinomio caratteristico
di $f_\CC$ è completamente riducibile in $\RR$. Si osserva inoltre che $p_f(\lambda) = \det(M_\basis(f) - \lambda I_n) = \det(M_\basis(f_\CC) - \lambda I_n) = p_{f_\CC}(\lambda)$. Si conclude dunque che
anche $p_f$ è completamente riducibile in $\RR$.
\end{proof}
\begin{remark}
Dal lemma precedente consegue immediatamente che se $A \in M(n, \RR)$ è simmetrica (o se appartiene a
$M(n, \CC)$ ed è hermitiana), considerando l'operatore simmetrico $f_A$ indotto da $A$ in $\RR^n$ (o $\CC^n$),
$f_A$ ha tutti autovalori reali, e dunque così anche $A$.
\end{remark}
\begin{lemma}
Sia $f \in \End(V)$ simmetrico (o hermitiano). Allora se $\lambda$, $\mu$ sono due autovalori distinti
di $f$, $V_\lambda \perp V_\mu$.
\end{lemma}
\begin{proof}
Siano $\v \in V_\lambda$ e $\w \in V_\mu$. Allora\footnote{Si osserva che non è stato coniugato $\lambda$
nei passaggi algebrici, valendo $\lambda \in \RR$ dallo scorso lemma.} $\lambda \varphi(\v, \w) = \varphi(\lambda \v, \w) = \varphi(f(\v), \w) = \varphi(\v, f(\w)) = \varphi(\v, \mu \w) = \mu \varphi(\v, \w)$.
Pertanto vale la seguente identità:
\[ (\lambda - \mu) \varphi(\v, \w) = 0. \]
\vskip 0.05in
In particolare, valendo $\lambda - \mu \neq 0$ per ipotesi, $\varphi(\v, \w) = 0 \implies V_\lambda \perp V_\mu$,
da cui la tesi.
\end{proof}
%TODO: mostrare in generale che se W è f-invariante, W^\perp è f*-invariante
\begin{lemma}
Sia $f \in \End(V)$ simmetrico (o hermitiano). Se $W \subseteq V$ è $f$-invariante, allora anche
$W^\perp$ lo è.
\end{lemma}
\begin{proof}
Siano $\w \in W$ e $\v \in W^\perp$. Allora $\varphi(\w, f(\v)) = \varphi(\underbrace{f(\w)}_{\in \, W}, \v) = 0$, da cui si ricava che $f(\v) \in W^\perp$, ossia la tesi.
\end{proof}
\begin{theorem} [spettrale reale]
Sia $(V, \varphi)$ uno spazio euclideo reale (o complesso) e sia $f \in \End(V)$ simmetrico (o hermitiano). Allora esiste una base ortogonale $\basis$ di $V$ composta di autovettori per $f$.
\end{theorem}
\begin{proof}
Siano $\lambda_1$, ..., $\lambda_k$ tutti gli autovalori reali di $f$. Sia inoltre
$W = V_{\lambda_1} \oplus \cdots \oplus V_{\lambda_k}$. Per i lemmi precedenti,
vale che:
\[ W = V_{\lambda_1} \oplus^\perp \cdots \oplus^\perp V_{\lambda_k}. \]
\vskip 0.05in
Sicuramente $W \subset V$. Si assuma però che $W \subsetneq V$. Allora $V = W \oplus^\perp W^\perp$. In particolare, per il lemma
precedente, $W^\perp$ è $f$-invariante. Quindi $\restr{f}{W^\perp}$ è un endomorfismo
di uno spazio di dimensione non nulla. Si osserva che $\restr{f}{W^\perp}$ è chiaramente
simmetrico (o hermitiano), essendo solo una restrizione di $f$. Allora $\restr{f}{W^\perp}$ ammette
autovalori reali per i lemmi precedenti; tuttavia questo è un assurdo, dal momento che ogni autovalore di $\restr{f}{W^\perp}$ è anche autovalore di $f$ e si era supposto che\footnote{Infatti tale autovalore $\lambda$
non può già comparire tra questi autovalori, altrimenti, detto $i \in \NN$ tale che $\lambda = \lambda_i$, $V_{\lambda_i} \cap W^\perp \neq \zerovecset$, violando la somma diretta supposta.} $\lambda_1$, ..., $\lambda_k$ fossero
tutti gli autovalori di $f$, \Lightning. Quindi $W = V$. Pertanto, detta $\basis_i$ una base ortonormale
di $V_{\lambda_i}$, $\basis = \cup_{i=1}^k \basis_i$ è una base ortonormale di $V$, da cui la tesi.
\end{proof}
\begin{corollary} [teorema spettrale per le matrici]
Sia $A \in M(n, \RR)$ simmetrica (o appartenente a $M(n, \CC)$ ed hermitiana). Allora
$\exists P \in O_n$ (o $P \in U_n$) tale che $P\inv A P = P^\top A P$ (o $P\inv A P = P^* A P$ nel caso hermitiano)
sia una matrice diagonale reale.
\end{corollary}
\begin{proof}
Si consideri $f_A$, l'operatore indotto dalla matrice $A$ in $\RR^n$ (o $\CC^n$). Allora
$f_A$ è un operatore simmetrico (o hermitiano) sul prodotto scalare (o hermitiano) standard.
Pertanto, per il teorema spettrale reale, esiste una base ortonormale $\basis = \{ \vv 1, \ldots, \vv n\}$ composta di autovettori
di $f_A$. In particolare, detta $\basis'$ la base canonica di $\RR^n$ (o $\CC^n$), vale
la seguente identità:
\[ M_\basis(f) = M_{\basis'}^{\basis}(\Id)\inv M_{\basis'}(f) M_{\basis'}^{\basis}(\Id), \]
dove $M_{\basis'}(f) = A$, $M_\basis(f)$ è diagonale, essendo $\basis$ composta di autovettori, e $P = M_{\basis'}^{\basis}$
si configura nel seguente modo:
\[ M_{\basis'}^{\basis}(f) = \Matrix{ \vv 1 & \rvline & \cdots & \rvline & \vv n }. \]
Dacché $\basis$ è ortogonale, $P$ è anch'essa ortogonale, da cui la tesi.
\end{proof}
\begin{remark}\nl
\li Un importante risultato che consegue direttamente dal teorema spettrale per le matrici riguarda
la segnatura di un prodotto scalare (o hermitiano). Infatti, detta $A = M_\basis(\varphi)$,
$D = P^\top A P$, e dunque $D \cong A$. Allora, essendo $D$ diagonale, l'indice di positività
è esattamente il numero di valori positivi sulla diagonale, ossia il numero di autovalori
positivi di $A$. Analogamente l'indice di negatività è il numero di autovalori negativi,
e quello di nullità è la molteplicità algebrica di $0$ come autovalore (ossia esattamente
la dimensione di $V^\perp_\varphi = \Ker a_\varphi$).
\end{remark}
\subsection{Operatori normale e triangolazione con base ortonormale}
\begin{theorem} [di triangolazione con base ortonormale]
Sia $f \in \End(V)$, dove $(V, \varphi)$ è uno spazio euclideo su $\KK$. Allora,
se $p_f$ è completamente riducibile in $\KK$, esiste una base ortonormale $\basis$
tale per cui $M_\basis(f)$ è triangolare superiore (ossia esiste una base ortonormale
a bandiera per $f$).
\end{theorem}
\begin{proof}
Per il teorema di triangolazione, esiste una base $\basis$ a bandiera per $f$. Allora,
applicando l'algoritmo di ortogonalizzazione di Gram-Schmidt, si può ottenere da $\basis$
una nuova base $\basis'$ ortonormale e che mantenga le stesse bandiere. Allora,
se $\basis' = \{ \vv1, \ldots, \vv n \}$ è ordinata, dacché $\Span(\vv 1, \ldots, \vv i)$ è $f$-invariante,
$f(\vv i) \in \Span(\vv 1, \ldots, \vv i)$, e quindi $M_{\basis'}(f)$ è triangolare superiore, da cui la tesi.
\end{proof}
\begin{corollary}
Sia $A \in M(n, \RR)$ (o $M(n, \CC)$) tale per cui $p_A$ è completamente riducibile.
Allora $\exists P \in O_n$ (o $U_n$) tale per cui
$P\inv A P = P^\top A P$ (o $P\inv A P = P^* A P$) è triangolare superiore.
\end{corollary}
\begin{proof}
Si consideri l'operatore $f_A$ indotto da $A$ in $\RR^n$ (o $\CC^n$). Sia $\basis$ la base canonica di $\RR^n$ (o di $\CC^n$). Allora, per il teorema
di triangolazione con base ortonormale, esiste una base ortonormale $\basis' = \{ \vv1, \ldots, \vv n \}$ di $\RR^n$ (o di $\CC^n$)
tale per cui $T = M_{\basis'}(f_A)$ è triangolare superiore. Si osserva inoltre che $M_{\basis}(f_A) = A$ e che $P = M_{\basis}^{\basis'} (f_A) = \Matrix{\vv 1 & \rvline & \cdots & \rvline & \vv n}$ è ortogonale (o unitaria), dacché le sue colonne
formano una base ortonormale. Allora, dalla formula del cambiamento di base per la applicazioni lineari,
si ricava che:
\[ A = P T P\inv \implies T = P\inv T P, \]
da cui, osservando che $P\inv = P^\top$ (o $P\inv = P^*$), si ricava la tesi.
\end{proof}
\begin{definition} [operatore normale]
Sia $(V, \varphi)$ uno spazio euclideo reale. Allora $f \in \End(V)$ si dice \textbf{normale}
se commuta con il suo trasposto (i.e.~se $f f^\top = f^\top f$). Analogamente,
se $(V, \varphi)$ è uno spazio euclideo complesso, allora $f$ si dice normale se commuta con il suo
aggiunto (i.e.~se $f f^* = f^* f$).
\end{definition}
\begin{definition} [matrice normale]
Una matrice $A \in M(n, \RR)$ (o $M(n, \CC)$) si dice \textbf{normale} se $A A^\top = A^\top A$ (o $A A^* = A^* A$).
\end{definition}
\begin{remark}\nl
\li Se $A \in M(n, \RR)$ e $A$ è simmetrica ($A = A^\top$), antisimmetrica ($A = -A^\top$) o
ortogonale ($A A^\top = A^\top A = I_n$), sicuramente $A$ è normale. \\
\li Se $A \in M(n, \CC)$ e $A$ è hermitiana ($A = A^*$), antihermitiana ($A = -A^*$) o
unitaria ($A A^* = A^* A = I_n$), sicuramente $A$ è normale. \\
\li $f$ è normale $\iff$ $M_\basis(f)$ è normale, con $\basis$ ortonormale di $V$. \\
\li $A$ è normale $\iff$ $f_A$ è normale, considerando che la base canonica di $\CC^n$ è già
ortonormale rispetto al prodotto hermitiano standard. \\
\li Se $V$ è euclideo reale, $f$ è normale $\iff$ $f_\CC$ è normale. Infatti, se $f$ è normale, $f$ e $f^\top$
commutano. Allora anche $f_\CC$ e $(f^\top)_\CC = (f_\CC)^*$ commutano, e quindi $f_\CC$ è normale.
Ripercorrendo i passaggi al contrario, si osserva infine che vale anche il viceversa.
\end{remark}
\setcounter{lemma}{0}
\begin{lemma}
Sia $A \in M(n, \CC)$ triangolare superiore e normale (i.e.~$A A^* = A^* A$). Allora
$A$ è diagonale.
\end{lemma}
\begin{proof}
Se $A$ è normale, allora $(A^*)_i A^i = \conj{A}\,^i A^i$ deve essere uguale a
$A_i (A^*)^i = A_i \conj{A}_i$ $\forall 1 \leq i \leq n$. Si dimostra per induzione
su $i$ da $1$ a $n$ che tutti gli elementi, eccetto per quelli diagonali, delle
righe $A_1$, ..., $A_i$ sono nulli. \\
\basestep Si osserva che valgono le seguenti identità:
\begin{gather*}
\conj{A}\,^1 A^1 = \abs{a_{11}}^2, \\
A_1 \conj{A}_1 = \abs{a_{11}}^2 + \abs{a_{12}}^2 + \ldots + \abs{a_{1n}}^2.
\end{gather*}
Dovendo vale l'uguaglianza, si ricava che $\abs{a_{12}}^2 \ldots + \abs{a_{1n}}^2$,
e quindi che $\abs{a_{1i}}^2 = 0 \implies a_{1i} = 0$ \, $\forall 2 \leq i \leq n$,
dimostrando il passo base\footnote{Gli altri elementi sono infatti già nulli per ipotesi, essendo
$A$ triangolare superiore}. \\
\inductivestep Analogamente a prima, si considerano le seguenti identità:
\begin{gather*}
\conj{A}\,^i A^i = \abs{a_{1i}}^2 + \ldots + \abs{a_{ii}}^2 = \abs{a_{ii}}^2, \\
A_i \conj{A}_i = \abs{a_{ii}}^2 + \abs{a_{i(i+1)}}^2 + \ldots + \abs{a_{in}}^2,
\end{gather*}
dove si è usato che, per il passo induttivo, tutti gli elementi, eccetto per quelli diagonali, delle
righe $A_1$, ..., $A_{i-1}$ sono nulli. Allora, analogamente a prima, si ricava che
$a_{ij} = 0$ \, $\forall i < j \leq n$, dimostrando il passo induttivo, e quindi la tesi.
\end{proof}
\begin{remark}\nl
\li Chiaramente vale anche il viceversa del precedente lemma: se infatti $A \in M(n, \CC)$ è diagonale,
$A$ è anche normale, dal momento che commuta con $A^*$. \\
\li Reiterando la stessa dimostrazione del precedente lemma per $A \in M(n, \RR)$ triangolare superiore e normale reale (i.e.~$AA^\top = A^\top A$) si può ottenere una tesi analoga.
\end{remark}
\begin{theorem}
Sia $(V, \varphi)$ uno spazio euclideo complesso. Allora $f$ è un operatore normale $\iff$ esiste
una base ortonormale $\basis$ di autovettori per $f$.
\end{theorem}
\begin{proof} Si dimostrano le due implicazioni separatamente. \\
\rightproof Poiché $\CC$ è algebricamente chiuso, $p_f$ è sicuramente riducibile. Pertanto,
per il teorema di triangolazione con base ortonormale, esiste una base ortonormale $\basis$
a bandiera per $f$. In particolare, $M_\basis(f)$ è sia normale che triangolare superiore.
Allora, per il \textit{Lemma 1}, $M_\basis(f)$ è diagonale, e dunque $\basis$ è anche una
base di autovettori per $f$. \\
\leftproof Se esiste una base ortonormale $\basis$ di autovettori per $f$, $M_\basis(f)$ è
diagonale, e dunque anche normale. Allora, poiché $\basis$ è ortonormale, anche $f$
è normale.
\end{proof}
\begin{corollary}
Sia $A \in M(n, \CC)$. Allora $A$ è normale $\iff$ $\exists U \in U_n$ tale che $U\inv A U = U^* A U$
è diagonale.
\end{corollary}
\begin{proof} Si dimostrano le due implicazioni separatamente. \\
\rightproof Sia $\basis$ la base canonica di $\CC^n$.
Si consideri l'applicazione lineare $f_A$ indotta da $A$ su $\CC^n$. Se $A$ è normale, allora
anche $f_A$ lo è. Pertanto, per il precedente teorema, esiste una base ortonormale $\basis' = \{ \vv 1, \ldots, \vv n \}$ di
autovettori per $f_A$. In particolare, $U = M_{\basis}^{\basis'}(\Id) = \Matrix{\vv 1 & \rvline & \cdots & \rvline & \vv n}$ è unitaria ($U \in U_n$), dacché le colonne di $U$ sono ortonormali. Si osserva inoltre che
$M_{\basis}(f_A) = A$ e che $D = M_{\basis'}(f_A)$ è diagonale. Allora, per la formula del cambiamento di base per le applicazioni lineari,
si conclude che:
\[ A = U D U\inv \implies D = U\inv A U = U^* A U, \]
ossia che $U^* A U$ è diagonale. \\
\leftproof Sia $D = U^* A U$. Dacché $D$ è diagonale, $D$ è anche normale. Pertanto $D D^* = D^* D$.
Sostituendo, si ottiene che $U^* A U U^* A^* U = U^* A^* U U^* A U$. Ricordando che $U^* U = I_n$ e
che $U \in U_n$ è sempre invertibile, si conclude che $A A^* = A^* A$, ossia che $A$ è normale a
sua volta, da cui la tesi.
\end{proof}
\begin{remark}\nl
\li Si può osservare mediante l'applicazione dell'ultimo corollario che, se $A$ è hermitiana (ed è dunque
anche normale),
$\exists U \in U_n \mid U^* A U = D$, dove $D \in M(n, \RR)$, ossia tale
corollario implica il teorema spettrale in forma complessa. Infatti
$\conj{D} = D^* = U^* A^* U = U^* A U = D \implies D \in M(n, \RR)$. \\
\li Se $A \in M(n, \RR)$ è una matrice normale reale (i.e.~$A A^\top = A^\top A$) con
$p_A$ completamente riducibile in $\RR$, allora è possibile reiterare la dimostrazione
del precedente teorema per concludere che $\exists O \in O_n \mid O^\top A O = D$ con
$D \in M(n, \RR)$, ossia che $A = O D O^\top$.
Tuttavia questo implica che $A^\top = (O D O^\top) = O D^\top O^\top = O D O^\top = A$,
ossia che $A$ è simmetrica. In particolare, per il teorema spettrale reale, vale
anche il viceversa. Pertanto, se $A \in M(n, \RR)$, $A$ è una matrice normale reale con $p_A$ completamente
riducibile in $\RR$ $\iff$ $A = A^\top$.
\end{remark}
\section{Alcuni esercizi svolti}
\begin{exercise}
Sia $V$ uno spazio dotato del prodotto $\varphi$. Sia
$W \subseteq V$ un sottospazio di $V$. Sia $\basis_W= \{ \ww 1, \ldots, \ww k \}$
una base di $W$ e sia $\basis = \{ \ww 1, ..., \ww k, \vv{k+1}, ..., \vv n \}$ una base di $V$.
Sia $A = M_\basis(\varphi)$. Si dimostrino allora i seguenti risultati.
\begin{enumerate}[(i)]
\item $W^\perp = \{ \v \in V \mid \varphi(\v, \ww i) = 0 \}$,
\item $W^\perp = \{ \v \in V \mid A_{1,\ldots,k} [\v]_\basis = 0 \} = [\cdot]_\basis\inv (\Ker A_{1,\ldots,k})$,
\item $\dim W^\top = \dim V - \rg(A_{1,\ldots,k})$,
\item Se $\varphi$ è non degenere, $\dim W + \dim W^\perp = \dim V$.
\end{enumerate}
\end{exercise}
\begin{proof}[Soluzione]
Chiaramente vale l'inclusione $W^\perp \subseteq \{ \v \in V \mid \varphi(\v, \ww i) = 0 \}$. Sia
allora $\v \in V \mid \varphi(\v, \ww i) = 0$ $\forall 1 \leq i \leq k$ e sia $\w \in W$. Allora esistono $\alpha_1$, ..., $\alpha_k$ tali
che $\w = \alpha_1 \ww 1 + \ldots + \alpha_k \ww k$. Pertanto si conclude che $\varphi(\v, \alpha_1 \ww 1 + \ldots + \alpha_k \ww k) = \alpha_1 \varphi(\v, \ww 1) + \ldots + \alpha_k \varphi(\v, \ww k) = 0 \implies \v \in W^\top$. Pertanto $W^\top = \{ \v \in V \mid \varphi(\v, \ww i) = 0 \}$, dimostrando (i). \\
Si osserva che $\varphi(\v, \ww i) = 0 \iff \varphi(\ww i, \v) = 0$. Se $\varphi$ è scalare, allora
$\varphi(\ww i, \v) = 0 \defiff [\ww i]_\basis^\top A [\v]_\basis = (\e i)^\top A [\v]_\basis = A_i [\v]_\basis = 0$. Pertanto $\v \in W^\top \iff A_i [\v]_\basis = 0$ $\forall 1 \leq i \leq k$, ossia se
$A_{1, \ldots, k} [\v]_\basis = 0$ e $[\v]_\basis \in \Ker A_{1, \ldots, k}$, dimostrando (ii). Analogamente
si ottiene la tesi se $\varphi$ è hermitiano.
Applicando la formula delle dimensioni, si ricava dunque che $\dim W^\top = \dim \Ker A_{1, \ldots, k} =
\dim V - \rg A_{1, \ldots, k}$, dimostrando (iii). \\
Se $\varphi$ è non degenere, $A$ è invertibile, dacché $\dim V^\perp = \dim \Ker A = 0$. Allora
ogni minore di taglia $k$ di $A$ ha determinante diverso da zero. Dacché ogni minore di taglia $k$
di $A_{1,\ldots,k}$ è anche un minore di taglia $k$ di $A$, si ricava che anche ogni minore di taglia
$k$ di $A_{1, \ldots, k}$ ha determinante diverso da zero, e quindi che $\rg(A_{1,\ldots,k}) \geq k$.
Dacché deve anche valere $\rg(A_{1,\ldots,k}) \leq \min\{k,n\} = k$, si conclude che $\rg(A_{1,\ldots,k})$
vale esattamente $k = \dim W$. Allora, dal punto (iii), vale che $\dim W^\perp + \dim W = \dim W^\perp + \rg(A_{1,\ldots,k}) = \dim V$, dimostrando il punto (iv).
\end{proof}
\begin{exercise}
Sia $V$ uno spazio dotato del prodotto $\varphi$. Sia
$U \subseteq V$ un sottospazio di $V$. Si dimostrino allora i seguenti due
risultati.
\begin{enumerate}[(i)]
\item Il prodotto $\varphi$
induce un prodotto $\tilde \varphi : V/U \times V/U \to \KK$ tale che
$\tilde \varphi(\v + U, \v' + U) = \varphi(\v, \v')$ se e soltanto se $U \subseteq V^\perp$, ossia
se e solo se $U \perp V$.
%TODO: controllare che debba valere $U = V^\perp$
\item Se $U = V^\perp$, allora il prodotto $\tilde \varphi$ è non degenere.
\item Sia $\pi : V \to V/V^\perp$ l'applicazione lineare di proiezione al quoziente. Allora
$U^\perp = \{ \v \in V \mid \tilde \varphi(\pi(\v), \pi(\U)) = 0 \, \forall \U \in U \} = \pi\inv(\pi(U)^\perp)$.
\item Vale la formula delle dimensioni per il prodotto $\varphi$: $\dim U + \dim U^\perp = \dim V + \dim (U \cap V^\perp)$.
\end{enumerate}
\end{exercise}
\begin{proof}[Soluzione]
Sia $\w = \v + \uu 1 \in \v + U$, con $\uu 1 \in U$.
Se $\tilde \varphi$ è ben definito, allora deve valere l'uguaglianza $\varphi(\v, \v') = \varphi(\w, \v') =
\varphi(\v + \uu 1, \v') = \varphi(\v, \v') + \varphi(\uu 1, \v')$, ossia $\varphi(\uu 1, \v') = 0$ $\forall \v' \in V \implies \uu 1 \in V^\perp \implies U \subseteq V^\perp$. Viceversa, se $U \subseteq V^\perp$,
sia $\w' = \v' + \uu 2 \in \v' + U$, con $\uu 2 \in U$. Allora vale la seguente identità:
\[ \varphi(\w, \w') = \varphi(\v + \uu 1, \v' + \uu 2) = \varphi(\v, \v') + \underbrace{\varphi(\v, \uu 2) + \varphi(\uu 1, \v') + \varphi(\uu 1, \uu 2)}_{=\,0}. \]
Pertanto $\tilde \varphi$ è ben definito, dimostrando (i). \\
Sia ora $U = V/V^\perp$. Sia $\v + U \in (V/U)^\perp = \Rad(\tilde \varphi)$. Allora, $\forall \v' + U \in V/U$,
$\tilde \varphi(\v + U, \v' + U) = \varphi(\v, \v') = 0$, ossia $\v \in V^\perp = U$. Pertanto
$\v + U = U \implies \Rad(\tilde \varphi) = \{ V^\perp \}$, e quindi $\tilde \varphi$ è non degenere,
dimostrando (ii). \\
Si dimostra adesso l'uguaglianza $U^\perp = \pi\inv(\pi(U)^\perp)$. Sia $\v \in U^\perp$. Allora
$\tilde \varphi(\pi(\v), \pi(\U)) = \tilde \varphi(\v + V^\perp, \U + V^\perp) = \varphi(\v, \U) = 0$ $\forall
\U \in U$, da cui si ricava che vale l'inclusione $U^\perp \subseteq \pi\inv(\pi(U)^\perp)$. Sia
ora $\v \in \pi\inv(\pi(U)^\perp)$, e sia $\U \in U$. Allora $\varphi(\v, \U) = \tilde \varphi(\v + V^\perp, \U + V^\perp) = \tilde \varphi(\pi(\v), \pi(\U)) = 0$, da cui vale la doppia inclusione, e dunque l'uguaglianza
desiderata, dimostrando (iii). \\
Dall'uguaglianza del punto (iii), l'applicazione della formula delle dimensioni e l'identità
ottenuta dal punto (iv) dell'\textit{Esercizio 2} rispetto al prodotto $\tilde \varphi$ non degenere, si ricavano
le seguenti identità:
\[ \system{ \dim \pi(U) = \dim U - \dim (U \cap \Ker \pi) = \dim U - \dim (U \cap V^\perp), \\ \dim \pi(U)^\perp = \dim V/V^\perp - \dim \pi(U) = \dim V - \dim V^\perp - \dim \pi(U), \\ \dim U^\perp = \dim \pi(U)^\perp + \dim \Ker \pi = \dim \pi(U)^\perp + \dim V^\perp, } \]
dalle quali si ricava la seguente identità:
\[ \dim U^\perp = \dim V - \dim V^\perp - (\dim U - \dim(U \cap V^\perp)) + \dim V^\perp, \]
\vskip 0.05in
da cui si ricava che $\dim U + \dim U^\perp = \dim V + \dim(U \cap V^\perp)$, dimostrando (iv).
\end{proof}
\begin{exercise} Sia $V$ uno spazio vettoriale dotato del prodotto $\varphi$. Si dimostri allora che $(W^\perp)^\perp = W + V^\perp$.
\end{exercise}
\begin{proof}[Soluzione]
Sia $\v = \w' + \v' \in W + V^\perp$, con $\w' \in W$ e $\v' \in V^\perp$. Sia inoltre $\w \in W^\perp$.
Allora $\varphi(\v, \w) = \varphi(\w' + \v', \w) = \varphi(\w', \w) + \varphi(\v', \w) = 0$,
dove si è usato che $\w' \perp \w$ dacché $\w \in W^\perp$ e $\w' \in W$ e che $\v' \in V^\perp$. Allora
vale l'inclusione $W + V^\perp \subseteq (W^\perp)^\perp$. \\
Applicando le rispettive formule delle dimensioni a $W^\perp$, $(W^\perp)^\perp$ e $W + V^\perp$ si ottengono le seguenti identità:
\[ \system{ \dim W^\perp = \dim V + \dim (W \cap V^\perp) - \dim W, \\ \dim (W^\perp)^\perp = \dim V + \dim (W^\perp \cap V^\perp) - \dim W^\perp, \\ \dim (W + V^\perp) = \dim W + \dim V^\perp - \dim (W \cap V^\perp), } \]
\vskip 0.05in
da cui si ricava che:
\[ \dim (W^\perp)^\perp = \dim W + \dim V^\perp - \dim (W \cap V^\perp) = \dim (W + V^\perp). \]
Dal momento che vale un'inclusione e l'uguaglianza dimensionale, si conclude che $(W^\perp)^\perp = W + V^\perp$,
da cui la tesi.
\end{proof}
\begin{exercise} Sia $A \in M(n, \CC)$ anti-hermitiana (i.e.~$A = -A^*$). Si dimostri allora che $A$
è normale e che ammette solo autovalori immaginari.
\end{exercise}
\begin{proof}[Soluzione]
Si mostra facilmente che $A$ è normale. Infatti $A A^* = A(-A) = -A^2 = (-A)A = A^* A$. Sia allora
$\lambda \in \CC$ un autovalore di $A$ e sia $\v \neq \vec 0$, $\v \in V_\lambda$. Si consideri il prodotto hermitiano
standard $\varphi$ su $\CC^n$. Allora vale la seguente identità:
\begin{gather*}
\lambda \, \varphi(\v, \v) = \varphi(\v, \lambda \v) = \varphi(\v, A \v) = \varphi(A^* \v, \v) = \\
\varphi(-A\v, \v) = \varphi(-\lambda \v, \v) = -\conj{\lambda} \, \varphi(\v, \v).
\end{gather*}
Dacché $\varphi$ è definito positivo, $\varphi(\v, \v) \neq 0 \implies \lambda = -\conj{\lambda}$. Allora
$\Re(\lambda) = \frac{\lambda + \conj{\lambda}}{2} = 0$, e quindi $\lambda$ è immaginario, da cui la tesi.
\end{proof}
\begin{exercise}
Sia $V$ uno spazio vettoriale dotato del prodotto $\varphi$. Siano $U$, $W \subseteq V$ due sottospazi
di $V$. Si dimostrino allora le due seguenti
identità.
\begin{enumerate}[(i)]
\item $(U + W)^\perp = U^\perp \cap W^\perp$,
\item $(U \cap W)^\perp \supseteq U^\perp + W^\perp$, dove vale l'uguaglianza insiemistica se $\varphi$
è non degenere.
\end{enumerate}
\end{exercise}
\begin{proof}[Soluzione]
Sia $\v \in (U + W)^\perp$ e siano $\U \in U \subseteq U + W$, $\w \in W \subseteq U + W$. Allora
$\varphi(\v, \U) = 0 \implies \v \in U^\perp$ e $\varphi(\v, \w) = 0 \implies \v \in W^\perp$,
da cui si conclude che $(U + W)^\perp \subseteq U^\perp \cap W^\perp$. Sia adesso
$\v \in U^\perp \cap W^\perp$ e $\v' = \U + \w \in U + W$ con $\U \in V$ e $\w \in W$. Allora
$\varphi(\v, \v') = \varphi(\v, \U) + \varphi(\v, \w) = 0 \implies \v \in (U + W)^\perp$, da cui
si deduca che vale la doppia inclusione, e quindi che $(U + W)^\perp = U^\perp \cap W^\perp$,
dimostrando (i). \\
Sia ora $\v' = \U' + \w' \in U^\perp + W^\perp$ con $\U' \in U^\perp$ e $\w' \in W^\perp$. Sia
$\v \in U \cap W$. Allora $\varphi(\v, \v') = \varphi(\v, \U') + \varphi(\v, \w') = 0 \implies
\v' \in (U \cap W)^\perp$, da cui si deduce che $(U \cap W)^\perp \supseteq U^\perp + W^\perp$.
Se $\varphi$ è non degenere, $\dim (U^\perp + W^\perp) = \dim U^\perp + \dim W^\perp - \dim (U^\perp \cap W^\perp) = 2 \dim V - \dim U - \dim W - \dim (U+W)^\perp = \dim V - \dim U - \dim W + \dim (U + W) =
\dim V - \dim (U + W) = \dim (U + W)^\perp$. Valendo pertanto l'uguaglianza dimensionale, si
conclude che in questo caso $(U \cap W)^\perp = U^\perp + W^\perp$, dimostrando (ii).
\end{proof}