Nel corso del documento, per $V$ si intenderà uno spazio vettoriale di dimensione
finita $n$ e per $\varphi$ un suo prodotto, hermitiano o scalare
dipendentemente dal contesto.
\end{note}
\begin{definition} (prodotto hermitiano) Sia $\KK=\CC$. Una mappa $\varphi : V \times V \to\CC$ si dice \textbf{prodotto hermitiano} se:
\begin{enumerate}[(i)]
\item$\varphi$ è $\CC$-lineare nel secondo argomento, ossia se $\varphi(\v, \U+\w)=\varphi(\v, \U)+\varphi(\v, \w)$ e
$\varphi(\v, a \w)= a \,\varphi(\v, \w)$,
\item$\varphi(\U, \w)=\conj{\varphi(\w, \U)}$.
\end{enumerate}
\end{definition}
\begin{definition} (prodotto hermitiano canonico in $\CC^n$) Si definisce
\textbf{prodotto hermitiano canonico} di $\CC^n$ il prodotto $\varphi : \CC^n \times\CC^n \to\CC$ tale per cui, detti $\v=(z_1\cdots z_n)^\top$ e $\w=(w_1\cdots w_n)^\top$, $\varphi(\v, \w)=\sum_{i=1}^n \conj{z_i} w_i$.
$\varphi$ è additiva anche nel primo argomento. \\
\li$\varphi(a \v, \w)=\conj{\varphi(\w, a \v)}=\conj{a}\conj{\varphi(\w, \v)}=\conj{a}\,\varphi(\v, \w)$. \\
\li$\varphi(\v, \v)=\conj{\varphi(\v, \v)}$, e quindi $\varphi(\v, \v)\in\RR$. \\
\li Sia $\v=\sum_{i=1}^n x_i \vv i$ e sia $\w=\sum_{i=1}^n y_i \vv i$, allora $\varphi(\v, \w)=\sum_{i =1}^n \sum_{j=1}^n \conj{x_i} y_i \varphi(\vv i, \vv j)$. \\
\li$\varphi(\v, \w)=0\iff\varphi(\w, \v)=0$.
\end{remark}
\begin{proposition}
Data la forma quadratica $q : V \to\RR$ del prodotto hermitiano $\varphi$ tale che $q(\v)=\varphi(\v, \v)\in\RR$, tale
forma quadratica individua univocamente il prodotto hermitiano $\varphi$.
Siano $\basis=\{\vv1, \ldots, \vv n \}$ e $\basis' =\{\ww1, \ldots, \ww n \}$. Allora $\varphi(\ww i, \ww j)=[\ww i]_\basis^* M_\basis(\varphi)[\ww j]_\basis=\left( M_\basis^{\basis'}(\Idv)^i \right)^* M_\basis(\varphi) M_\basis^{\basis'}(\Idv)^j =
\left(M_\basis^{\basis'}(\Idv)\right)^*_i M_\basis(\varphi) M_\basis^{\basis'}(\Idv)^j$, da cui si ricava l'identità
desiderata.
\end{proof}
\begin{definition} (radicale di un prodotto hermitiano)
Analogamente al caso del prodotto scalare, si definisce il \textbf{radicale} del prodotto $\varphi$ come il seguente sottospazio:
\[ V^\perp=\{\v\in V \mid\varphi(\v, \w)=0\,\forall\w\in V \}. \]
\end{definition}
\begin{proposition}
Sia $\basis$ una base di $V$ e $\varphi$ un prodotto hermitiano. Allora $V^\perp=[\cdot]_\basis\inv(\Ker M_\basis(\varphi))$\footnote{Stavolta non è sufficiente considerare la mappa $f : V \to V^*$ tale che $f(\v)=\left[\w\mapsto\varphi(\v, \w)\right]$, dal momento che $f$ non è lineare, bensì antilineare, ossia $f(a \v)=\conj a f(\v)$.}.
\end{proposition}
\begin{proof}
Sia $\basis=\{\vv1, \ldots, \vv n \}$ e sia $\v\in V^\perp$.
Siano $a_1$, ..., $a_n \in\KK$ tali che $\v= a_1\vv1+\ldots+ a_n \vv n$. Allora, poiché $\v\in V$, $0=\varphi(\vv i, \v)=
= a_1 \varphi(\vv i, \vv 1) + \ldots + a_n \varphi(\vv i, \vv n) = M_i [\v]_\basis$, da cui si ricava che $[\v]_\basis\in\Ker M_\basis(\varphi)$, e quindi che $V^\perp\subseteq [\cdot]_\basis\inv (\Ker M_\basis(\varphi))$. \\
Sia ora $\v\in V$ tale che $[\v]_\basis\in\Ker M_\basis(\varphi)$.
Allora, per ogni $\w\in V$, $\varphi(\w, \v)=[\w]_\basis^* M_\basis(\varphi)[\v]_\basis=[\w]_\basis^*0=0$, da cui si
conclude che $\v\in V^\perp$, e quindi che $V^\perp\supseteq[\cdot]_\basis\inv(\Ker M_\basis(\varphi))$, da cui
di vettori. Infatti, $\Span_\CC(\basis)=\Span_\RR(\basis\cup i\basis)$. Ciononostante, $\dim V_\RR=2\dim V$\footnote{Si sarebbe potuto ottenere lo stesso risultato utilizzando il teorema delle torri algebriche: $[V_\RR : \RR]=[V: \CC][\CC: \RR]=2[V : \CC]$.}, se $\dim V \in\NN$.
\begin{theorem} (di rappresentazione di Riesz per il prodotto scalare)
Sia $V$ uno spazio vettoriale e sia $\varphi$ un suo prodotto scalare
non degenere. Allora per ogni $f \in V^*$ esiste un unico $\v\in V$ tale che
$f(\w)=\varphi(\v, \w)$$\forall\w\in V$.
\end{theorem}
\begin{proof}
Si consideri l'applicazione $a_\varphi$. Poiché $\varphi$ non è degenere, $\Ker a_\varphi= V^\perp=\zerovecset$, da cui si deduce che $a_\varphi$ è un isomorfismo. Quindi $\forall f \in V^*$ esiste
un unico $\v\in V$ tale per cui $a_\varphi(\v)= f$, e dunque tale per cui $\varphi(\v, \w)= a_\varphi(\v)(\w)= f(\w)$$\forall\w\in V$.
\end{proof}
\begin{proof}[Dimostrazione costruttiva]
Sia $\basis=\{\vv1, \ldots, \vv n \}$ una base ortogonale di $V$ per $\varphi$. Allora $\basis^*$ è una base di $V^*$. In
particolare $f = f(\vv1)\vec{v_1^*}+\ldots+ f(\vv n)\vec{v_n^*}$. Sia $\v=\frac{f(\vv1)}{\varphi(\vv1, \vv1)}\vv1+\ldots+\frac{f(\vv n)}{\varphi(\vv n, \vv n)}$. Detto $\w= a_1\vv1+\ldots+ a_n \vv n$,
si deduce che $\varphi(\v, \w)= a_1 f(\vv1)+\ldots+ a_n f(\vv n)= f(\w)$. Se esistesse $\v' \in V$ con
la stessa proprietà di $\v$, $\varphi(\v, \w)=\varphi(\v', \w)\implies\varphi(\v-\v', \w)$$\forall\w\in V$. Si deduce dunque che $\v-\v' \in V^\perp$, contenente solo $\vec0$ dacché $\varphi$ è non degenere;
e quindi si conclude che $\v=\v'$, ossia che esiste solo un vettore con la stessa proprietà di $\v$.
\end{proof}
\begin{theorem} (di rappresentazione di Riesz per il prodotto hermitiano)
Sia $V$ uno spazio vettoriale su $\CC$ e sia $\varphi$ un suo prodotto hermitiano non
degenere. Allora per ogni $f \in V^*$ esiste un unico $\v\in V$ tale che
$f(\w)=\varphi(\v, \w)$$\forall\w\in V$.
\end{theorem}
\begin{proof}
Sia $\basis=\{\vv1, \ldots, \vv n \}$ una base ortogonale di $V$ per $\varphi$. Allora $\basis^*$ è una base di $V^*$. In
particolare $f = f(\vv1)\vec{v_1^*}+\ldots+ f(\vv n)\vec{v_n^*}$. Sia $\v=\frac{\conj{f(\vv1)}}{\varphi(\vv1, \vv1)}\vv1+\ldots+\frac{\conj{f(\vv n)}}{\varphi(\vv n, \vv n)}$. Detto $\w= a_1\vv1+\ldots+ a_n \vv n$,
si deduce che $\varphi(\v, \w)= a_1 f(\vv1)+\ldots+ a_n f(\vv n)= f(\w)$. Se esistesse $\v' \in V$ con
la stessa proprietà di $\v$, $\varphi(\v, \w)=\varphi(\v', \w)\implies\varphi(\v-\v', \w)$$\forall\w\in V$. Si deduce dunque che $\v-\v' \in V^\perp$, contenente solo $\vec0$ dacché $\varphi$ è non degenere;
e quindi si conclude che $\v=\v'$, ossia che esiste solo un vettore con la stessa proprietà di $\v$.
\end{proof}
\begin{proposition}
Sia $V$ uno spazio vettoriale con prodotto scalare $\varphi$ non degenere.
Sia $f \in\End(V)$. Allora esiste un unico endomorfismo
nell'enunciato, e $f^\top : V^*\to V^*$ che invece è tale che $f^top(g)= g \circ f$.}, tale che:
\[ a_\varphi\circ g = f^\top\circ a_\varphi, \]
\vskip 0.05in
ossia che:
\[\varphi(\v, f(\w))=\varphi(g(\v), \w)\,\forall\v, \w\in V. \]
\end{proposition}
\begin{proof}
Si consideri $(f^\top\circ a_\varphi)(\v)\in V^*$. Per il teorema di rappresentazione di Riesz per
il prodotto scalare, esiste un unico $\v'$ tale che $(f^\top\circ a_\varphi)(\v)(\w)=\varphi(\v', \w)\implies\varphi(\v, f(\w))=\varphi(\v', \w)$$\forall\w\in V$. Si costruisce allora una mappa
Infine si dimostra che $f_\varphi^\top$ è unico. Sia infatti $g$ un endomorfismo di $V$ che condivide la stessa
proprietà di $f_\varphi^\top$. Allora $\varphi(f_\varphi^\top(\v), \w)=\varphi(\v, f(\w))=\varphi(g(\v), \w)$$\forall\v$, $\w\in V$, da cui si deduce che $\varphi(f_\varphi^\top(\v)- '(\v), \w)=0$$\forall\v$, $\w\in V$, ossia che
$f_\varphi^\top(\v)- g(\v)\in V^\perp$$\forall\v\in V$. Tuttavia $\varphi$ è non degenere, e quindi $V^\perp=\zerovecset$, da cui si deduce che deve valere l'identità $f_\varphi^\top(\v)= g(\v)$$\forall\v\in V$, ossia
Sia $V$ uno spazio vettoriale su $\CC$ e sia $\varphi$ un suo prodotto hermitiano. Allora esiste un'unica
mappa\footnote{Si osservi che $f^*$ non è un'applicazione lineare, benché sia invece \textit{antilineare}.}$f^* : V \to V$, detta \textbf{aggiunto di}$f$, tale che $\varphi(\v, f(\w))=\varphi(f^*(\v), \w)$$\forall\v$, $\w\in V$.
\end{proposition}
\begin{proof}
Sia $\v\in V$. Si consideri il funzionale $\sigma$ tale che $\sigma(\w)=\varphi(\v, f(\w))$. Per il
teorema di rappresentazione di Riesz per il prodotto scalare esiste un unico $\v' \in V$ tale per cui
$\varphi(\v, f(\w))=\sigma(\w)=\varphi(\v', \w)$. Si costruisce allora una mappa $f^*$ che associa
$\v$ a tale $\v'$. \\
Si dimostra infine che la mappa $f^*$ è unica. Sia infatti $\mu : V \to V$ che condivide la stessa
proprietà di $f^*$. Allora $\varphi(f^*(\v), \w)=\varphi(\v, f(\w))=\varphi(\mu(\v), \w)$$\forall\v$, $\w\in V$, da cui si deduce che $\varphi(f^*(\v)-\mu(\v), \w)=0$$\forall\v$, $\w\in V$, ossia che
$f^*(\v)-\mu(\v)\in V^\perp$$\forall\v\in V$. Tuttavia $\varphi$ è non degenere, e quindi $V^\perp=\zerovecset$, da cui si deduce che deve valere l'identità $f^*(\v)=\mu(\v)$$\forall\v\in V$, ossia
\li$A =(a)\in U_1\iff A^* A = I_1\iff\abs{a}^2=1\iff a = e^{i\theta}$, $\theta\in[0, 2\pi)$, ossia il numero complesso $a$ appartiene alla circonferenza di raggio unitario.
\li$A =\Matrix{a & b \\ c & d}\in SU_2\iff A A^*=\Matrix{\abs{a}^2+\abs{b}^2& a\conj c + b \conj d \\\conj a c +\conj b d &\abs{c}^2+\abs{d}^2}= I_2$, $\det(A)=1$, ossia se il seguente
sistema di equazioni è soddisfatto:
\[\system{\abs{a}^2+\abs{b}^2=\abs{c}^2+\abs{d}^2=1, \\ a\conj c + b \conj d =0, \\ ad-bc=1,}\]
le cui soluzioni riassumono il gruppo $SU_2$ nel seguente modo:
\[ SU_2=\left\{\Matrix{x &-y \\\conj y &\conj x}\in M(2, \CC)\;\middle\vert\;\abs{x}^2+\abs{y}^2=1\right\}. \]
Sia $(V, \varphi)$ uno spazio euclideo reale e sia $\basis$ una base ortonormale di $V$. Allora $f \in\End(V)$ è simmetrico $\iff$$M_\basis(f)= M_\basis(f)^\top$$\iff$$M_\basis(f)$ è simmetrica.
[\v]_\basis^\top M_\basis(f)^\top M_\basis(\varphi) M_\basis(f) [\w]_\basis = [\v]_\basis^\top M_\basis(f)^\top M_\basis(f) [\w]_\basis$. Allora, come visto nel corollario precedente, si ricava che $M_\basis(f)^\top M_\basis(f) = I_n$. Dal momento che gli inversi sinistri sono anche inversi destri, $M_\basis(f)^\top M_\basis(f) = M_\basis(f) M_\basis(f)^\top = I_n$. \\
Sia $(V, \varphi)$ uno spazio euclideo complesso e sia $\basis$ una base ortonormale di $V$. Allora $f \in\End(V)$ è hermitiano $\iff$$M_\basis(f)= M_\basis(f)^*$$\defiff$$M_\basis(f)$ è hermitiana.
Sia $(V, \varphi)$ uno spazio euclideo complesso e sia $\basis$ una base ortonormale di $V$. Allora $f \in\End(V)$ è unitario $\iff$$M_\basis(f) M_\basis(f)^*= M_\basis(f)^* M_\basis(f)= I_n$$\defiff$$M_\basis(f)$ è unitaria.
\end{proposition}
\begin{proof}
Si osserva che $M_\basis(\varphi)= I_n$. Sia $\basis=\{\vv1, \ldots, \vv n\}$. Se $f$ è unitario, allora
[\v]_\basis^* M_\basis(f)^* M_\basis(\varphi) M_\basis(f) [\w]_\basis = [\v]_\basis^* M_\basis(f)^* M_\basis(f) [\w]_\basis$. Allora, come visto nel corollario precedente, si ricava che $M_\basis(f)^* M_\basis(f) = I_n$. Dal momento che gli inversi sinistri sono anche inversi destri, $M_\basis(f)^* M_\basis(f) = M_\basis(f) M_\basis(f)^* = I_n$. \\
Se $\basis$ è una base ortonormale di $(V, \varphi)$, ricordando che $M_\basis(f^\top)= M_\basis(f)^\top$ e che $M_\basis(f^*)= M_\basis(f)^*$, sono equivalenti allora i seguenti fatti: \\
\li$f \circ f^\top= f^\top\circ f =\Idv$$\iff$$M_\basis(f)$ è ortogonale $\iff$$f$ è ortogonale, \\
\li$f \circ f^*= f^*\circ f =\Idv$$\iff$$M_\basis(f)$ è unitaria $\iff$$f$ è unitario (se $V$ è uno spazio vettoriale su $\CC$).
Sia $\basis$ la base canonica di $V$. Allora $M_\basis(f_A)= A$, e quindi, per una proposizione
precedente, $f_A$ è un operatore ortogonale. Viceversa si deduce che se $f_A$ è un operatore ortogonale,
$A \in O_n$. Dunque è sufficiente dimostrare che $A \in O_n \iff$ le colonne e le righe di $A$ formano una
base ortonormale di $V$. \\
\rightproof Se $A \in O_n$, in particolare $A \in\GL(n, \RR)$, e quindi $A$ è invertibile. Allora le
sue colonne e le sue righe formano già una base di $V$, essendo $n$ vettori di $V$ linearmente indipendenti.
Inoltre, poiché $A \in O_n$, $\varphi(\e i, \e j)=\varphi(A \e i, A \e j)$, e quindi le colonne di $A$ si mantengono a due a due ortogonali tra di loro, mentre $\varphi(A \e i, A \e i)=\varphi(\e i, \e i)=1$.
Pertanto le colonne di $A$ formano una base ortonormale di $V$. \\
Si osserva che anche $A^\top\in O_n$. Allora le righe di $A$, che non sono altro che
le colonne di $A^\top$, formano anch'esse una base ortonormale di $V$. \\
\leftproof Nel moltiplicare $A^\top$ con $A$ altro non si sta facendo che calcolare il prodotto
scalare $\varphi$ tra ogni riga di $A^\top$ e ogni colonna di $A$ , ossia $(A^* A)_{ij}=\varphi((A^\top)_i, A^j)=\varphi(A^i, A^j)=\delta_{ij}$.
Quindi $A^\top A = A A^\top= I_n$, da cui si deduce che $A \in O_n$.
Sia $\basis$ la base canonica di $V$. Allora $M_\basis(f_A)= A$, e quindi, per una proposizione
precedente, $f_A$ è un operatore unitario. Viceversa si deduce che se $f_A$ è un operatore unitario,
$A \in U_n$. Dunque è sufficiente dimostrare che $A \in U_n \iff$ le colonne e le righe di $A$ formano una
base ortonormale di $V$. \\
\rightproof Se $A \in U_n$, in particolare $A \in\GL(n, \RR)$, e quindi $A$ è invertibile. Allora le
sue colonne e le sue righe formano già una base di $V$, essendo $n$ vettori di $V$ linearmente indipendenti.
Inoltre, poiché $A \in U_n$, $\varphi(\e i, \e j)=\varphi(A \e i, A \e j)$, e quindi le colonne di $A$ si mantengono a due a due ortogonali tra di loro, mentre $\varphi(A \e i, A \e i)=\varphi(\e i, \e i)=1$.
Pertanto le colonne di $A$ formano una base ortonormale di $V$. \\
Si osserva che anche $A^\top\in U_n$. Allora le righe di $A$, che non sono altro che
le colonne di $A^\top$, formano anch'esse una base ortonormale di $V$. \\
\leftproof Nel moltiplicare $A^*$ con $A$ altro non si sta facendo che calcolare il prodotto
hermitiano $\varphi$ tra ogni riga coniugata di $A^*$ e ogni colonna di $A$, ossia $(A^* A)_{ij}=\varphi((A^\top)_i, A^j)=\varphi(A^i, A^j)=\delta_{ij}$.
Quindi $A^* A = A A^*= I_n$, da cui si deduce che $A \in U_n$.
Sia $(V, \varphi)$ uno spazio euclideo reale. Allora valgono i seguenti tre risultati:
\begin{enumerate}[(i)]
\item$(V_\CC, \varphi_\CC)$ è uno spazio euclideo complesso.
\item Se $f \in\End(V)$ è simmetrico, allora $f_\CC\in\End(V)$ è hermitiano.
\item Se $f \in\End(V)$ è ortogonale, allora $f_\CC\in\End(V)$ è unitario.
\end{enumerate}
\end{proposition}
\begin{proof}
Dacché $\varphi$ è il prodotto scalare standard dello spazio euclideo reale $V$, esiste una base ortnormale di $V$. Sia allora $\basis$ una base ortonormale di $V$. Si dimostrano i tre risultati separatamente.
\begin{itemize}
\item È sufficiente dimostrare che $\varphi_\CC$ altro non è che il prodotto hermitiano standard.
Come si è già osservato precedentemente, $M_\basis(\varphi_\CC)= M_\basis(\varphi)$, e quindi,
dacché $M_\basis(\varphi)= I_n$, essendo $\basis$ ortonormale, vale anche che $M_\basis(\varphi_\CC)= I_n$,
ossia $\varphi_\CC$ è proprio il prodotto hermitiano standard.
\item Poiché $f$ è simmetrico, $M_\basis(f)= M_\basis(f)^\top$, e quindi anche
$M_\basis(f_\CC)= M_\basis(f_\CC)^\top$. Dal momento che $M_\basis(f)\in M(n, \RR)$,
Quindi $M_\basis(f_\CC)= M_\basis(f_\CC)^*$, ossia $M_\basis(f_\CC)$ è hermitiana,
e pertanto anche $f_\CC$ è hermitiano.
\item Poiché $f$ è ortogonale, $M_\basis(f) M_\basis(f)^\top= I_n$, e quindi
anche $M_\basis(f_\CC) M_\basis(f_\CC)^\top= I_n$. Allora, come prima, si deduce
che $M_\basis(f_\CC)^\top= M_\basis(f_\CC)^*$, essendo $M_\basis(f_\CC)= M_\basis(f)\in M(n, \RR)$,
da cui
si ricava che $M_\basis(f_\CC) M_\basis(f_\CC)^*= M_\basis(f_\CC) M_\basis(f_\CC)^\top= I_n$, ossia che $f_\CC$ è unitario. \\\qedhere
\end{itemize}
\end{proof}
\begin{exercise}
Sia $(V, \varphi)$ uno spazio euclideo reale. Allora valgono i seguenti risultati:
\begin{itemize}
\item Se $f$, $g \in\End(V)$ commutano, allora anche $f_\CC$, $g_\CC\in\End(V_\CC)$ commutano.
\item Se $f \in\End(V)$, $(f^\top)_\CC=(f_\CC)^*$.
\item Se $f \in\End(V)$, $f$ diagonalizzabile $\iff$$f^\top$ diagonalizzabile.
\end{itemize}
\end{exercise}
\begin{solution}
Dacché $\varphi$ è il prodotto scalare standard dello spazio euclideo reale $V$, esiste una base ortonormale $\basis=\{\vv1, \ldots, \vv n\}$ di $V$. Si dimostrano allora separatamente i tre risultati.
\begin{itemize}
\item Si osserva che $M_\basis(f_\CC) M_\basis(g_\CC)= M_\basis(f) M_\basis(g)=
M_\basis(g) M_\basis(f) = M_\basis(g_\CC) M_\basis(f_\CC)$, e quindi
che $f_\CC\circ g_\CC= g_\CC\circ f_\CC$.
\item Si osserva che $M_\basis(f)\in M(n, \RR)\implies M_\basis(f)^\top= M_\basis(f)^*$, e quindi che $M_\basis((f^\top)_\CC)= M_\basis(f^\top)= M_\basis(f)^\top= M_\basis(f)^*= M_\basis(f_\CC)^*= M_\basis((f_\CC)^*)$. Allora
$(f^\top)_\CC=(f_\CC)^*$.
\item Poiché $\basis$ è ortonormale, $M_\basis(f^\top)= M_\basis(f)^\top$. Allora, se
$f$ è diagonalizzabile, anche $M_\basis(f)$ lo è, e quindi $\exists P \in\GL(n, \KK)$,
$D \in M(n, \KK)$ diagonale tale che $M_\basis(f)= P D P\inv$. Allora $M_\basis(f^\top)=
M_\basis(f)^\top = (P^\top)\inv D^\top P^\top$ è simile ad una matrice diagonale, e
pertanto $M_\basis(f^\top)$ è diagonalizzabile. Allora anche $f^\top$ è diagonalizzabile.
Vale anche il viceversa considerando l'identità $f =(f^\top)^\top$ e l'implicazione
\begin{proposition} (disuguaglianza di Cauchy-Schwarz)
Vale che $\norm{\v}\norm{\w}\geq\abs{\varphi(\v, \w)}$, $\forall\v$, $\w\in V$, dove
l'uguaglianza è raggiunta soltanto se $\v$ e $\w$ sono linearmente dipendenti.
\end{proposition}
\begin{proof}
Si consideri innanzitutto il caso $\KK=\RR$, e quindi il caso in cui $\varphi$ è
il prodotto scalare standard. Siano $\v$, $\w\in V$.
Si consideri la disuguaglianza $\norm{\v+ t\w}^2\geq0$, valida
per ogni elemento di $V$. Allora $\norm{\v+ t \w}^2=\norm{\v}^2+2\varphi(\v, \w) t +\norm{\w}^2 t^2\geq0$. L'ultima disuguaglianza è possibile se e solo se $\frac{\Delta}{4}\leq0$, e quindi se e solo
se $\varphi(\v, \w)^2-\norm{\v}^2\norm{\w}^2\leq0\iff\norm{\v}\norm{\w}\geq\varphi(\v, \w)$.
Vale in particolare l'equivalenza se e solo se $\norm{\v+ t\w}=0$, ossia se $\v+ t\w=\vec0$, da cui
la tesi. \\
Si consideri ora il caso $\KK=\CC$, e dunque il caso in cui $\varphi$ è il prodotto hermitiano
standard. Siano $\v$, $\w\in V$, e siano $\alpha$, $\beta\in\CC$. Si consideri allora
la disuguaglianza $\norm{\alpha\v+\beta\w}^2\geq0$, valida per ogni elemento di $V$. Allora
dove si è utilizzata la disuguaglianza di Cauchy-Schwarz. Da quest'ultima disuguaglianza si ricava, prendendo la radice quadrata, la disuguaglianza
desiderata. \\
Se invece $\varphi$ è il prodotto hermitiano standard, $\norm{\v+\w}^2=\norm{\v}^2+2\,\Re(\varphi(\v, \w))+\norm{\w}^2\leq\norm{\v}^2+2\abs{\varphi(\v, \w)}+\norm{\w}^2$. Allora, riapplicando
la disuguaglianza di Cauchy-Schwarz, si ottiene che:
\[\norm{\v+\w}^2\leq(\norm{\v}+\norm{\w})^2, \]
da cui, come prima, si ottiene la disuguaglianza desiderata.
\end{proof}
\begin{remark}
Utilizzando il concetto di norma euclidea, si possono ricavare due teoremi fondamentali della geometria,
e già noti dalla geometria euclidea. \\
\li Se $\v\perp\w$, allora $\norm{\v+\w}^2=\norm{\v}^2+\overbrace{(\varphi(\v, \w)+\varphi(\w, \v))}^{=\,0}+\norm{\w}^2=\norm{\v}^2+\norm{\w}^2$ (teorema di Pitagora), \\
\li Se $\norm{\v}=\norm{\w}$ e $\varphi$ è un prodotto scalare, allora $\varphi(\v+\w, \v-\w)=\norm{\v}^2-\varphi(\v, \w)+\varphi(\w, \v)-\norm{\w}^2=\norm{\v}^2-\norm{\w}^2=0$, e quindi
$\v+\w\perp\v-\w$ (le diagonali di un rombo sono ortogonali tra loro).
\end{remark}
\begin{remark}
Sia $\basis=\{\vv1, \ldots, \vv n \}$ è una base ortogonale di $V$ per $\varphi$. \\
\li Se $\v= a_1\vv1+\ldots+ a_n \vv n$, con $a_1$, ..., $a_n \in\KK$, si osserva
che $\varphi(\v, \vv i)= a_i \varphi(\vv i, \vv i)$. Quindi $\v=\sum_{i=1}^n \frac{\varphi(\v, \vv i)}{\varphi(\vv i, \vv i)}\,\vv i$. In particolare, $\frac{\varphi(\v, \vv i)}{\varphi(\vv i, \vv i)}$ è
Sia $(V, \varphi)$ uno spazio euclideo. Allora valgono i seguenti risultati:
\begin{enumerate}[(i)]
\item Siano $U$, $W \subseteq V$ sono sottospazi di $V$, allora $U \perp W$, ossia\footnote{È sufficiente che valga $U \subseteq W^\perp$ affinché valga anche $W \subseteq U^\perp$. Infatti $U \subseteq W^\perp\implies W = W^\dperp\subseteq U^\perp$. Si osserva che in generale vale che $W \subseteq W^\dperp$, dove vale l'uguaglianza nel caso di un prodotto $\varphi$ non degenere, com'è nel caso di uno spazio euclideo,
\item Sia $V = W_1\oplus\cdots\oplus W_n$. Allora $\v=\sum_{i=1}^n \pr_{W_i}(\v)$$\iff$$W_i \perp W_j$$\forall i \neq j$, $1\leq i, j \leq n$.
\end{enumerate}
\end{proposition}
\begin{proof}
Si dimostrano i due risultati separatamente.
\begin{enumerate}[(i)]
\item Sia $\v\in V$. Allora $\pr_W(\v)\in W = W^\dperp\subseteq U^\perp$. Pertanto
$\pr_U(\pr_W(\v))=\vec0$. Analogamente $\pr_W(\pr_U(\v))=\vec0$, da cui la tesi.
\item Sia vero che $\v=\sum_{i=1}^n \pr_{W_i}(\v)$$\forall\v\in V$. Sia $\w\in W_j$. Allora $\w=\sum_{i=1}^n \pr_{W_i}(\w)=\w+\sum_{\substack{i=1\\ i \neq j}}\pr_{W_i}(\w)\implies\pr_{W_i}(\w)=\vec0$$\forall i \neq j$. Quindi $\w\in W_i^\perp$$\forall i \neq j$, e si conclude che $W_i \subseteq W_j^\perp
\implies W_i \perp W_j$. Se invece $W_i \perp W_j$$\forall i \neq j$, sia $\basis_i = \left\{\w_i^{(1)}, \ldots, \w_i^{(k_i)}\right\}$ una base ortogonale di $W_i$. Allora $\basis = \cup_{i=1}^n \basis_i$ è anch'essa
una base ortogonale di $V$, essendo $\varphi\left(\w_i^{(t_i)}, \w_j^{(t_j)}\right)=0$ per ipotesi.
Si definisce l'applicazione $\rho_W : V \to V$, detta \textbf{inversione ortogonale}, in modo tale che, detto $\v=\w+\w' \in V$ con $\w\in W$, $\w\in W^\perp$, $\rho_W(\v)=\w-\w'$. Se $\dim W =\dim V -1$,
si dice che $\rho_W$ è una \textbf{riflessione}.
\end{definition}
\begin{remark}\nl
\li Si osserva che $\rho_W$ è un'applicazione lineare. \\
\li Vale l'identità $\rho_W^2=\Idv$, da cui si ricava che $\varphi_{\rho_W}(\lambda)\mid(\lambda-1)(\lambda+1)$. In particolare, se $W^\perp\neq\zerovecset$, vale proprio
che $\Sp(\rho_W)=\{\pm1\}$, dove $V_1= W$ e $V_{-1}= W^\perp$. \\
\li$\rho_W$ è ortogonale (o unitaria, se $V$ è uno spazio euclideo complesso). Infatti se $\vv1=\ww1+\ww1'$ e $\vv2=\ww2+\ww2 '$, con $\ww1$, $\ww2\in W$ e $\ww1'$, $\ww2' \in W$, $\varphi(\rho_W(\vv1), \rho_W(\vv2))=\varphi(\ww1-\ww1', \ww2-\ww2')=\varphi(\ww1, \ww2)\underbrace{-\varphi(\ww1', \ww2)-\varphi(\ww1, \ww2')}_{=\,0}+\varphi(\ww1', \ww2')=\varphi(\ww1-\ww1', \ww2-\ww2')$. \\
Quindi $\varphi(\rho_W(\vv1), \rho_W(\vv2))=\varphi(\ww1, \ww2)+\varphi(\ww1', \ww2)+\varphi(\ww1, \ww2')+\varphi(\ww1', \ww2')=\varphi(\vv1, \vv2)$.
\begin{proof} Se $\v$ e $\w$ sono linearmente dipendenti, dal momento che $\norm{v}=\norm{w}$, deve valere anche
che $\v=\w$. Sia $\U\neq\vec0$, $\U\in\Span(\v)^\perp$. Si consideri $U =\Span(\U)$: si osserva che
$\dim U =1$ e che, essendo $\varphi$ non degenere, $\dim U^\perp= n-1$. Posto allora $W = U^\perp$, si ricava,
sempre perché $\varphi$ è non degenere, che $U = U^\dperp= W^\perp$. Si conclude pertanto che $\rho_W(\v)=
\v = \w$. \\
Siano adesso $\v$ e $\w$ linearmente indipendenti e sia $U =\Span(\v-\w)$. Dal momento che $\dim U =1$ e $\varphi$ è non degenere, $\dim U^\perp= n-1$. Sia allora $W = U^\perp$. Allora, come prima, $U = U^\dperp= W^\perp$. Si consideri dunque la riflessione $\rho_W$: dacché $\v=\frac{\v+\w}{2}+\frac{\v-\w}{2}$, e $\varphi(\frac{\v+\w}{2}, \frac{\v-\w}{2})=\frac{\norm{\v}-\norm{\w}}{4}=0$, $\v$ è già decomposto in un elemento di $W$ e in uno di $W^\perp$, per cui si conclude che $\rho_W(\v)=
Si dimostra la tesi applicando il principio di induzione sulla dimensione $n$
di $V$. \\
\basestep Sia $n =1$ e sia inoltre $f$ un'isometria di $V$. Sia $\vv1$ l'unico elemento di una base ortonormale $\basis$ di $V$. Allora $\norm{f(\vv1)}=\norm{\vv1}=1$, da cui si ricava che\footnote{Infatti, detto $\lambda\in\RR$ tale che $f(\vv1)=\lambda\vv1$, $\norm{\vv1}=\norm{f(\vv1)}=\lambda^2\norm{\vv1}\implies\lambda=\pm1$, ossia $f =\pm\Id$, come volevasi dimostrare.}$f(\vv1)=\pm\vv1$,
ossia che $f =\pm\Idv$. Se $f =\Idv$, $f$ è un prodotto vuoto, e già verifica la tesi; altrimenti
$f =\rho_{\zerovecset}$, dove si considera $V = V \oplus^\perp\zerovecset$. Pertanto $f$ è prodotto
di al più una riflessione. \\
\inductivestep Sia $\basis=\{\vv1, \ldots, \vv n \}$ una base di $V$. Sia $f$ un'isometria di $V$. Si
assuma inizialmente l'esistenza di $\vv i$ tale per cui $f(\vv i)=\vv i$. Allora, detto $W =\Span(\vv i)$, si può decomporre $V$ come $W \oplus^\perp W^\perp$. Si osserva che $W^\perp$ è $f$-invariante: infatti,
se $\U\in W^\perp$, $\varphi(\vv i, f(\U))=\varphi(f(\vv i), f(\U))=\varphi(\vv i, \U)=0\implies
f(\U) \in W^\perp$. Pertanto si può considerare l'isometria $\restr{f}{W^\perp}$. Dacché $\dim W^\perp = n - 1$,
per il passo induttivo esistono $W_1$, ..., $W_k$ sottospazi di $W^\perp$ con $k \leq n-1$ per cui $\rho_{W_1}$, ..., $\rho_{W_k}\in\End(W^\perp)$ sono tali che $\restr{f}{W^\perp}=\rho_{W_1}\circ\cdots\circ\rho_{W_k}$. \\
Si considerino allora le riflessioni $\rho_{W_1\oplus^\perp W}$, ..., $\rho_{W_k \oplus^\perp W}$.
Si mostra che $\restr{\rho_{W_1\oplus^\perp W}\circ\cdots\circ\rho_{W_k \oplus^\perp W}}{W}=\Idw=\restr{f}{W}$.
Affinché si faccia ciò è sufficiente mostrare che $(\rho_{W_1\oplus^\perp W}\circ\cdots\circ\rho_{W_k \oplus^\perp W})(\vv i)=\vv i$. Si osserva che $\vv i \in W_i \oplus^\perp W$$\forall1\leq i \leq k$, e
quindi che $\rho_{W_k \oplus^\perp W}(\vv i)=\vv i$. Reiterando l'applicazione di questa identità nel prodotto,
si ottiene infine il risultato desiderato. Infine, si dimostra che $\restr{\rho_{W_1\oplus^\perp W}\circ\cdots\circ\rho_{W_k \oplus^\perp W}}{W^\perp}=\rho_{W_1}\circ\cdots\circ\rho_{W_k}=\restr{f}{W^\perp}$. Analogamente a prima,
è sufficiente mostrare che $\rho_{W_k \oplus^\perp W}(\U)=\rho_{W_k}(\U)$$\forall\U\in W^\perp$.
Sia $\U=\rho_{W_k}(\U)+\U'$ con $\U' \in W_k^\perp\cap W^\perp\subseteq(W_k \oplus^\perp W)^\perp$,
ricordando che $W^\perp= W_k \oplus^\perp(W^\perp\cap W_k^\perp)$.
Allora, poiché $\rho_{W_k}(\U)\in W_k \subseteq(W_k \oplus^\perp W)$, si conclude che
$\rho_{W_k \oplus^\perp W}(\U)=\rho_{W_k}(\U)$. Pertanto, dacché vale che $V = W \oplus^\perp W^\perp$ e che $\rho_{W_1\oplus^\perp W}\circ\cdots\circ\rho_{W_k \oplus^\perp W}$ e $f$, ristretti su $W$ o su $W^\perp$, sono le stesse identiche mappe, allora
in particolare vale l'uguaglianza più generale:
\[ f =\rho_{W_1\oplus^\perp W}\circ\cdots\circ\rho_{W_k \oplus^\perp W}, \]
\vskip 0.05in
e quindi $f$ è prodotto di $k \leq n-1$ riflessioni. \\
Se invece non esiste alcun $\vv i$ tale per cui $f(\vv i)=\vv i$, per il \textit{Lemma 1} esiste
una riflessione $\tau$ tale per cui $\tau(f(\vv i))=\vv i$. In particolare $\tau\circ f$ è anch'essa
un'isometria, essendo composizione di due isometrie. Allora, da prima, esistono $U_1$, ..., $U_k$ sottospazi
di $V$ con $k \leq n-1$ tali per cui $\tau\circ f =\rho_{U_1}\circ\cdots\circ\rho_{U_k}$, da
cui $f =\tau\circ\rho_{U_1}\circ\cdots\circ\rho_{U_k}$, ossia $f$ è prodotto di al più
Sia ora invece $V$ è uno spazio euclideo reale e $\varphi$ è un prodotto scalare. Allora, $(V_\CC, \varphi_\CC)$
è uno spazio euclideo complesso, e $f_\CC$ è hermitiano. Sia $\basis$ una base di $V$. Allora, come visto all'inizio di questa
dimostrazione, $f_\CC$ ha solo autovalori reali, da cui si ricava che il polinomio caratteristico
di $f_\CC$ è completamente riducibile in $\RR$. Si osserva inoltre che $p_f(\lambda)=\det(M_\basis(f)-\lambda I_n)=\det(M_\basis(f_\CC)-\lambda I_n)= p_{f_\CC}(\lambda)$. Si conclude dunque che
anche $p_f$ è completamente riducibile in $\RR$.
\end{proof}
\begin{remark}
Dal lemma precedente consegue immediatamente che se $A \in M(n, \RR)$ è simmetrica (o se appartiene a
$M(n, \CC)$ ed è hermitiana), considerando l'operatore simmetrico $f_A$ indotto da $A$ in $\RR^n$ (o $\CC^n$),
$f_A$ ha tutti autovalori reali, e dunque così anche $A$.
\end{remark}
\begin{lemma}
Sia $f \in\End(V)$ simmetrico (o hermitiano). Allora se $\lambda$, $\mu$ sono due autovalori distinti
di $f$, $V_\lambda\perp V_\mu$.
\end{lemma}
\begin{proof}
Siano $\v\in V_\lambda$ e $\w\in V_\mu$. Allora\footnote{Si osserva che non è stato coniugato $\lambda$
nei passaggi algebrici, valendo $\lambda\in\RR$ dallo scorso lemma.}$\lambda\varphi(\v, \w)=\varphi(\lambda\v, \w)=\varphi(f(\v), \w)=\varphi(\v, f(\w))=\varphi(\v, \mu\w)=\mu\varphi(\v, \w)$.
Pertanto vale la seguente identità:
\[(\lambda-\mu)\varphi(\v, \w)=0. \]
\vskip 0.05in
In particolare, valendo $\lambda-\mu\neq0$ per ipotesi, $\varphi(\v, \w)=0\implies V_\lambda\perp V_\mu$,
da cui la tesi.
\end{proof}
\begin{lemma}
Sia $f \in\End(V)$ simmetrico (o hermitiano). Se $W \subseteq V$ è $f$-invariante, allora anche
$W^\perp$ lo è.
\end{lemma}
\begin{proof}
Siano $\w\in W$ e $\v\in W^\perp$. Allora $\varphi(\w, f(\v))=\varphi(\underbrace{f(\w)}_{\in\, W}, \v)=0$, da cui si ricava che $f(\v)\in W^\perp$, ossia la tesi.
\end{proof}
\begin{theorem} [spettrale reale]
Sia $(V, \varphi)$ uno spazio euclideo reale (o complesso) e sia $f \in\End(V)$ simmetrico (o hermitiano). Allora esiste una base ortogonale $\basis$ di $V$ composta di autovettori per $f$.
\end{theorem}
\begin{proof}
Siano $\lambda_1$, ..., $\lambda_k$ tutti gli autovalori reali di $f$. Sia inoltre
$W = V_{\lambda_1}\oplus\cdots\oplus V_{\lambda_k}$. Per i lemmi precedenti,
vale che:
\[ W = V_{\lambda_1}\oplus^\perp\cdots\oplus^\perp V_{\lambda_k}. \]
\vskip 0.05in
Sicuramente $W \subset V$. Si assuma però che $W \subsetneq V$. Allora $V = W \oplus^\perp W^\perp$. In particolare, per il lemma
precedente, $W^\perp$ è $f$-invariante. Quindi $\restr{f}{W^\perp}$ è un endomorfismo
di uno spazio di dimensione non nulla. Si osserva che $\restr{f}{W^\perp}$ è chiaramente
simmetrico (o hermitiano), essendo solo una restrizione di $f$. Allora $\restr{f}{W^\perp}$ ammette
autovalori reali per i lemmi precedenti; tuttavia questo è un assurdo, dal momento che ogni autovalore di $\restr{f}{W^\perp}$ è anche autovalore di $f$ e si era supposto che\footnote{Infatti tale autovalore $\lambda$
non può già comparire tra questi autovalori, altrimenti, detto $i \in\NN$ tale che $\lambda=\lambda_i$, $V_{\lambda_i}\cap W^\perp\neq\zerovecset$, violando la somma diretta supposta.}$\lambda_1$, ..., $\lambda_k$ fossero
tutti gli autovalori di $f$, \Lightning. Quindi $W = V$. Pertanto, detta $\basis_i$ una base ortonormale
di $V_{\lambda_i}$, $\basis=\cup_{i=1}^k \basis_i$ è una base ortonormale di $V$, da cui la tesi.
\end{proof}
\begin{corollary} [teorema spettrale per le matrici]
Sia $A \in M(n, \RR)$ simmetrica (o appartenente a $M(n, \CC)$ ed hermitiana). Allora
$\exists P \in O_n$ (o $P \in U_n$) tale che $P\inv A P = P^\top A P$ (o $P\inv A P = P^* A P$ nel caso hermitiano)
sia una matrice diagonale reale.
\end{corollary}
\begin{proof}
Si consideri $f_A$, l'operatore indotto dalla matrice $A$ in $\RR^n$ (o $\CC^n$). Allora
$f_A$ è un operatore simmetrico (o hermitiano) sul prodotto scalare (o hermitiano) standard.
Pertanto, per il teorema spettrale reale, esiste una base ortonormale $\basis=\{\vv1, \ldots, \vv n\}$ composta di autovettori
di $f_A$. In particolare, detta $\basis'$ la base canonica di $\RR^n$ (o $\CC^n$), vale
\begin{theorem} [di triangolazione con base ortonormale]
Sia $f \in\End(V)$, dove $(V, \varphi)$ è uno spazio euclideo su $\KK$. Allora,
se $p_f$ è completamente riducibile in $\KK$, esiste una base ortonormale $\basis$
tale per cui $M_\basis(f)$ è triangolare superiore (ossia esiste una base ortonormale
a bandiera per $f$).
\end{theorem}
\begin{proof}
Per il teorema di triangolazione, esiste una base $\basis$ a bandiera per $f$. Allora,
applicando l'algoritmo di ortogonalizzazione di Gram-Schmidt, si può ottenere da $\basis$
una nuova base $\basis'$ ortonormale e che mantenga le stesse bandiere. Allora,
se $\basis' =\{\vv1, \ldots, \vv n \}$ è ordinata, dacché $\Span(\vv1, \ldots, \vv i)$ è $f$-invariante,
$f(\vv i)\in\Span(\vv1, \ldots, \vv i)$, e quindi $M_{\basis'}(f)$ è triangolare superiore, da cui la tesi.
\end{proof}
\begin{corollary}
Sia $A \in M(n, \RR)$ (o $M(n, \CC)$) tale per cui $p_A$ è completamente riducibile.
Allora $\exists P \in O_n$ (o $U_n$) tale per cui
$P\inv A P = P^\top A P$ (o $P\inv A P = P^* A P$) è triangolare superiore.
\end{corollary}
\begin{proof}
Si consideri l'operatore $f_A$ indotto da $A$ in $\RR^n$ (o $\CC^n$). Sia $\basis$ la base canonica di $\RR^n$ (o di $\CC^n$). Allora, per il teorema
di triangolazione con base ortonormale, esiste una base ortonormale $\basis' =\{\vv1, \ldots, \vv n \}$ di $\RR^n$ (o di $\CC^n$)
tale per cui $T = M_{\basis'}(f_A)$ è triangolare superiore. Si osserva inoltre che $M_{\basis}(f_A)= A$ e che $P = M_{\basis}^{\basis'}(f_A)=\Matrix{\vv1&\rvline&\cdots&\rvline&\vv n}$ è ortogonale (o unitaria), dacché le sue colonne
formano una base ortonormale. Allora, dalla formula del cambiamento di base per la applicazioni lineari,
si ricava che:
\[ A = P T P\inv\implies T = P\inv T P, \]
da cui, osservando che $P\inv= P^\top$ (o $P\inv= P^*$), si ricava la tesi.
\end{proof}
\begin{definition} [operatore normale]
Sia $(V, \varphi)$ uno spazio euclideo reale. Allora $f \in\End(V)$ si dice \textbf{normale}
se commuta con il suo trasposto (i.e.~se $f f^\top= f^\top f$). Analogamente,
se $(V, \varphi)$ è uno spazio euclideo complesso, allora $f$ si dice normale se commuta con il suo
aggiunto (i.e.~se $f f^*= f^* f$).
\end{definition}
\begin{definition} [matrice normale]
Una matrice $A \in M(n, \RR)$ (o $M(n, \CC)$) si dice \textbf{normale} se $A A^\top= A^\top A$ (o $A A^*= A^* A$).
\end{definition}
\begin{remark}\nl
\li Se $A \in M(n, \RR)$ e $A$ è simmetrica ($A = A^\top$), antisimmetrica ($A =-A^\top$) o
ortogonale ($A A^\top= A^\top A = I_n$), sicuramente $A$ è normale. \\
\li Se $A \in M(n, \CC)$ e $A$ è hermitiana ($A = A^*$), antihermitiana ($A =-A^*$) o
unitaria ($A A^*= A^* A = I_n$), sicuramente $A$ è normale. \\
\li$f$ è normale $\iff$$M_\basis(f)$ è normale, con $\basis$ ortonormale di $V$. \\
\li$A$ è normale $\iff$$f_A$ è normale, considerando che la base canonica di $\CC^n$ è già
ortonormale rispetto al prodotto hermitiano standard. \\
\li Se $V$ è euclideo reale, $f$ è normale $\iff$$f_\CC$ è normale. Infatti, se $f$ è normale, $f$ e $f^\top$
commutano. Allora anche $f_\CC$ e $(f^\top)_\CC=(f_\CC)^*$ commutano, e quindi $f_\CC$ è normale.
Ripercorrendo i passaggi al contrario, si osserva infine che vale anche il viceversa.
\end{remark}
\setcounter{lemma}{0}
\begin{lemma}
Sia $A \in M(n, \CC)$ triangolare superiore e normale (i.e.~$A A^*= A^* A$). Allora
$A$ è diagonale.
\end{lemma}
\begin{proof}
Se $A$ è normale, allora $(A^*)_i A^i =\conj{A}\,^i A^i$ deve essere uguale a
$A_i (A^*)^i = A_i \conj{A}_i$$\forall1\leq i \leq n$. Si dimostra per induzione
su $i$ da $1$ a $n$ che tutti gli elementi, eccetto per quelli diagonali, delle
righe $A_1$, ..., $A_i$ sono nulli. \\
\basestep Si osserva che valgono le seguenti identità:
dove si è usato che, per il passo induttivo, tutti gli elementi, eccetto per quelli diagonali, delle
righe $A_1$, ..., $A_{i-1}$ sono nulli. Allora, analogamente a prima, si ricava che
$a_{ij}=0$\,$\forall i < j \leq n$, dimostrando il passo induttivo, e quindi la tesi.
\end{proof}
\begin{remark}
Chiaramente vale anche il viceversa del precedente lemma: se infatti $A \in M(n, \CC)$ è diagonale,
$A$ è anche normale, dal momento che commuta con $A^*$.
\end{remark}
\begin{theorem}
Sia $(V, \varphi)$ uno spazio euclideo complesso. Allora $f$ è un operatore normale $\iff$ esiste
una base ortonormale $\basis$ di autovettori per $f$.
\end{theorem}
\begin{proof} Si dimostrano le due implicazioni separatamente. \\
\rightproof Poiché $\CC$ è algebricamente chiuso, $p_f$ è sicuramente riducibile. Pertanto,
per il teorema di triangolazione con base ortonormale, esiste una base ortonormale $\basis$
a bandiera per $f$. In particolare, $M_\basis(f)$ è sia normale che triangolare superiore.
Allora, per il \textit{Lemma 1}, $M_\basis(f)$ è diagonale, e dunque $\basis$ è anche una
base di autovettori per $f$. \\
\leftproof Se esiste una base ortonormale $\basis$ di autovettori per $f$, $M_\basis(f)$ è
diagonale, e dunque anche normale. Allora, poiché $\basis$ è ortonormale, anche $f$
è normale.
\end{proof}
\begin{corollary}
Sia $A \in M(n, \CC)$. Allora $A$ è normale $\iff$$\exists U \in U_n$ tale che $U\inv A U = U^* A U$
è diagonale.
\end{corollary}
\begin{proof} Si dimostrano le due implicazioni separatamente. \\
\rightproof Sia $\basis$ la base canonica di $\CC^n$.
Si consideri l'applicazione lineare $f_A$ indotta da $A$ su $\CC^n$. Se $A$ è normale, allora
anche $f_A$ lo è. Pertanto, per il precedente teorema, esiste una base ortonormale $\basis' =\{\vv1, \ldots, \vv n \}$ di
autovettori per $f_A$. In particolare, $U = M_{\basis}^{\basis'}(\Id)=\Matrix{\vv1&\rvline&\cdots&\rvline&\vv n}$ è unitaria ($U \in U_n$), dacché le colonne di $U$ sono ortonormali. Si osserva inoltre che
$M_{\basis}(f_A)= A$ e che $D = M_{\basis'}(f_A)$ è diagonale. Allora, per la formula del cambiamento di base per le applicazioni lineari,
si conclude che:
\[ A = U D U\inv\implies D = U\inv A U = U^* A U, \]
ossia che $U^* A U$ è diagonale. \\
\leftproof Sia $D = U^* A U$. Dacché $D$ è diagonale, $D$ è anche normale. Pertanto $D D^*= D^* D$.
Sostituendo, si ottiene che $U^* A U U^* A^* U = U^* A^* U U^* A U$. Ricordando che $U^* U = I_n$ e
che $U \in U_n$ è sempre invertibile, si conclude che $A A^*= A^* A$, ossia che $A$ è normale a
\li Si può osservare mediante l'ultimo corollario che $A$ hermitiana
$\implies$$U^* A U = D$ è reale. \\
\li Si può estendere il teorema ad una matrice generica
$A \in M(n, \RR)$ normale, a patto che $A$ ha tutti autovalori
reali. Infatti, in tal caso, esiste $O \in O_n$ tale che
$O^\top A O = D$ con $D$ diagonale. Inoltre, $A^\top=(O D O^\top)^\top
= O D^\top O^\top = O D O^\top = A$. Quindi $A$ è necessariamente
anche simmetrica.
\end{remark}
\begin{exercise}\nl
\begin{enumerate}[(i)]
\item$(V, \varphi)$ con $\varphi$ non degenere.
$W \subseteq V$ sottospazio. Sia $\ww1$, ..., $\ww k$
una base di $W$ e sia $\basis=\{\ww1, ..., \ww k, ..., \vv n \}$ una base di $V$. Allora $W^\top=\{\v\in V \mid\varphi(\v, \ww i)=0\}=\{\v\in V \mid A_{1,\ldots,k}[\v]_\basis=0\}$ con $A = M_\basis(\varphi)$. Pertanto $\dim W^\top= n -\rg(A_{1,...,k})$.
\item Sia $U \subseteq V$ sottospazio. Dimostrare che
nel quoziente $V/U$ il prodotto induce il prodotto $\tilde\varphi([\v], [\v'])=\varphi(\v, \v')$ se e soltanto se
$U \subseteq V^\perp$ ($U \perp V$).
\item Dimostrare che il prodotto $\tilde\varphi$ è
non degenere.
\item Sia $\pi : V \to V/V^\perp$ la proiezione al
quoziente. Sia $W \subseteq V$ sottospazio. Dimostrare
che $W^\perp=\{\v\in V \mid\tilde\varphi(\pi(\v), \varphi(\w))=0\forall\w\in W \}=\pi\inv(\pi(W)^\perp)$.
\item Dedurre dai precedenti punti la formula della dimensione
dell'ortogonale.
\item Dimostrare che $(W^\perp)^\perp= W + V^\perp$.
\item Dimostrare che $A$ anti-hermitiana è normale e ha tutti autovalori