mirror of https://github.com/hearot/notes
You cannot select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
703 lines
40 KiB
TeX
703 lines
40 KiB
TeX
\documentclass[11pt]{article}
|
|
\usepackage{personal_commands}
|
|
\usepackage[italian]{babel}
|
|
|
|
\title{\textbf{Note del corso di Geometria 1}}
|
|
\author{Gabriel Antonio Videtta}
|
|
\date{17 e 19 aprile 2023}
|
|
|
|
\begin{document}
|
|
|
|
\maketitle
|
|
|
|
\begin{center}
|
|
\Large \textbf{Prodotti hermitiani, spazi euclidei e teorema spettrale}
|
|
\end{center}
|
|
|
|
\begin{note}
|
|
Nel corso del documento, per $V$ si intenderà uno spazio vettoriale di dimensione
|
|
finita $n$ e per $\varphi$ un suo prodotto, hermitiano o scalare
|
|
dipendentemente dal contesto.
|
|
\end{note}
|
|
|
|
\begin{definition} (prodotto hermitiano) Sia $\KK = \CC$. Una mappa $\varphi : V \times V \to \CC$ si dice \textbf{prodotto hermitiano} se:
|
|
|
|
\begin{enumerate}[(i)]
|
|
\item $\varphi$ è $\CC$-lineare nel secondo argomento, ossia se $\varphi(\v, \U + \w) = \varphi(\v, \U) + \varphi(\v, \w)$ e
|
|
$\varphi(\v, a \w) = a \, \varphi(\v, \w)$,
|
|
\item $\varphi(\U, \w) = \conj{\varphi(\w, \U)}$.
|
|
\end{enumerate}
|
|
\end{definition}
|
|
|
|
\begin{definition} (prodotto hermitiano canonico in $\CC^n$) Si definisce
|
|
\textbf{prodotto hermitiano canonico} di $\CC^n$ il prodotto $\varphi : \CC^n \times \CC^n \to \CC$ tale per cui, detti $\v = (z_1 \cdots z_n)^\top$ e $\w = (w_1 \cdots w_n)^\top$, $\varphi(\v, \w) = \sum_{i=1}^n \conj{z_i} w_i$.
|
|
\end{definition}
|
|
|
|
\begin{remark}\nl
|
|
\li $\varphi(\U + \w, \v) = \conj{\varphi(\v, \U + \w)} =
|
|
\conj{\varphi(\v, \U) + \varphi(\v, \w)} = \conj{\varphi(\v, \U)} + \conj{\varphi(\v, \U)} = \varphi(\w, \v) + \varphi(\U, \v)$, ossia
|
|
$\varphi$ è additiva anche nel primo argomento. \\
|
|
\li $\varphi(a \v, \w) = \conj{\varphi(\w, a \v)} = \conj{a} \conj{\varphi(\w, \v)} = \conj{a} \, \varphi(\v, \w)$. \\
|
|
\li $\varphi(\v, \v) = \conj{\varphi(\v, \v)}$, e quindi $\varphi(\v, \v) \in \RR$. \\
|
|
\li Sia $\v = \sum_{i=1}^n x_i \vv i$ e sia $\w = \sum_{i=1}^n y_i \vv i$, allora $\varphi(\v, \w) = \sum_{i =1}^n \sum_{j=1}^n \conj{x_i} y_i \varphi(\vv i, \vv j)$. \\
|
|
\li $\varphi(\v, \w) = 0 \iff \varphi(\w, \v) = 0$.
|
|
\end{remark}
|
|
|
|
\begin{proposition}
|
|
Data la forma quadratica $q : V \to \RR$ del prodotto hermitiano $\varphi$ tale che $q(\v) = \varphi(\v, \v) \in \RR$, tale
|
|
forma quadratica individua univocamente il prodotto hermitiano $\varphi$.
|
|
\end{proposition}
|
|
|
|
\begin{proof}
|
|
Innanzitutto si osserva che:
|
|
|
|
\[ \varphi(\v, \w) = \frac{\varphi(\v, \w) + \conj{\varphi(\v, \w)}}{2} + \frac{\varphi(\v, \w) . \conj{\varphi(\v, \w)}}{2}. \]
|
|
|
|
\vskip 0.05in
|
|
|
|
Si considerano allora le due identità:
|
|
|
|
\[ q(\v + \w) - q(\v) - q(\w) =
|
|
\varphi(\v, \w) + \conj{\varphi(\w, \v)} = 2 \, \Re(\varphi(\v, \w)), \]
|
|
|
|
\[ q(i\v + \w) - q(\v) - q(\w) = -i(\varphi(\v, \w) - \conj{\varphi(\v, \w)}) = 2 \, \imm(\varphi(\v, \w)), \]
|
|
|
|
\vskip 0.05in
|
|
|
|
da cui si conclude che il prodotto $\varphi$ è univocamente
|
|
determinato dalla sua forma quadratica.
|
|
\end{proof}
|
|
|
|
\begin{definition}
|
|
Si definisce \textbf{matrice aggiunta} di $A \in M(n, \KK)$ la matrice coniugata della trasposta di $A$, ossia:
|
|
|
|
\[ A^* = \conj{A^\top} = \conj{A}^\top. \]
|
|
\end{definition}
|
|
|
|
\begin{remark}
|
|
Per quanto riguarda la matrice aggiunta valgono le principali proprietà della matrice trasposta:
|
|
|
|
\begin{itemize}
|
|
\item $(A + B)^* = A^* + B^*$,
|
|
\item $(AB)^* = B^* A^*$,
|
|
\item $(A\inv)^* = (A^*)\inv$, se $A$ è invertibile.
|
|
\end{itemize}
|
|
\end{remark}
|
|
|
|
%TODO: aggiungere tr(conj(A^t) B)
|
|
|
|
\begin{definition} (matrice associata del prodotto hermitiano) Analogamente
|
|
al caso del prodotto scalare, data una base $\basis = \{\vv 1, \ldots, \vv n\}$ si definisce
|
|
come \textbf{matrice associata del prodotto hermitiano} $\varphi$
|
|
la matrice $M_\basis(\varphi) = (\varphi(\vv i, \vv j))_{i,j = 1 \textrm{---} n}$.
|
|
\end{definition}
|
|
|
|
\begin{remark}
|
|
Si osserva che, analogamente al caso del prodotto scalare, vale
|
|
la seguente identità:
|
|
|
|
\[ \varphi(\v, \w) = [\v]_\basis^* M_\basis(\varphi) [\w]_\basis. \]
|
|
\end{remark}
|
|
|
|
\begin{proposition}
|
|
(formula del cambiamento di base per i prodotto hermitiani) Siano
|
|
$\basis$, $\basis'$ due basi di $V$. Allora vale la seguente
|
|
identità:
|
|
|
|
\[ M_{\basis'} = M_{\basis}^{\basis'}(\Idv)^* M_\basis(\varphi) M_{\basis}^{\basis'}(\Idv). \]
|
|
\end{proposition}
|
|
|
|
\begin{proof}
|
|
Siano $\basis = \{ \vv 1, \ldots, \vv n \}$ e $\basis' = \{ \ww 1, \ldots, \ww n \}$. Allora $\varphi(\ww i, \ww j) = [\ww i]_\basis^* M_\basis(\varphi) [\ww j]_\basis = \left( M_\basis^{\basis'}(\Idv)^i \right)^* M_\basis(\varphi) M_\basis^{\basis'}(\Idv)^j =
|
|
\left(M_\basis^{\basis'}(\Idv)\right)^*_i M_\basis(\varphi) M_\basis^{\basis'}(\Idv)^j$, da cui si ricava l'identità
|
|
desiderata.
|
|
\end{proof}
|
|
|
|
\begin{definition} (radicale di un prodotto hermitiano)
|
|
Analogamente al caso del prodotto scalare, si definisce il \textbf{radicale} del prodotto $\varphi$ come il seguente sottospazio:
|
|
|
|
\[ V^\perp = \{ \v \in V \mid \varphi(\v, \w) = 0 \, \forall \w \in V \}. \]
|
|
\end{definition}
|
|
|
|
\begin{proposition}
|
|
Sia $\basis$ una base di $V$ e $\varphi$ un prodotto hermitiano. Allora $V^\perp = [\cdot]_\basis \inv (\Ker M_\basis(\varphi))$\footnote{Stavolta non è sufficiente considerare la mappa $f : V \to V^*$ tale che $f(\v) = \left[ \w \mapsto \varphi(\v, \w) \right]$, dal momento che $f$ non è lineare, bensì antilineare, ossia $f(a \v) = \conj a f(\v)$.}.
|
|
\end{proposition}
|
|
|
|
\begin{proof}
|
|
Sia $\basis = \{ \vv 1, \ldots, \vv n \}$ e sia $\v \in V^\perp$.
|
|
Siano $a_1$, ..., $a_n \in \KK$ tali che $\v = a_1 \vv 1 + \ldots + a_n \vv n$. Allora, poiché $\v \in V$, $0 = \varphi(\vv i, \v) =
|
|
= a_1 \varphi(\vv i, \vv 1) + \ldots + a_n \varphi(\vv i, \vv n) = M_i [\v]_\basis$, da cui si ricava che $[\v]_\basis \in \Ker M_\basis(\varphi)$, e quindi che $V^\perp \subseteq [\cdot]_\basis \inv (\Ker M_\basis(\varphi))$. \\
|
|
|
|
Sia ora $\v \in V$ tale che $[\v]_\basis \in \Ker M_\basis(\varphi)$.
|
|
Allora, per ogni $\w \in V$, $\varphi(\w, \v) = [\w]_\basis^* M_\basis(\varphi) [\v]_\basis = [\w]_\basis^* 0 = 0$, da cui si
|
|
conclude che $\v \in V^\perp$, e quindi che $V^\perp \supseteq [\cdot]_\basis \inv (\Ker M_\basis(\varphi))$, da cui
|
|
$V^\perp = [\cdot]_\basis \inv (\Ker M_\basis(\varphi))$, ossia
|
|
la tesi.
|
|
\end{proof}
|
|
|
|
\begin{remark}
|
|
Come conseguenza della proposizione appena dimostrata, valgono
|
|
le principali proprietà già viste per il prodotto scalare. \\
|
|
|
|
\li $\det(M_\basis(\varphi)) = 0 \iff V^\perp \neq \zerovecset \iff \varphi$ è degenere, \\
|
|
\li Vale il teorema di Lagrange, e quindi quello di Sylvester, benché con alcune accortezze: si
|
|
introduce, come nel caso di $\RR$, il concetto di segnatura, che diventa l'invariante completo
|
|
della nuova congruenza hermitiana, che ancora una volta si dimostra essere una relazione
|
|
di equivalenza.
|
|
\end{remark}
|
|
|
|
\hr
|
|
|
|
\begin{definition} (restrizione ai reali di uno spazio) Sia $V$
|
|
uno spazio vettoriale su $\CC$ con base $\basis$. Si definisce allora lo spazio $V_\RR$, detto
|
|
\textbf{spazio di restrizione su $\RR$} di $V$, come uno spazio su $\RR$ generato da
|
|
$\basis_\RR = \basis \cup i \basis$.
|
|
\end{definition}
|
|
|
|
\begin{example}
|
|
Si consideri $V = \CC^3$. Una base di $\CC^3$ è chiaramente $\{ \e1, \e2, \e3 \}$. Allora
|
|
$V_\RR$ sarà uno spazio vettoriale su $\RR$ generato dai vettori $\{ \e1, \e2, \e3, i\e1, i\e2, i\e3 \}$.
|
|
\end{example}
|
|
|
|
\begin{remark}
|
|
Si osserva che lo spazio di restrizione su $\RR$ e lo spazio di partenza condividono lo stesso insieme
|
|
di vettori. Infatti, $\Span_\CC(\basis) = \Span_\RR(\basis \cup i\basis)$. Ciononostante, $\dim V_\RR = 2 \dim V$, se $\dim V \in \NN$.
|
|
\end{remark}
|
|
|
|
\begin{definition} (complessificazione di uno spazio) Sia $V$ uno spazio vettoriale su $\RR$.
|
|
Si definisce allora lo \textbf{spazio complessificato} $V_\CC = V \times V$ su $\CC$ con le seguenti operazioni:
|
|
|
|
\begin{itemize}
|
|
\item $(\v, \w) + (\v', \w') = (\v + \v', \w + \w')$,
|
|
\item $(a+bi)(\v, \w) = (a\v - b\w, a\w + b\v)$.
|
|
\end{itemize}
|
|
\end{definition}
|
|
|
|
\begin{remark}
|
|
La costruzione dello spazio complessificato emula in realtà la costruzione di $\CC$ come spazio
|
|
$\RR \times \RR$. Infatti se $z = (c, d)$, vale che $(a + bi)(c, d) = (ac - bd, ad + bc)$, mentre
|
|
si mantiene l'usuale operazione di addizione. In particolare si può identificare l'insieme
|
|
$iV := V \times \zerovecset$ come $V$, mentre $\zerovecset \times V$ viene identificato come l'insieme
|
|
degli immaginari di $V_\CC$. Infine, moltiplicare per uno scalare reale un elemento di
|
|
$V \times \zerovecset$ equivale a moltiplicare la sola prima componente con l'usuale operazione
|
|
di moltiplicazione di $V$. Allora, come accade per $\CC$, si può sostituire la notazione
|
|
$(\v, \w)$ con la più comoda notazione $\v + i \w$.
|
|
\end{remark}
|
|
|
|
\begin{remark}
|
|
Sia $\basis = \{ \vv 1, \ldots, \vv n \}$ una base di $V$. Innanzitutto si osserva che
|
|
$(a+bi)(\v, \vec 0) = (a\v, b\v)$. Pertanto si può concludere che $\basis \times \zerovecset$ è
|
|
una base dello spazio complessificato $V_\CC$ su $\CC$. \\
|
|
|
|
Infatti, se $(a_1 + b_1 i)(\vv 1, \vec 0) + \ldots + (a_n + b_n i)(\vv n, \vec 0) = (\vec 0, \vec 0)$,
|
|
allora $(a_1 \vv 1 + \ldots + a_n \vv n, b_1 \vv 1 + \ldots + b_n \vv n) = (\vec 0, \vec 0)$.
|
|
Poiché però $\basis$ è linearmente indipendente per ipotesi, l'ultima identità implica che
|
|
$a_1 = \cdots = a_n = b_1 = \cdots = b_n = 0$, e quindi che $\basis \times \zerovecset$ è linearmente
|
|
indipendente. \\
|
|
|
|
Inoltre $\basis \times \zerovecset$ genera $V_\CC$. Se infatti $\v = (\U, \w)$, e vale che:
|
|
|
|
\[ \U = a_1 \vv 1 + \ldots + a_n \vv n, \quad \w = b_1 \vv 1 + \ldots + b_n \vv n, \]
|
|
|
|
\vskip 0.1in
|
|
|
|
allora $\v = (a_1 + b_1 i) (\vv 1, \vec 0) + \ldots + (a_n + b_n i) (\vv n, \vec 0)$. Quindi
|
|
$\dim V_\CC = \dim V$.
|
|
\end{remark}
|
|
|
|
\begin{definition}
|
|
Sia $f$ un'applicazione $\CC$-lineare di $V$ spazio vettoriale su $\CC$. Allora
|
|
si definisce la \textbf{restrizione su} $\RR$ di $f$, detta $f_\RR : V_\RR \to V_\RR$,
|
|
in modo tale che $f_\RR(\v) = f(\v)$.
|
|
\end{definition}
|
|
|
|
\begin{remark}
|
|
Sia $\basis = \{\vv 1, \ldots, \vv n\}$ una base di $V$ su $\CC$. Sia $A = M_\basis(f)$. Si
|
|
osserva allora che, se $\basis' = \basis \cup i \basis$ e $A = A' + i A''$ con $A'$, $A'' \in M(n, \RR)$,
|
|
vale la seguente identità:
|
|
|
|
\[ M_{\basis'}(f_\RR) = \Matrix{ A' & \rvline & -A'' \\ \hline A'' & \rvline & A' }. \]
|
|
|
|
Infatti, se $f(\vv i) = (a_1 + b_1 i) \vv 1 + \ldots + (a_n + b_n i) \vv n$, vale che
|
|
$f_\RR(\vv i) = a_1 \vv 1 + \ldots + a_n \vv n + b_1 (i \vv 1) + \ldots + b_n (i \vv n)$,
|
|
mentre $f_\RR(i \vv i) = i f(\vv i) = - b_1 \vv 1 + \ldots - b_n \vv n + a_1 (i \vv 1) + \ldots + a_n (i \vv n)$.
|
|
\end{remark}
|
|
|
|
% TODO: aggiungere ultimi lemmi sulla restrizione e la complessificazione
|
|
|
|
\hr
|
|
|
|
\begin{theorem} (di rappresentazione di Riesz per il prodotto scalare)
|
|
Sia $V$ uno spazio vettoriale e sia $\varphi$ un suo prodotto scalare
|
|
non degenere. Allora per ogni $f \in V^*$ esiste un unico $\v \in V$ tale che
|
|
$f(\w) = \varphi(\v, \w)$ $\forall \w \in V$.
|
|
\end{theorem}
|
|
|
|
\begin{proof}
|
|
Si consideri l'applicazione $a_\varphi$. Poiché $\varphi$ non è degenere, $\Ker a_\varphi = V^\perp = \zerovecset$, da cui si deduce che $a_\varphi$ è un isomorfismo. Quindi $\forall f \in V^*$ esiste
|
|
un unico $\v \in V$ tale per cui $a_\varphi(\v) = f$, e dunque tale per cui $\varphi(\v, \w) = a_\varphi(\v)(\w) = f(\w)$ $\forall \w \in V$.
|
|
\end{proof}
|
|
|
|
\begin{proof}[Dimostrazione costruttiva]
|
|
Sia $\basis = \{ \vv 1, \ldots, \vv n \}$ una base ortogonale di $V$ per $\varphi$. Allora $\basis^*$ è una base di $V^*$. In
|
|
particolare $f = f(\vv 1) \vec{v_1^*} + \ldots + f(\vv n) \vec{v_n^*}$. Sia $\v = \frac{f(\vv 1)}{\varphi(\vv 1, \vv 1)} \vv 1 + \ldots + \frac{f(\vv n)}{\varphi(\vv n, \vv n)}$. Detto $\w = a_1 \vv 1 + \ldots + a_n \vv n$,
|
|
si deduce che $\varphi(\v, \w) = a_1 f(\vv 1) + \ldots + a_n f(\vv n) = f(\w)$. Se esistesse $\v' \in V$ con
|
|
la stessa proprietà di $\v$, $\varphi(\v, \w) = \varphi(\v', \w) \implies \varphi(\v - \v', \w)$ $\forall \w \in V$. Si deduce dunque che $\v - \v' \in V^\perp$, contenente solo $\vec 0$ dacché $\varphi$ è non degenere;
|
|
e quindi si conclude che $\v = \v'$, ossia che esiste solo un vettore con la stessa proprietà di $\v$.
|
|
\end{proof}
|
|
|
|
\begin{theorem} (di rappresentazione di Riesz per il prodotto hermitiano)
|
|
Sia $V$ uno spazio vettoriale su $\CC$ e sia $\varphi$ un suo prodotto hermitiano non
|
|
degenere. Allora per ogni $f \in V^*$ esiste un unico $\v \in V$ tale che
|
|
$f(\w) = \varphi(\v, \w)$ $\forall \w \in V$.
|
|
\end{theorem}
|
|
|
|
\begin{proof}
|
|
Sia $\basis = \{ \vv 1, \ldots, \vv n \}$ una base ortogonale di $V$ per $\varphi$. Allora $\basis^*$ è una base di $V^*$. In
|
|
particolare $f = f(\vv 1) \vec{v_1^*} + \ldots + f(\vv n) \vec{v_n^*}$. Sia $\v = \frac{\conj{f(\vv 1)}}{\varphi(\vv 1, \vv 1)} \vv 1 + \ldots + \frac{\conj{f(\vv n)}}{\varphi(\vv n, \vv n)}$. Detto $\w = a_1 \vv 1 + \ldots + a_n \vv n$,
|
|
si deduce che $\varphi(\v, \w) = a_1 f(\vv 1) + \ldots + a_n f(\vv n) = f(\w)$. Se esistesse $\v' \in V$ con
|
|
la stessa proprietà di $\v$, $\varphi(\v, \w) = \varphi(\v', \w) \implies \varphi(\v - \v', \w)$ $\forall \w \in V$. Si deduce dunque che $\v - \v' \in V^\perp$, contenente solo $\vec 0$ dacché $\varphi$ è non degenere;
|
|
e quindi si conclude che $\v = \v'$, ossia che esiste solo un vettore con la stessa proprietà di $\v$.
|
|
\end{proof}
|
|
|
|
\begin{proposition}
|
|
Sia $V$ uno spazio vettoriale con prodotto scalare $\varphi$ non degenere.
|
|
Sia $f \in \End(V)$. Allora esiste un unico endomorfismo
|
|
$g : V \to V$, detto il \textbf{trasposto di} $f$ e indicato con $f^\top$ in assenza
|
|
di ambiguità\footnote{Si tenga infatti in conto della differenza tra $f^\top : V \to V$, di cui si discute
|
|
nell'enunciato, e $f^\top : V^* \to V^*$ che invece è tale che $f^top(g) = g \circ f$.}, tale che:
|
|
|
|
\[ a_\varphi \circ g = f^\top \circ a_\varphi, \]
|
|
|
|
\vskip 0.05in
|
|
|
|
ossia che:
|
|
|
|
\[ \varphi(\v, f(\w)) = \varphi(g(\v), \w) \, \forall \v, \w \in V. \]
|
|
\end{proposition}
|
|
|
|
\begin{proof}
|
|
Si consideri $(f^\top \circ a_\varphi)(\v) \in V^*$. Per il teorema di rappresentazione di Riesz per
|
|
il prodotto scalare, esiste un unico $\v'$ tale che $(f^\top \circ a_\varphi)(\v)(\w) = \varphi(\v', \w) \implies \varphi(\v, f(\w)) = \varphi(\v', \w)$ $\forall \w \in V$. Si costruisce allora una mappa
|
|
$g : V \to V$ che associa a $\v$ tale $\v'$. Si dimostra che $g$ è un'applicazione lineare, e che
|
|
dunque è un endomorfismo:
|
|
|
|
\begin{enumerate}[(i)]
|
|
\item Siano $\vv 1$, $\vv 2 \in V$. Si deve dimostrare innanzitutto che $g(\vv 1 + \vv 2) = g(\vv 1) + g(\vv 2)$, ossia che $\varphi(g(\vv 1) + g(\vv 2), \w) = \varphi(\vv 1 + \vv 2, f(\w))$ $\forall \w \in V$. \\
|
|
|
|
Si osservano le seguenti identità:
|
|
\begin{align*}
|
|
&\varphi(\vv 1 + \vv 2, f(\w)) = \varphi(\vv 1, f(\w)) + \varphi(\vv 2, f(\w)) = (*), \\
|
|
&\varphi(g(\vv 1) + g(\vv 2), \w) = \varphi(g(\vv 1), \w) + \varphi(g(\vv 2), \w) = (*),
|
|
\end{align*}
|
|
|
|
da cui si deduce l'uguaglianza desiderata, essendo $g(\vv 1 + \vv 2)$ l'unico vettore di $V$
|
|
con la proprietà enunciata dal teorema di rappresentazione di Riesz.
|
|
|
|
\item Sia $\v \in V$. Si deve dimostrare che $g(a \v) = a g(\v)$, ossia che $\varphi(a g(\v), \w) =
|
|
\varphi(a\v, f(\w))$ $\forall a \in \KK$, $\w \in V$. Se $a = 0$, l'uguaglianza è ovvia; altrimenti è
|
|
sufficiente moltiplicare per $a$ l'identità $\varphi(g(\v), \w) = \varphi(\v, f(\w))$. Analogamente
|
|
a prima, si deduce che $g(a \v) = a g(\v)$, essendo $g(a \v)$ l'unico vettore di $V$ con la
|
|
proprietà enunciata dal teorema di rappresentazione di Riesz.
|
|
\end{enumerate}
|
|
|
|
Infine si dimostra che $g$ è unico. Sia infatti $g'$ un endomorfismo di $V$ che condivide la stessa
|
|
proprietà di $g$. Allora $\varphi(g(\v), \w) = \varphi(\v, f(\w)) = \varphi(g'(\v), \w)$ $\forall \v$, $\w \in V$, da cui si deduce che $\varphi(g(\v) - g'(\v), \w) = 0$ $\forall \v$, $\w \in V$, ossia che
|
|
$g(\v) - g'(\v) \in V^\perp$ $\forall \v \in V$. Tuttavia $\varphi$ è non degenere, e quindi $V^\perp = \zerovecset$, da cui si deduce che deve valere l'identità $g(\v) = g'(\v)$ $\forall \v \in V$, ossia
|
|
$g = g'$.
|
|
\end{proof}
|
|
|
|
\begin{proposition}
|
|
Sia $V$ uno spazio vettoriale su $\CC$ e sia $\varphi$ un suo prodotto hermitiano. Allora esiste un'unica
|
|
mappa\footnote{Si osservi che $f^*$ non è un'applicazione lineare, benché sia invece \textit{antilineare}.} $f^* : V \to V$, detta \textbf{aggiunto di} $f$, tale che $\varphi(\v, f(\w)) = \varphi(f^*(\v), \w)$ $\forall \v$, $\w \in V$.
|
|
\end{proposition}
|
|
|
|
\begin{proof}
|
|
Sia $\v \in V$. Si consideri il funzionale $\sigma$ tale che $\sigma(\w) = \varphi(\v, f(\w))$. Per il
|
|
teorema di rappresentazione di Riesz per il prodotto scalare esiste un unico $\v' \in V$ tale per cui
|
|
$\varphi(\v, f(\w)) = \sigma(\w) = \varphi(\v', \w)$. Si costruisce allora una mappa $f^*$ che associa
|
|
$\v$ a tale $\v'$. \\
|
|
|
|
Si dimostra infine che la mappa $f^*$ è unica. Sia infatti $\mu : V \to V$ che condivide la stessa
|
|
proprietà di $f^*$. Allora $\varphi(f^*(\v), \w) = \varphi(\v, f(\w)) = \varphi(\mu(\v), \w)$ $\forall \v$, $\w \in V$, da cui si deduce che $\varphi(f^*(\v) - \mu(\v), \w) = 0$ $\forall \v$, $\w \in V$, ossia che
|
|
$f^*(\v) - \mu(\v) \in V^\perp$ $\forall \v \in V$. Tuttavia $\varphi$ è non degenere, e quindi $V^\perp = \zerovecset$, da cui si deduce che deve valere l'identità $f^*(\v) = \mu(\v)$ $\forall \v \in V$, ossia
|
|
$f^* = \mu$.
|
|
\end{proof}
|
|
|
|
\begin{remark}
|
|
L'operazione di trasposizione di un endomorfismo sul prodotto scalare non degenere $\varphi$ è un'involuzione. Infatti valgono
|
|
le seguenti identità $\forall \v$, $\w \in V$:
|
|
|
|
\[ \system{\varphi(\w, f^\top(\v)) = \varphi(f^\top(\v), \w) = \varphi(\v, f(\w)), \\ \varphi(\w, f^\top(\v)) = \varphi((f^\top)^\top(\w), \v) =
|
|
\varphi(\v, (f^\top)^\top(\w)).} \]
|
|
|
|
\vskip 0.05in
|
|
|
|
Si conclude allora, poiché $\varphi$ è non degenere, che
|
|
$f(\w) = (f^\top)^\top(\w)$ $\forall \w \in V$, ossia che $f = (f^\top)^\top$.
|
|
\end{remark}
|
|
|
|
\begin{remark}
|
|
Analogamente si può dire per l'operazione di aggiunta per un prodotto hermitiano $\varphi$ non degenere.
|
|
Valgono infatti le seguenti identità $\forall \v$, $\w \in V$:
|
|
|
|
\[ \system{\conj{\varphi(\w, f^*(\v))} = \varphi(f^*(\v), \w) = \varphi(\v, f(\w)), \\ \conj{\varphi(\w, f^*(\v))} = \conj{\varphi((f^*)^*(\w), \v)} =
|
|
\varphi(\v, (f^*)^*(\w)),} \]
|
|
|
|
\vskip 0.05in
|
|
|
|
da cui si deduce, come prima, che $f = (f^*)^*$.
|
|
\end{remark}
|
|
|
|
\begin{note}
|
|
D'ora in poi, nel corso del documento, s'intenderà per $\varphi$ un prodotto scalare (o eventualmente hermitiano) non degenere di $V$.
|
|
\end{note}
|
|
|
|
\begin{definition} (operatori simmetrici)
|
|
Sia $f \in \End(V)$. Si dice allora che $f$ è \textbf{simmetrico} se $f = f^\top$.
|
|
\end{definition}
|
|
|
|
\begin{definition} (applicazioni e matrici ortogonali)
|
|
Sia $f \in \End(V)$. Si dice allora che $f$ è \textbf{ortogonale} se $\varphi(\v, \w) = \varphi(f(\v), f(\w))$.
|
|
Sia $A \in M(n, \KK)$. Si dice dunque che $A$ è \textbf{ortogonale} se $A^\top A = A A^\top = I_n$.
|
|
\end{definition}
|
|
|
|
\begin{definition}
|
|
Le matrici ortogonali di $M(n, \KK)$ formano un sottogruppo moltiplicativo di $\GL(n, \KK)$, detto \textbf{gruppo ortogonale},
|
|
e indicato con $O_n$. Il sottogruppo di $O_n$ contenente solo le matrici con determinante pari a $1$ è
|
|
detto \textbf{gruppo ortogonale speciale}, e si denota con $SO_n$.
|
|
\end{definition}
|
|
|
|
\begin{remark}
|
|
Si possono classificare in modo semplice alcuni di questi gruppi ortogonali per $\KK = \RR$. \\
|
|
|
|
\li $A \in O_n \implies 1 = \det(I_n) = \det(A A^\top) = \det(A)^2 \implies \det(A) = \pm 1$.
|
|
\li $A = (a) \in O_1 \iff A^\top A = I_1 \iff a^2 = 1 \iff a = \pm 1$, da cui si ricava che l'unica matrice
|
|
di $SO_1$ è $(1)$. Si osserva inoltre che $O_1$ è abeliano di ordine $2$, e quindi che $O_1 \cong \ZZ/2\ZZ$. \\
|
|
\li $A = \Matrix{a & b \\ c & d} \in O_2 \iff \Matrix{a^2 + b^2 & ab + cd \\ ab + cd & c^2 + d^2} = A^\top A = I_2 \iff \system{a^2 + b^2 = c^2 + d^2 = 1, \\ ab + cd = 0.}$ \\
|
|
|
|
Si ricava pertanto che si può identificare
|
|
$A$ con le funzioni trigonometriche $\cos(\theta)$ e $\sin(\theta)$ nelle due forme:
|
|
\begin{align*}
|
|
&A = \Matrix{\cos(\theta) & -\sin(\theta) \\ \sin(\theta) & \cos(\theta)} \quad &\text{(}\!\det(A) = 1, A \in SO_2\text{)}, \\
|
|
&A = \Matrix{\cos(\theta) & \sin(\theta) \\ \sin(\theta) & -\cos(\theta)} \quad &\text{(}\!\det(A) = -1\text{)}.
|
|
\end{align*}
|
|
\end{remark}
|
|
|
|
\begin{definition} (applicazioni e matrici hermitiane)
|
|
Sia $f \in \End(V)$ e si consideri il prodotto hermitiano $\varphi$. Si dice allora che
|
|
$f$ è \textbf{hermitiano} se $f = f^*$. Sia $A \in M(n, \CC)$. Si dice dunque che $A$
|
|
è \textbf{hermitiana} se $A = A^*$.
|
|
\end{definition}
|
|
|
|
\begin{definition} (applicazioni e matrici unitarie)
|
|
Sia $f \in \End(V)$ e si consideri il prodotto hermitiano $\varphi$. Si dice allora che
|
|
$f$ è \textbf{unitario} se $\varphi(\v, \w) = \varphi(f(\v), f(\w))$. Sia $A \in M(n, \CC)$.
|
|
Si dice dunque che $A$ è \textbf{unitaria} se $A^* A = A A^* = I_n$.
|
|
\end{definition}
|
|
|
|
\begin{definition}
|
|
Le matrici unitarie di $M(n, \CC)$ formano un sottogruppo moltiplicativo di $\GL(n, \CC)$, detto \textbf{gruppo unitario},
|
|
e indicato con $U_n$. Il sottogruppo di $U_n$ contenente solo le matrici con determinante pari a $1$ è
|
|
detto \textbf{gruppo unitario speciale}, e si denota con $SU_n$.
|
|
\end{definition}
|
|
|
|
\begin{remark}\nl
|
|
\li $A \in U_n \implies 1 = \det(I_n) = \det(A A^*) = \det(A) \conj{\det(A)} = \abs{\det(A)}^2 = 1$.
|
|
\li $A = (a) \in U_1 \iff A^* A = I_1 \iff \abs{a}^2 = 1 \iff a = e^{i\theta}$, $\theta \in [0, 2\pi)$, ossia il numero complesso $a$ appartiene alla circonferenza di raggio unitario.
|
|
\end{remark}
|
|
|
|
\begin{definition} (spazio euclideo reale)
|
|
Si definisce \textbf{spazio euclideo reale} uno spazio vettoriale $V$ su $\RR$ dotato
|
|
del prodotto scalare standard $\varphi = \innprod{\cdot, \cdot}$.
|
|
\end{definition}
|
|
|
|
\begin{definition} (spazio euclideo complesso)
|
|
Si definisce \textbf{spazio euclideo complesso} uno spazio vettoriale $V$ su $\CC$ dotato
|
|
del prodotto scalare standard $\varphi = \innprod{\cdot, \cdot}$.
|
|
\end{definition}
|
|
|
|
\begin{definition} (base ortonormale)
|
|
Si definisce \textbf{base ortonormale} di uno spazio vettoriale $V$ su un suo prodotto $\varphi$
|
|
una base ortogonale $\basis = \{ \vv 1, \ldots, \vv n \}$ tale che $\varphi(\vv i, \vv j) = \delta_{ij}$.
|
|
\end{definition}
|
|
|
|
\begin{proposition}
|
|
Sia $(V, \varphi)$ uno spazio euclideo reale e sia $\basis$ una base ortonormale di $V$. Allora $f \in \End(V)$ è simmetrico $\iff$ $M_\basis(f) = M_\basis(f)^\top$ $\iff$ $M_\basis(f)$ è simmetrica.
|
|
\end{proposition}
|
|
|
|
\begin{proof}
|
|
Si osserva che $M_\basis(\varphi) = I_n$. Sia $\basis = \{ \vv 1, \ldots, \vv n\}$. Se $f$ è simmetrico, allora $[\v]_\basis^\top \, M_\basis(f) [\w]_\basis = [\v]_\basis^\top M_\basis(\varphi) (M_\basis(f) [\w]_\basis) = \varphi(\v, f(\w)) = \varphi(f(\v), \w) = (M_\basis(f) [\v]_\basis)^\top M_\basis(\varphi) [\w]_\basis = [\v]_\basis^\top \, M_\basis(f)^\top [\w]_\basis$. \\
|
|
In particolare, $M_\basis(f)^\top_{ij} = [\vv i]_\basis^\top \, M_\basis(f)^\top [\vv j]_\basis = [\vv i]_\basis^\top \, M_\basis(f) [\vv j]_\basis = M_\basis(f)_{ij}$, e quindi $M_\basis(f)^\top = M_\basis(f)$. \\
|
|
|
|
Se invece $M_\basis(f)^\top = M_\basis(f)$, $\varphi(\v, f(\w)) =$ $[\v]_\basis^\top M_\basis(\varphi) (M_\basis(f) [\w]_\basis)$ $= [\v]_\basis^\top M_\basis(f) [\w]_\basis$ $= [\v]_\basis^\top M_\basis(f)^\top [\w]_\basis = (M_\basis(f) [\v]_\basis)^\top [\w]_\basis = (M_\basis(f) [\v]_\basis)^\top M_\basis(\varphi) [\w]_\basis = \varphi(f(\v), \w)$, e quindi $f$ è simmetrico.
|
|
\end{proof}
|
|
|
|
\begin{proposition}
|
|
Sia $(V, \varphi)$ uno spazio euclideo reale e sia $\basis$ una base ortonormale di $V$. Allora
|
|
$f \in \End(V)$ è ortogonale $\iff$ $M_\basis(f) M_\basis(f)^\top = M_\basis(f)^\top M_\basis(f) = I_n$ $\defiff$ $M_\basis(f)$ è ortogonale.
|
|
\end{proposition}
|
|
|
|
\begin{proof}
|
|
Si osserva che $M_\basis(\varphi) = I_n$. Sia $\basis = \{ \vv 1, \ldots, \vv n\}$. Se $f$ è ortogonale, allora
|
|
$[\v]_\basis^\top \, [\w]_\basis = [\v]_\basis^\top \, M_\basis(\varphi) [\w]_\basis = \varphi(\v, \w) =
|
|
\varphi(f(\v), f(\w)) = (M_\basis(f) [\v]_\basis)^\top \, M_\basis(\varphi) (M_\basis(f) [\w]_\basis) =
|
|
[\v]_\basis^\top M_\basis(f)^\top M_\basis(\varphi) M_\basis(f) [\w]_\basis = [\v]_\basis^\top M_\basis(f)^\top M_\basis(f) [\w]_\basis$. Allora, come visto nella proposizione precedente, si ricava che $M_\basis(f)^\top M_\basis(f) = I_n$. Dal momento che gli inversi sinistri sono anche inversi destri, $M_\basis(f)^\top M_\basis(f) = M_\basis(f) M_\basis(f)^\top = I_n$. \\
|
|
|
|
Se invece $M_\basis(f)^\top M_\basis(f) = M_\basis(f) M_\basis(f)^\top = I_n$, $\varphi(\v, \w) = [\v]_\basis^\top [\w]_\basis = [\v]_\basis^\top M_\basis(f)^\top M_\basis(f) [\w]_\basis =
|
|
(M_\basis(f) [\v]_\basis)^\top (M_\basis(f) [\w]_\basis) =$ $(M_\basis(f) [\v]_\basis)^\top M_\basis(\varphi) (M_\basis(f) [\w]_\basis) = \varphi(f(\v), f(\w))$, e quindi
|
|
$f$ è ortogonale.
|
|
\end{proof}
|
|
|
|
\begin{proposition}
|
|
Sia $(V, \varphi)$ uno spazio euclideo complesso e sia $\basis$ una base ortonormale di $V$. Allora $f \in \End(V)$ è hermitiano $\iff$ $M_\basis(f) = M_\basis(f)^*$ $\defiff$ $M_\basis(f)$ è hermitiana.
|
|
\end{proposition}
|
|
|
|
\begin{proof}
|
|
Si osserva che $M_\basis(\varphi) = I_n$. Sia $\basis = \{ \vv 1, \ldots, \vv n\}$. Se $f$ è hermitiano, allora $[\v]_\basis^* \, M_\basis(f) [\w]_\basis = [\v]_\basis^* M_\basis(\varphi) (M_\basis(f) [\w]_\basis) = \varphi(\v, f(\w)) = \varphi(f(\v), \w) = (M_\basis(f) [\v]_\basis)^* M_\basis(\varphi) [\w]_\basis = [\v]_\basis^* \, M_\basis(f)^* [\w]_\basis$. Allora, come visto nella proposizione precedente, si ricava che $M_\basis(f) = M_\basis(f)^*$.
|
|
|
|
Se invece $M_\basis(f)^* = M_\basis(f)$, $\varphi(\v, f(\w)) =$ $[\v]_\basis^* M_\basis(\varphi) (M_\basis(f) [\w]_\basis)$ $= [\v]_\basis^* M_\basis(f) [\w]_\basis$ $= [\v]_\basis^* M_\basis(f)^* [\w]_\basis = (M_\basis(f) [\v]_\basis)^* [\w]_\basis = (M_\basis(f) [\v]_\basis)^* M_\basis(\varphi) [\w]_\basis = \varphi(f(\v), \w)$, e quindi $f$ è hermitiano.
|
|
\end{proof}
|
|
|
|
\begin{proposition}
|
|
Sia $(V, \varphi)$ uno spazio euclideo complesso e sia $\basis$ una base ortonormale di $V$. Allora $f \in \End(V)$ è unitario $\iff$ $M_\basis(f) M_\basis(f)^* = M_\basis(f)^* M_\basis(f) = I_n$ $\defiff$ $M_\basis(f)$ è unitaria.
|
|
\end{proposition}
|
|
|
|
\begin{proof}
|
|
Si osserva che $M_\basis(\varphi) = I_n$. Sia $\basis = \{ \vv 1, \ldots, \vv n\}$. Se $f$ è unitario, allora
|
|
$[\v]_\basis^* \, [\w]_\basis = [\v]_\basis^* \, M_\basis(\varphi) [\w]_\basis = \varphi(\v, \w) =
|
|
\varphi(f(\v), f(\w)) = (M_\basis(f) [\v]_\basis)^* \, M_\basis(\varphi) (M_\basis(f) [\w]_\basis) =
|
|
[\v]_\basis^* M_\basis(f)^* M_\basis(\varphi) M_\basis(f) [\w]_\basis = [\v]_\basis^* M_\basis(f)^* M_\basis(f) [\w]_\basis$. Allora, come visto nella proposizione precedente, si ricava che $M_\basis(f)^* M_\basis(f) = I_n$. Dal momento che gli inversi sinistri sono anche inversi destri, $M_\basis(f)^* M_\basis(f) = M_\basis(f) M_\basis(f)^* = I_n$. \\
|
|
|
|
Se invece $M_\basis(f)^* M_\basis(f) = M_\basis(f) M_\basis(f)^* = I_n$, $\varphi(\v, \w) = [\v]_\basis^* [\w]_\basis = [\v]_\basis^* M_\basis(f)^* M_\basis(f) [\w]_\basis$ $=
|
|
(M_\basis(f) [\v]_\basis)^* (M_\basis(f) [\w]_\basis)$ $= (M_\basis(f) [\v]_\basis)^* M_\basis(\varphi) (M_\basis(f) [\w]_\basis) = \varphi(f(\v), f(\w))$, e quindi
|
|
$f$ è unitario.
|
|
\end{proof}
|
|
|
|
\begin{proposition}
|
|
Sia $V = \RR^n$ uno spazio vettoriale col prodotto scalare standard $\varphi$. Allora sono equivalenti i seguenti fatti:
|
|
|
|
\begin{enumerate}[(i)]
|
|
\item $A \in O_n$,
|
|
\item $f_A$ è un operatore ortogonale,
|
|
\item le colonne e le righe di $A$ formano una base ortonormale di $V$.
|
|
\end{enumerate}
|
|
\end{proposition}
|
|
|
|
\begin{proof}
|
|
Sia $\basis$ la base canonica di $V$. Allora $M_\basis(f_A) = A$, e quindi, per una proposizione
|
|
precedente, $f_A$ è un operatore ortogonale. Viceversa si deduce che se $f_A$ è un operatore ortogonale,
|
|
$A \in O_n$. Dunque è sufficiente dimostrare che $A \in O_n \iff$ le colonne e le righe di $A$ formano una
|
|
base ortonormale di $V$. \\
|
|
|
|
\rightproof Se $A \in O_n$, in particolare $A \in \GL(n, \RR)$, e quindi $A$ è invertibile. Allora le
|
|
sue colonne e le sue righe formano già una base di $V$, essendo $n$ vettori di $V$ linearmente indipendenti.
|
|
Inoltre, poiché $A \in O_n$, $\varphi(\e i, \e j) = \varphi(A \e i, A \e j)$, e quindi le colonne di $A$ si mantengono a due a due ortogonali tra di loro, mentre $\varphi(A \e i, A \e i) = \varphi(\e i, \e i) = 1$.
|
|
Pertanto le colonne di $A$ formano una base ortonormale di $V$. \\
|
|
|
|
Si osserva che anche $A^\top \in O_n$. Allora le righe di $A$, che non sono altro che
|
|
le colonne di $A^\top$, formano anch'esse una base ortonormale di $V$. \\
|
|
|
|
\leftproof Nel moltiplicare $A^\top$ con $A$ altro non si sta facendo che calcolare il prodotto
|
|
scalare $\varphi$ tra ogni riga di $A^\top$ e ogni colonna di $A$ , ossia $(A^* A)_{ij} = \varphi((A^\top)_i, A^j) = \varphi(A^i, A^j) = \delta_{ij}$.
|
|
Quindi $A^\top A = A A^\top = I_n$, da cui si deduce che $A \in O_n$.
|
|
\end{proof}
|
|
|
|
\begin{proposition}
|
|
Sia $V = \CC^n$ uno spazio vettoriale col prodotto hermitiano standard $\varphi$. Allora sono equivalenti i seguenti fatti:
|
|
|
|
\begin{enumerate}[(i)]
|
|
\item $A \in U_n$,
|
|
\item $f_A$ è un operatore unitario,
|
|
\item le colonne e le righe di $A$ formano una base ortonormale di $V$.
|
|
\end{enumerate}
|
|
\end{proposition}
|
|
|
|
\begin{proof}
|
|
Sia $\basis$ la base canonica di $V$. Allora $M_\basis(f_A) = A$, e quindi, per una proposizione
|
|
precedente, $f_A$ è un operatore unitario. Viceversa si deduce che se $f_A$ è un operatore unitario,
|
|
$A \in U_n$. Dunque è sufficiente dimostrare che $A \in U_n \iff$ le colonne e le righe di $A$ formano una
|
|
base ortonormale di $V$. \\
|
|
|
|
\rightproof Se $A \in U_n$, in particolare $A \in \GL(n, \RR)$, e quindi $A$ è invertibile. Allora le
|
|
sue colonne e le sue righe formano già una base di $V$, essendo $n$ vettori di $V$ linearmente indipendenti.
|
|
Inoltre, poiché $A \in U_n$, $\varphi(\e i, \e j) = \varphi(A \e i, A \e j)$, e quindi le colonne di $A$ si mantengono a due a due ortogonali tra di loro, mentre $\varphi(A \e i, A \e i) = \varphi(\e i, \e i) = 1$.
|
|
Pertanto le colonne di $A$ formano una base ortonormale di $V$. \\
|
|
|
|
Si osserva che anche $A^\top \in U_n$. Allora le righe di $A$, che non sono altro che
|
|
le colonne di $A^\top$, formano anch'esse una base ortonormale di $V$. \\
|
|
|
|
\leftproof Nel moltiplicare $A^*$ con $A$ altro non si sta facendo che calcolare il prodotto
|
|
hermitiano $\varphi$ tra ogni riga coniugata di $A^*$ e ogni colonna di $A$, ossia $(A^* A)_{ij} = \varphi((A^\top)_i, A^j) = \varphi(A^i, A^j) = \delta_{ij}$.
|
|
Quindi $A^* A = A A^* = I_n$, da cui si deduce che $A \in U_n$.
|
|
\end{proof}
|
|
|
|
\hr
|
|
|
|
\begin{note}
|
|
D'ora in poi, qualora non specificato diversamente, si assumerà che $V$ sia uno spazio
|
|
euclideo, reale o complesso.
|
|
\end{note}
|
|
|
|
\begin{definition} (norma)
|
|
Sia $(V, \varphi)$ un qualunque spazio euclideo. Si definisce \textbf{norma} la mappa
|
|
$\norm{\cdot} : V \to \RR^+$ tale che $\norm{\v} = \sqrt{\varphi(\v, \v)}$.
|
|
\end{definition}
|
|
|
|
\begin{definition} (distanza tra due vettori)
|
|
Sia $(V, \varphi)$ un qualunque spazio euclideo. Si definisce \textbf{distanza} la mappa
|
|
$d : V \times V \to \RR^+$ tale che $d(\v, \w) = \norm{\v - \w}$.
|
|
\end{definition}
|
|
|
|
\begin{remark}\nl
|
|
\li Si osserva che in effetti $\varphi(\v, \v) \in \RR^+$ $\forall \v \in V$. Infatti, sia
|
|
per il caso reale che per il caso complesso, $\varphi$ è definito positivo. \\
|
|
\li Vale che $\norm{\v} = 0 \iff \v = \vec 0$. Infatti, se $\v = \vec 0$, chiaramente
|
|
$\varphi(\v, \v) = 0 \implies \norm{\v} = 0$; se invece $\norm{\v} = 0$,
|
|
$\varphi(\v, \v) = 0$, e quindi $\v = \vec 0$, dacché $V^\perp = \zerovecset$, essendo
|
|
$\varphi$ definito positivo. \\
|
|
\li Inoltre, vale chiaramente che $\norm{\alpha \v} = \abs{\alpha} \norm{\v}$.
|
|
\end{remark}
|
|
|
|
\begin{proposition} (disuguaglianza di Cauchy-Schwarz)
|
|
Vale che $\norm{\v} \norm{\w} \geq \abs{\varphi(\v, \w)}$, $\forall \v$, $\w \in V$, dove
|
|
l'uguaglianza è raggiunta soltanto se $\v$ e $\w$ sono linearmente dipendenti.
|
|
\end{proposition}
|
|
|
|
\begin{proof}
|
|
Si consideri innanzitutto il caso $\KK = \RR$, e quindi il caso in cui $\varphi$ è
|
|
il prodotto scalare standard. Siano $\v$, $\w \in V$.
|
|
Si consideri la disuguaglianza $\norm{\v + t\w}^2 \geq 0$, valida
|
|
per ogni elemento di $V$. Allora $\norm{\v + t \w}^2 = \norm{\v}^2 + 2 \varphi(\v, \w) t + \norm{\w}^2 t^2 \geq 0$. L'ultima disuguaglianza è possibile se e solo se $\frac{\Delta}{4} \leq 0$, e quindi se e solo
|
|
se $\varphi(\v, \w)^2 - \norm{\v}^2 \norm{\w}^2 \leq 0 \iff \norm{\v} \norm{\w} \geq \varphi(\v, \w)$.
|
|
Vale in particolare l'equivalenza se e solo se $\norm{\v + t\w} = 0$, ossia se $\v + t\w = \vec 0$, da cui
|
|
la tesi. \\
|
|
|
|
Si consideri ora il caso $\KK = \CC$, e dunque il caso in cui $\varphi$ è il prodotto hermitiano
|
|
standard. Siano $\v$, $\w \in V$, e siano $\alpha$, $\beta \in \CC$. Si consideri allora
|
|
la disuguaglianza $\norm{\alpha \v + \beta \w}^2 \geq 0$, valida per ogni elemento di $V$. Allora
|
|
$\norm{\alpha \v + \beta \w}^2 = \norm{\alpha \v}^2 + \varphi(\alpha \v, \beta \w) + \varphi(\beta \w, \alpha \v) + \norm{\beta \w}^2 = \abs{\alpha}^2 \norm{\v}^2 + \conj{\alpha} \beta \, \varphi(\v, \w) +
|
|
\alpha \conj{\beta} \, \varphi(\w, \v) + \abs{\beta}^2 \norm{\w}^2 \geq 0$. Ponendo allora
|
|
$\alpha = \norm{\w}^2$ e $\beta = -\varphi(\w, \v) = \conj{-\varphi(\v, \w)}$, si deduce che:
|
|
|
|
\[ \norm{\v}^2 \norm{\w}^4 - \norm{\w}^2 \abs{\varphi(\v, \w)} \geq 0. \]
|
|
|
|
\vskip 0.05in
|
|
|
|
Se $\w = \vec 0$, la disuguaglianza di Cauchy-Schwarz è già dimostrata. Altrimenti, è sufficiente
|
|
dividere per $\norm{\w}^2$ (dal momento che $\w \neq \vec 0 \iff \norm{\w} \neq 0$) per ottenere
|
|
la tesi. Come prima, is osserva che l'uguaglianza si ottiene se e solo se $\v$ e $\w$ sono
|
|
linearmente dipendenti.
|
|
\end{proof}
|
|
|
|
\begin{proposition} (disuguaglianza triangolare)
|
|
$\norm{\v + \w} \leq \norm{\v} + \norm{\w}$.
|
|
\end{proposition}
|
|
|
|
\begin{proof}
|
|
Si osserva che $\norm{\v + \w}^2 = \norm{\v}^2 + \varphi(\v, \w) + \varphi(\w, \v) + \norm{\w}^2$.
|
|
Se $\varphi$ è il prodotto scalare standard, si ricava che:
|
|
\[ \norm{\v + \w}^2 = \norm{\v}^2 + 2 \varphi(\v, \w) + \norm{\w}^2
|
|
\leq \norm{\v}^2 + 2 \norm{\v} \norm{\w} + \norm{\w}^2 =
|
|
(\norm{\v} + \norm{\w})^2,\]
|
|
|
|
dove si è utilizzata la disuguaglianza di Cauchy-Schwarz. Da quest'ultima disuguaglianza si ricava, prendendo la radice quadrata, la disuguaglianza
|
|
desiderata. \\
|
|
|
|
Se invece $\varphi$ è il prodotto hermitiano standard, $\norm{\v + \w}^2 = \norm{\v}^2 + 2 \, \Re(\varphi(\v, \w)) + \norm{\w}^2 \leq \norm{\v}^2 + 2 \abs{\varphi(\v, \w)} + \norm{\w}^2$. Allora, riapplicando
|
|
la disuguaglianza di Cauchy-Schwarz, si ottiene che:
|
|
|
|
\[ \norm{\v + \w}^2 \leq (\norm{\v} + \norm{\w})^2, \]
|
|
|
|
da cui, come prima, si ottiene la disuguaglianza desiderata.
|
|
\end{proof}
|
|
|
|
\begin{remark}
|
|
Utilizzando il concetto di norma euclidea, si possono ricavare due teoremi fondamentali della geometria,
|
|
e già noti dalla geometria euclidea. \\
|
|
|
|
\li Se $\v \perp \w$, allora $\norm{\v + \w}^2 = \norm{\v}^2 + \overbrace{(\varphi(\v, \w) + \varphi(\w, \v))}^{=\,0} + \norm{\w}^2 = \norm{\v}^2 + \norm{\w}^2$ (teorema di Pitagora), \\
|
|
\li Se $\norm{\v} = \norm{\w}$ e $\varphi$ è un prodotto scalare, allora $\varphi(\v + \w, \v - \w) = \norm{\v}^2 - \varphi(\v, \w) + \varphi(\w, \v) - \norm{\w}^2 = \norm{\v}^2 - \norm{\w}^2 = 0$, e quindi
|
|
$\v + \w \perp \v - \w$ (le diagonali di un rombo sono ortogonali tra loro).
|
|
\end{remark}
|
|
|
|
\begin{remark}
|
|
Sia $\basis = \{ \vv 1, \ldots, \vv n \}$ è una base ortogonale di $V$ per $\varphi$. \\
|
|
|
|
\li Se $\v = a_1 \vv 1 + \ldots + a_n \vv n$, con $a_1$, ..., $a_n \in \KK$, si osserva
|
|
che $\varphi(\v, \vv i) = a_i \varphi(\vv i, \vv i)$. Quindi $\v = \sum_{i=1}^n \frac{\varphi(\v, \vv i)}{\varphi(\vv i, \vv i)} \, \vv i$. In particolare, $\frac{\varphi(\v, \vv i)}{\varphi(\vv i, \vv i)}$ è
|
|
detto \textbf{coefficiente di Fourier} di $\v$ rispetto a $\vv i$, e si indica con $C(\v, \vv i)$. Se $\basis$ è ortonormale,
|
|
$\v = \sum_{i=1}^n \varphi(\v, \vv i) \, \vv i$. \\
|
|
\li Quindi $\norm{\v}^2 = \varphi(\v, \v) = \sum_{i=1}^n \frac{\varphi(\v, \vv i)^2}{\varphi(\vv i, \vv i)}$. In
|
|
particolare, se $\basis$ è ortonormale, $\norm{\v}^2 = \sum_{i=1}^n \varphi(\v, \vv i)^2$. In tal caso,
|
|
si può esprimere la disuguaglianza di Bessel: $\norm{\v}^2 \geq \sum_{i=1}^k \varphi(\v, \vv i)^2$ per $k \leq n$.
|
|
\end{remark}
|
|
|
|
\begin{remark} (algoritmo di ortogonalizzazione di Gram-Schmidt)
|
|
Se $\varphi$ è non degenere (o in generale, se $\CI(\varphi) = \zerovecset$) ed è
|
|
data una base $\basis = \{ \vv 1, \ldots, \vv n \}$ per $V$ (dove si ricorda che deve valere
|
|
$\Char \KK \neq 2$), è possibile
|
|
applicare l'\textbf{algoritmo di ortogonalizzazione di Gram-Schmidt} per ottenere
|
|
da $\basis$ una nuova base $\basis' = \{ \vv 1', \ldots, \vv n' \}$ con le seguenti proprietà:
|
|
|
|
\begin{enumerate}[(i)]
|
|
\item $\basis'$ è una base ortogonale,
|
|
\item $\basis'$ mantiene la stessa bandiera di $\basis$ (ossia $\Span(\vv 1, \ldots, \vv i) = \Span(\vv 1', \ldots, \vv i')$ per ogni $1 \leq i \leq n$).
|
|
\end{enumerate}
|
|
|
|
L'algoritmo si applica nel seguente modo: si prenda in considerazione $\vv 1$ e sottragga ad ogni altro vettore
|
|
della base il vettore $C(\vv 1, \vv i) \vv 1 = \frac{\varphi(\vv 1, \vv i)}{\varphi(\vv 1, \vv 1)} \vv 1$,
|
|
rendendo ortogonale ogni altro vettore della base con $\vv 1$. Pertanto si applica la mappa
|
|
$\vv i \mapsto \vv i - \frac{\varphi(\vv 1, \vv i)}{\varphi(\vv 1, \vv 1)} \vv i = \vv i ^{(1)}$.
|
|
Si verifica infatti che $\vv 1$ e $\vv i ^{(1)}$ sono ortogonali per $2 \leq i \leq n$:
|
|
|
|
\[ \varphi(\vv 1, \vv i^{(1)}) = \varphi(\vv 1, \vv i) - \varphi\left(\vv 1, \frac{\varphi(\vv 1, \vv i)}{\varphi(\vv 1, \vv 1)} \vv i\right) = \varphi(\vv 1, \vv i) - \varphi(\vv 1, \vv i) = 0. \]
|
|
|
|
Poiché $\vv 1$ non è isotropo, si deduce la decomposizione $V = \Span(\vv 1) \oplus \Span(\vv 1)^\perp$.
|
|
In particolare $\dim \Span(\vv 1)^\perp = n-1$: essendo allora i vettori $\vv 2 ^{(1)}, \ldots, \vv n ^{(1)}$
|
|
linearmente indipendenti e appartenenti a $\Span(\vv 1)^\perp$, ne sono una base. Si conclude quindi
|
|
che vale la seguente decomposizione:
|
|
|
|
\[ V = \Span(\vv 1) \oplus^\perp \Span(\vv 2 ^{(1)}, \ldots, \vv n ^{(1)}). \]
|
|
|
|
\vskip 0.05in
|
|
|
|
Si riapplica dunque l'algoritmo di Gram-Schmidt prendendo come spazio vettoriale lo spazio generato dai
|
|
vettori a cui si è applicato precedentemente l'algoritmo, ossia $V' = \Span(\vv 2 ^{(1)}, \ldots, \vv n ^{(1)})$,
|
|
fino a che non si ottiene $V' = \zerovecset$. \\
|
|
|
|
Si può addirittura ottenere una base ortonormale a partire da $\basis'$ normalizzando ogni vettore (ossia
|
|
dividendo per la propria norma), se si sta considerando uno spazio euclideo.
|
|
\end{remark}
|
|
|
|
\begin{remark}
|
|
Poiché la base ottenuta tramite Gram-Schmidt mantiene la stessa bandiera della base di partenza,
|
|
ogni matrice triangolabile è anche triangolabile mediante una base ortogonale.
|
|
\end{remark}
|
|
|
|
\begin{example}
|
|
Si consideri $V = (\RR^3, \innprod{\cdot})$, ossia di $\RR^3$ dotato del prodotto scalare standard, e
|
|
si applichi l'algoritmo di ortogonalizzazione di Gram-Schmidt sulla seguente base:
|
|
|
|
\[ \basis = \Biggl\{ \underbrace{\Vector{1 \\ 0 \\ 0}}_{\vv 1 \, = \, \e1}, \underbrace{\Vector{1 \\ 1 \\ 0}}_{\vv 2}, \underbrace{\Vector{1 \\ 1 \\ 1}}_{\vv 3} \Biggl\} \]
|
|
|
|
\vskip 0.05in
|
|
|
|
Alla prima iterazione dell'algoritmo si ottengono i seguenti vettori:
|
|
|
|
\begin{itemize}
|
|
\item $\vv 2 ^{(1)} = \vv 2 - \frac{\varphi(\vv 1, \vv 2)}{\varphi(\vv 1, \vv 1)} \vv 1 = \vv 2 - \vv 1 = \Vector{0 \\ 1 \\ 0} = \e 2$,
|
|
\item $\vv 3 ^{(1)} = \vv 3 - \frac{\varphi(\vv 1, \vv 3)}{\varphi(\vv 1, \vv 1)} \vv 1 = \vv 3 - \vv 1 = \Vector{0 \\ 1 \\ 1}$.
|
|
\end{itemize}
|
|
|
|
Si considera ora $V' = \Span(\vv 2 ^{(1)}, \vv 3 ^{(1)})$. Alla seconda iterazione dell'algoritmo si
|
|
ottiene allora il seguente vettore:
|
|
|
|
\begin{itemize}
|
|
\item $\vv 3 ^{(2)} = \vv 3 ^{(1)} - \frac{\varphi(\vv 2 ^{(1)}, \vv 3 ^{(1)})}{\varphi(\vv 2 ^{(1)}, \vv 2 ^{(1)})} \vv 2 ^{(1)} = \vv 3 ^{(1)} - \vv 2 ^{(1)} = \Vector{0 \\ 0 \\ 1} = \e 3$.
|
|
\end{itemize}
|
|
|
|
Quindi la base ottenuta è $\basis' = \{\e1, \e2, \e3\}$, ossia la base canonica di $\RR^3$, già
|
|
ortonormale.
|
|
\end{example}
|
|
\end{document} |