mirror of https://github.com/hearot/notes
You cannot select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
1862 lines
93 KiB
TeX
1862 lines
93 KiB
TeX
\documentclass[10pt,landscape]{article}
|
|
\usepackage{amssymb,amsmath,amsthm,amsfonts}
|
|
\usepackage{multicol,multirow}
|
|
\usepackage{marvosym}
|
|
\usepackage{calc}
|
|
\usepackage{ifthen}
|
|
\usepackage[landscape]{geometry}
|
|
\usepackage[colorlinks=true,citecolor=blue,linkcolor=blue]{hyperref}
|
|
\usepackage{personal_commands}
|
|
|
|
\setlength{\extrarowheight}{0pt}
|
|
|
|
\ifthenelse{\lengthtest { \paperwidth = 11in}}
|
|
{ \geometry{top=.5in,left=.5in,right=.5in,bottom=.5in} }
|
|
{\ifthenelse{ \lengthtest{ \paperwidth = 297mm}}
|
|
{\geometry{top=1cm,left=1cm,right=1cm,bottom=1cm} }
|
|
{\geometry{top=1cm,left=1cm,right=1cm,bottom=1cm} }
|
|
}
|
|
%\pagestyle{empty}
|
|
\makeatletter
|
|
\renewcommand{\section}{\@startsection{section}{1}{0mm}%
|
|
{-1ex plus -.5ex minus -.2ex}%
|
|
{0.5ex plus .2ex}%x
|
|
{\normalfont\large\bfseries}}
|
|
\renewcommand{\subsection}{\@startsection{subsection}{2}{0mm}%
|
|
{-1explus -.5ex minus -.2ex}%
|
|
{0.5ex plus .2ex}%
|
|
{\normalfont\normalsize\bfseries}}
|
|
\renewcommand{\subsubsection}{\@startsection{subsubsection}{3}{0mm}%
|
|
{-1ex plus -.5ex minus -.2ex}%
|
|
{1ex plus .2ex}%
|
|
{\normalfont\small\bfseries}}
|
|
\makeatother
|
|
\setcounter{secnumdepth}{0}
|
|
\setlength{\parindent}{0pt}
|
|
\setlength{\parskip}{0pt plus 0.5ex}
|
|
% -----------------------------------------------------------------------
|
|
|
|
\title{Schede riassuntive di Geometria 1}
|
|
|
|
\begin{document}
|
|
|
|
\parskip=0.7ex
|
|
|
|
\raggedright
|
|
\footnotesize
|
|
|
|
\begin{center}
|
|
\Large{\textbf{Schede riassuntive di Geometria 1}} \\
|
|
\end{center}
|
|
\begin{multicols}{3}
|
|
\setlength{\premulticols}{1pt}
|
|
\setlength{\postmulticols}{1pt}
|
|
\setlength{\multicolsep}{1pt}
|
|
\setlength{\columnsep}{2pt}
|
|
|
|
\subsection{Alcuni accenni alla geometria di \texorpdfstring{$\RR^3$}{R\^{}3}}
|
|
|
|
Si definisce prodotto scalare la forma
|
|
bilineare simmetrica unicamente determinata da $\innprod{\vec{e_i}, \vec{e_j}} = \delta_{ij}$. Vale la seguente identità: $\innprod{(x, y, z), (x', y', z')} = xx' + yy' + zz'$.
|
|
|
|
Inoltre $\innprod{\vec{a}, \vec{b}} = \card{\vec{a}} \card{\vec{b}} \cos(\theta)$, dove $\theta$ è l'angolo compreso tra i due vettori.
|
|
Due vettori $\vec{a}$, $\vec{b}$ si dicono ortogonali
|
|
se e solo se $\innprod{\vec{a}, \vec{b}} = 0$.
|
|
|
|
Si definisce prodotto vettoriale la forma bilineare alternante
|
|
da $\RR^3 \times \RR^3$
|
|
in $\RR^3$ tale che $\vec{e_1} \times \vec{e_2} = \vec{e_3}$,
|
|
$\vec{e_2} \times \vec{e_3} = \vec{e_1}$,
|
|
$\vec{e_3} \times \vec{e_1} = \vec{e_2}$ e
|
|
$\vec{e_i} \times \vec{e_i} = \vec{0}$. Dati due
|
|
vettori $(x, y, z)$ e $(x', y', z')$, si può determinarne
|
|
il prodotto vettoriale informalmente come:
|
|
|
|
\[ \begin{vmatrix}
|
|
\vec{e_1} & \vec{e_2} & \vec{e_3} \\
|
|
x & y & z \\
|
|
x' & y' & z'
|
|
\end{vmatrix} . \]
|
|
|
|
Vale l'identità $\card{\vec{a} \times \vec{b}} = \card{\vec{a}} \card{\vec{b}} \sin(\theta)$, dove $\theta$ è l'angolo con cui, ruotando di
|
|
$\theta$ in senso antiorario $\vec{a}$, si ricade su $\vec{b}$.
|
|
Due vettori $\vec{a}$, $\vec{b}$ si dicono paralleli se $\exists
|
|
k \mid \vec{a} = k \vec{b}$, o equivalentemente se
|
|
$\vec{a} \times \vec{b} = \vec{0}$. Altrettanto si può dire
|
|
se $\innprod{\vec{a}, \vec{b}} = \card{\vec{a}} \card{\vec{b}}$ (i.e.
|
|
$\cos(\theta) = 1 \implies \theta = 0$).
|
|
|
|
Una retta in $\RR^3$ è un sottospazio affine della
|
|
forma $\vec{v} + \Span(\vec{r})$. Analogamente
|
|
un piano è della forma $\vec{v} + \Span(\vec{x}, \vec{y})$.
|
|
|
|
Nella forma cartesiana, un piano è della forma $ax+by+cz=d$,
|
|
dove $(a,b,c)$ è detta normale del piano. Una retta è
|
|
l'intersezione di due piani, e dunque è un sistema lineare
|
|
di due equazioni di un piano. Due piani sono perpendicolari
|
|
fra loro se e solo se le loro normali sono ortogonali. Due
|
|
piani sono paralleli se e solo se le loro normali sono parallele.
|
|
Il vettore $\vec{r}$ che genera lo $\Span$ di una retta che è
|
|
intersezione di due piani può essere computato come
|
|
prodotto vettoriale delle normali dei due piani.
|
|
|
|
Valgono le seguenti identità:
|
|
|
|
\begin{itemize}
|
|
\item $\vec{a} \times (\vec{b} \times \vec{c}) =
|
|
\innprod{\vec{a}, \vec{c}}\,\vec{b} - \innprod{\vec{a}, \vec{b}}\,\vec{c}$ (\textit{identità di Lagrange}),
|
|
\item $\vec{a} \times (\vec{b} \times \vec{c}) + \vec{b} \times (\vec{c} \times \vec{a}) + \vec{c} \times (\vec{a} \times \vec{b}) =
|
|
\vec{0}$ (\textit{identità di Jacobi}).
|
|
\end{itemize}
|
|
|
|
Dati tre punti $\vec{a}$, $\vec{b}$, $\vec{c}$, il volume
|
|
del parallelepipedo individuato da questi punti è:
|
|
|
|
\[\card{\det\begin{pmatrix}\vec{a} \\ \vec{b} \\ \vec{c}\end{pmatrix}} =
|
|
\card{\innprod{\vec{a}, \vec{b} \times \vec{c}}}.\]
|
|
|
|
Tre punti sono complanari se e solo se il volume di tale parallelpipedo è nullo
|
|
(infatti questo è equivalente a dire che almeno uno dei tre punti
|
|
si scrive come combinazione lineare degli altri due).
|
|
|
|
|
|
\subsection{Proprietà generali di uno spazio vettoriale}
|
|
|
|
Uno spazio vettoriale $V$ su un campo $\KK$ soddisfa i seguenti
|
|
assiomi:
|
|
|
|
\begin{itemize}
|
|
\item $(V, +)$ è un gruppo abeliano,
|
|
\item il prodotto esterno da $\KK \times V$ in $V$ è
|
|
associativo rispetto agli scalari (i.e. $a(b\vec{v}) = (ab)\vec{v}$),
|
|
\item $1_{\KK} \cdot \vec{v} = \vec{v}$,
|
|
\item il prodotto esterno è distributivo da ambo i
|
|
lati (i.e. $(a+b)\vec{v} = a\vec{v} + b\vec{v}$ e
|
|
$a(\vec{v} + \vec{w}) = a\vec{v} + a\vec{w}$.
|
|
\end{itemize}
|
|
|
|
Un insieme di vettori $I$ si dice linearmente indipendente se
|
|
una qualsiasi combinazione lineare di un suo sottinsieme
|
|
finito è nulla se e solo se i coefficienti dei vettori
|
|
sono tutti nulli. Si dice linearmente dipendente in caso
|
|
contrario.
|
|
|
|
Un insieme di vettori $G$ si dice generatore di $V$ se ogni vettore
|
|
di $V$ si può scrivere come combinazione lineare di un numero
|
|
finito di elementi di $G$, ossia se $V = \Span(G)$.
|
|
|
|
Una base è un insieme contemporaneamente linearmente indipendente
|
|
e generatore di $V$. Equivalentemente una base è un insieme generatore
|
|
minimale rispetto all'inclusione e un insieme linearmente indipendente
|
|
massimale, sempre rispetto all'inclusione. Ogni spazio vettoriale,
|
|
anche quelli non finitamente generati,
|
|
ammettono una base. La dimensione della base è unica ed è il
|
|
numero di elementi dell'insieme che è base.
|
|
|
|
Dato un insieme linearmente indipendente $I$ in uno spazio di dimensione
|
|
finita, tale insieme, data una base $\basis$, può essere esteso
|
|
a una base $T$ che contiene $I$ e che è completato da
|
|
elementi di $\basis$.
|
|
|
|
Analogamente, dato un insieme generatore finito $G$, da esso
|
|
si può estrarre sempre una base dello spazio.
|
|
|
|
Uno spazio vettoriale fondato su un campo infinito
|
|
con un insieme di vettori infinito non
|
|
è mai unione finita di sottospazi propri. Un insieme linearmente
|
|
indipendente di $V$ con esattamente $\dim V$ elementi è una
|
|
base di $V$. Analogamente, un insieme generatore di $V$ con esattamente
|
|
$\dim V$ elementi è una base di $V$.
|
|
|
|
Sia $\basis = \{\vec{v_1}, \ldots, \vec{v_n}\}$ una base ordinata dello spazio vettoriale $V$.
|
|
|
|
\begin{itemize}
|
|
\item $\zerovecset$ e $V$ sono detti sottospazi banali,
|
|
\item lo $\Span$ di $n$ vettori è il più piccolo sottospazio
|
|
di $V$ contenenti tali vettori,
|
|
\item $\Span(\basis) = V$,
|
|
\item $\Span(\emptyset) = \zerovecset$,
|
|
\item dato $X$ generatore di $V$, $X \setminus \{\vec{x_0}\}$
|
|
genera $V \iff \vec{x_0} \in \Span(X \setminus \{\vec{x_0}\})$,
|
|
\item $X \subseteq Y$ è un sottospazio di $Y \iff \Span(X) = X$,
|
|
\item $\Span(X) \subseteq Y \iff X \subseteq Y$, se $Y$ è uno spazio,
|
|
\item $\Span(\Span(A)) = \Span(A)$,
|
|
\item se $I$ è un insieme linearmente indipendente di $V$,
|
|
allora $\card{I} \leq \dim V$,
|
|
\item se $G$ è un insieme generatore di $V$, allora
|
|
$\card{G} \geq \dim V$,
|
|
\item $[\vec{v}]_\basis$ è la rappresentazione
|
|
di $\vec{v}$ nella base ordinata $\basis$, ed è
|
|
un vettore di $\KK^n$ che alla coordinata $i$-esima
|
|
associa il coefficiente di $\vec{v_i}$ nella combinazione
|
|
lineare di $\vec{v}$ nella base $\basis$,
|
|
\item la rappresentazione nella base $\basis$ è sempre
|
|
unica ed esiste sempre (è quindi un isomorfismo tra $V$ e
|
|
$\KK^n$),
|
|
\item si definisce base canonica di $\KK^n$ la base
|
|
$e = \{\vec{e_1}, \ldots, \vec{e_n}\}$, dove
|
|
$\vec{e_i}$ è un vettore con tutte le coordinate nulle,
|
|
eccetto per la $i$-esima, che è pari ad $1$ (pertanto
|
|
$\dim \KK^n = n$),
|
|
\item una base naturale di $M(m, n, \KK)$ è data
|
|
da $\basis = \{E_{11}, E_{12}, \ldots, E_{1n}, \ldots, E_{mn}\}$,
|
|
dove $E_{ij}$ è una matrice con tutti gli elementi nulli, eccetto
|
|
quello nel posto $(i, j)$, che è pari ad $1$ (dunque
|
|
$\dim M(m, n, \KK) = mn$),
|
|
\item le matrici $A$ di taglia $n$ tali che $A^\top = A$ formano il
|
|
sottospazio $\Sym(n, \KK)$ di $M(n, \KK)$, detto sottospazio delle matrici
|
|
simmetriche, la cui base naturale è data da
|
|
$\basis' = \{E_{ij} + E_{ji} \in \basis \mid i < j\} \cup
|
|
\{E_{ij} \in \basis \mid i = j\}$, dove $\basis$ è la
|
|
base naturale di $M(m, n, \KK)$ (dunque $\dim \Sym(n, \KK) = \frac{n(n+1)}{2}$),
|
|
\item le matrici $A$ di taglia $n$ tali che $A^\top = -A$ formano il
|
|
sottospazio $\Lambda(n, \KK)$ di $M(n, \KK)$, detto sottospazio delle matrici
|
|
antisimmetriche, la cui base naturale è data da
|
|
$\basis' = \{E_{ij} - E_{ji} \in \basis \mid i < j\}$, dove $\basis$ è la
|
|
base naturale di $M(m, n, \KK)$ (dunque $\dim \Lambda(n, \KK) = \frac{n(n-1)}{2}$),
|
|
\item poiché $\Sym(n, \KK) \cap \Lambda(n, \KK) = \zerovecset$ e
|
|
$\dim \Sym(n, \KK) + \dim \Lambda(n, \KK) = \dim M(n, \KK)$,
|
|
vale che $M(n, \KK) = \Sym(n, \KK) \oplus \Lambda(n, \KK)$,
|
|
\item una base naturale di $\KK[x]$ è data da $\basis = \{x^n \mid
|
|
n \in \NN \}$, mentre una di $\KK_t[x]$ è data da $\basis \cap
|
|
\KK_t[x] = \{x^n \mid n \in \NN \land n \leq t\}$ (quindi
|
|
$\dim \KK[x] = \infty$ e $\dim \KK_t[x] = t+1$),
|
|
\item una base naturale di $\KK$ è $1_\KK = \{1_\KK\}$ (quindi
|
|
$\dim \KK = 1$),
|
|
\item un sottospazio di dimensione $1$ si definisce \textit{retta},
|
|
uno di dimensione $2$ \textit{piano}, uno di dimensione $3$
|
|
\textit{spazio}, e, infine, uno di dimensione $n-1$ un iperpiano,
|
|
\item un iperpiano $\Pi$ è sempre rappresentabile da un'equazione cartesiana
|
|
nelle coordinate della rappresentazione della base (infatti ogni
|
|
iperpiano è il kernel di un funzionale $f \in \dual{V}$, e $M^\basis_{1_\KK}(f) \, [\vec{v}]_\basis = 0$ è l'equazione cartesiana; è sufficiente prendere una base di $\Pi$ e completarla
|
|
a base di $V$ con un vettore $\vec{t}$, considerando infine
|
|
$\Ker \dual{\vec{t}}$).
|
|
|
|
\end{itemize}
|
|
|
|
\subsection{Applicazioni lineari, somme dirette, quozienti e
|
|
prodotti diretti}
|
|
|
|
Un'applicazione da $V$ in $W$ si dice applicazione lineare
|
|
se:
|
|
|
|
\begin{itemize}
|
|
\item $f(\vec{v} + \vec{w}) = f(\vec{v}) + f(\vec{w})$,
|
|
\item $f(\alpha\vec{v}) = \alpha f(\vec{v})$.
|
|
\end{itemize}
|
|
|
|
Si definisce $\mathcal{L}(V, W) \subseteq W^V$ come lo spazio delle
|
|
applicazioni lineari da $V$ a $W$. Si definisce
|
|
$\End(V)$ come lo spazio degli endomorfismi di $V$, ossia
|
|
delle applicazioni lineari da $V$ in $V$, dette anche
|
|
operatori. Un'applicazione lineare si dice isomorfismo
|
|
se è bigettiva. La composizione di funzioni è associativa.
|
|
|
|
Dato un sottospazio $A$ di $V$, si definisce lo spazio
|
|
quoziente $V/A$ come l'insieme quoziente $V/{\sim}$ della relazione
|
|
di equivalenza $\vec{a} \sim \vec{b} \iff a-b \in A$ dotato
|
|
dell'usuale somma e prodotto esterno. Si scrive $[\vec{v}]_A$
|
|
come $\vec{v} + A$ e vale che $A = \vec{0} + A$. In particolare
|
|
$\vec{v} + A = A \iff \vec{v} \in A$.
|
|
|
|
Siano $f : V \to W$, $h : V \to W$, $g : W \to Z$ tre
|
|
applicazioni lineari.
|
|
$\basis_V$ e $\basis_W$ sono
|
|
due basi rispettivamente di $V$ e $W$. In particolare
|
|
sia $\basis_V = \{\vec{v_1}, \ldots, \vec{v_n}\}$. Si
|
|
ricorda che $\rg(f) = \dim \Im f$. Siano $e$ ed $e'$ le
|
|
basi canoniche rispettivamente di $\KK^n$ e $\KK^m$.
|
|
|
|
\begin{itemize}
|
|
\item $f(\vec{0}_V) = \vec{0}_W$,
|
|
\item $\Ker f = f^{-1}(\vec{0}_W)$ è un sottospazio di $V$,
|
|
\item $\Im f = f(V)$ è un sottospazio di $W$,
|
|
\item $\Im f = \Span(f(\vec{v_1}), \ldots, f(\vec{v_n}))$,
|
|
\item $f$ è iniettiva $\iff \Ker f = \zerovecset$,
|
|
\item $V/\Ker f \cong \Im f$ (\textit{primo teorema d'isomorfismo}),
|
|
\item $\dim \Ker f + \dim \Im f = \dim V$ (\textit{teorema del rango}, o formula delle dimensioni,
|
|
valido se la dimensione di $V$ è finita),
|
|
\item $g \circ f$ è un'applicazione lineare da $V$ in $Z$,
|
|
\item la composizione di funzioni è associativa e distributiva
|
|
da ambo i lati,
|
|
\item $g \circ (\alpha f) = \alpha (g \circ f) = (\alpha g) \circ f$,
|
|
se $\alpha \in \KK$,
|
|
\item $\Ker f \subseteq \Ker (g \circ f)$,
|
|
\item $\Im (g \circ f) \subseteq \Im g$,
|
|
\item $\dim \Im (g \circ f) = \dim \Im \restr{g}{\Im f} =
|
|
\dim \Im f - \dim \Ker \restr{g}{\Im f} = \dim \Im f -
|
|
\dim (\Ker g \cap \Im f)$ (è sufficiente applicare la formula delle dimensioni sulla composizione),
|
|
\item $\dim \Im (g \circ f) \leq \min\{\dim \Im g, \dim \Im f\}$,
|
|
\item $\dim \Ker (g \circ f) \leq \dim \Ker g + \dim \Ker f$ (è
|
|
sufficiente applicare la formula delle dimensioni su
|
|
$\restr{(g \circ f)}{\Ker (g \circ f)}$),
|
|
\item $f$ iniettiva $\implies \dim V \leq \dim W$,
|
|
\item $f$ surgettiva $\implies \dim V \geq \dim W$,
|
|
\item $f$ isomorfismo $\implies \dim V = \dim W$,
|
|
\item $g \circ f$ iniettiva $\implies f$ iniettiva,
|
|
\item $g \circ f$ surgettiva $\implies g$ surgettiva,
|
|
\item $f$ surgettiva $\implies \rg(g \circ f) = \rg(g)$,
|
|
\item $g$ iniettiva $\implies \rg(g \circ f) = \rg(f)$,
|
|
\item $M^{\basis_V}_{\basis_W}(f) = \begin{pmatrix} \; [f(\vec{v_1})]_{\basis_W} \, \mid \, \cdots \, \mid \, [f(\vec{v_n})]_{\basis_W} \; \end{pmatrix}$ è la matrice
|
|
associata a $f$ sulle basi $\basis_V$, $\basis_W$,
|
|
\item $M^V_W(f + h) = M^V_W(f) + M^V_W(h)$,
|
|
\item $M^V_Z(g \circ f) = M^W_Z(g) M^V_W(f)$,
|
|
\item data $A \in M(m, n, \KK)$, sia $f_A : \KK^n \to \KK^m$ tale
|
|
che $f_A(\vec{x}) = A \vec{x}$, allora $M^{e}_{e'}(f_A) = A$,
|
|
\item $f$ è completamente determinata dai suoi valori in una
|
|
qualsiasi base di $V$ ($M^{\basis_V}_{\basis_W}$ è un isomorfismo
|
|
tra $\mathcal{L}(V, W)$ e $M(\dim W, \dim V, \mathbb{K})$),
|
|
\item $\dim \mathcal{L}(V, W) = \dim V \cdot \dim W$ (dall'isomorfismo
|
|
di sopra),
|
|
\item $[\,]^{-1}_{\basis_W} \circ M^{\basis_V}_{\basis_W}(f) \circ
|
|
{[\,]_{\basis_V}} = f$,
|
|
\item $[f(\vec{v})]_{\basis_W} = M^{\basis_V}_{\basis_W}(f) \cdot
|
|
[\vec{v}]_{\basis_V}$,
|
|
\item $\Im(f) = [\,]^{-1}_{\basis_W}\left(\Im M^{\basis_V}_{\basis_W}(f)\right)$
|
|
\item $\rg(f) = \rg\left(M^{\basis_V}_{\basis_W}(f)\right)$,
|
|
\item $\Ker(f) = [\,]^{-1}_{\basis_V}\left(\Ker M^{\basis_V}_{\basis_W}(f)\right)$,
|
|
\item $\dim \Ker(f) = \dim \Ker M^{\basis_V}_{\basis_W}(f)$.
|
|
\end{itemize}
|
|
|
|
Siano $\basis_V'$, $\basis_W'$ altre due basi rispettivamente
|
|
di $V$ e $W$. Allora vale il \textit{teorema del cambiamento
|
|
di base}:
|
|
|
|
\[ M^{\basis_V'}_{\basis_W'}(f) = M^{\basis_W}_{\basis_W'}(id_W) \,
|
|
M^{\basis_V}_{\basis_W}(f) \, M^{\basis_V'}_{\basis_V}(id_V).\]
|
|
|
|
Siano $A$ e $B$ due sottospazi di $V$. $\basis_A$ e $\basis_B$ sono
|
|
due basi rispettivamente di $A$ e $B$.
|
|
|
|
\begin{itemize}
|
|
\item $A+B = \{\vec{a}+\vec{b} \in V \mid \vec{a} \in A, \vec{b} \in
|
|
B\}$ è un sottospazio,
|
|
\item $\dim (A+B) = \dim A + \dim B - \dim (A \cap B)$
|
|
(\textit{formula di Grassmann}),
|
|
\item $A$ e $B$ sono in somma diretta $\iff A \cap B = \zerovecset \iff$ ogni elemento di $A+B$ si scrive in modo unico come somma di
|
|
$\vec{a} \in A$ e $\vec{b} \in B \iff \dim (A+B) = \dim A + \dim B$
|
|
(in tal caso si scrive $A+B = A\oplus B$),
|
|
\item $\dim V/A = \dim V - \dim A$ (è sufficiente applicare il
|
|
teorema del rango alla proiezione al quoziente),
|
|
\item $\dim V \times W = \dim V + \dim W$ ($\basis_V \times \{\vec{0}_W\} \cup \{\vec{0}_V\} \times \basis_W$ è una base
|
|
di $V \times W$).
|
|
\end{itemize}
|
|
|
|
Si definisce \textit{immersione} da $V$ in $V \times W$
|
|
l'applicazione lineare $i_V$ tale che $i_V(\vec{v}) = (\vec{v}, \vec{0})$.
|
|
Si definisce \textit{proiezione} da $V \times W$ in $V$
|
|
l'applicazione lineare $p_V$ tale che $p_V(\vec{v}, \vec{w}) = \vec{v}$.
|
|
Analogamente si può fare con gli altri spazi del prodotto cartesiano.
|
|
|
|
Si dice che $B$ è un supplementare di $A$ se $V = A \oplus B$ (ossia $\iff
|
|
\dim A + \dim B = \dim V \, \land \, A \cap B = \zerovecset$). Il supplementare
|
|
non è per forza unico. Per trovare un supplementare di $A$ è sufficiente
|
|
completare $\basis_A$ ad una base $\basis$ di $V$ e considerare
|
|
$B := \Span(\basis \setminus \basis_A)$.
|
|
|
|
\subsubsection{Somma diretta di più sottospazi}
|
|
|
|
Si dice che i sottospazi $W_1$, ..., $W_k$ di $V$ sono in somma
|
|
diretta, e si scrive $W_1 + \ldots + W_k = W_1 \oplus \ldots \oplus W_k$,
|
|
se la rappresentazione di un vettore della somma di questi sottospazi
|
|
è unica, ossia se esistono unici $\ww 1 \in W_1$, ..., $\ww k \in W_k$ tali
|
|
per cui $\w \in W_1 + \ldots + W_k$ si scrive come $\w = \ww 1 + \ldots + \ww k$. \\
|
|
|
|
In generale, sono equivalenti i seguenti fatti:
|
|
|
|
\begin{enumerate}[(i)]
|
|
\itemsep0em
|
|
\item $W_1$, ..., $W_k$ sono in somma diretta,
|
|
\item Se esistono $\ww 1 \in W_1$, ..., $\ww k \in W_k$ tali per cui
|
|
$\ww 1 + \ldots + \ww k = \vec 0$, allora $\ww 1 = \cdots = \ww k = \vec 0$ (è sufficiente considerare due scritture alternative e poi farne la differenza per dimostrare un'implicazione),
|
|
\item Se $\basis_{W_1}$, ..., $\basis_{W_k}$ sono basi di $W_1$, ..., $W_k$,
|
|
allora $\bigcup_{i=1}^k \basis_{W_i}$ è base di $W_1 + \ldots + W_k$ (è sufficiente considerare l'indipendenza lineare per dimostrare un'implicazione),
|
|
\item $\dim (W_1 + \ldots + W_k) = \dim W_1 + \ldots + \dim W_k$ (si dimostra facilmente che è equivalente a (iii), e quindi che lo è alle altre proposizioni),
|
|
\item $W_i \cap (W_1 + \ldots + W_{i-1}) = \zerovecset$ $\forall 2 \leq i \leq k$ (è sufficiente spezzare la somma in $(W_1 + \ldots + W_{i-1}) + W_i$ e ricondursi al caso di due sottospazi, mostrando in particolare, per induzione, l'equivalenza con (iv), da cui seguono le altre equivalenze),
|
|
\item $W_i \cap (W_1 + \ldots + W_{i-1} + \widehat{W_i} + W_{i+1} + W_k) = \zerovecset$ $\forall 1 \leq i \leq k$, ossia $W_i$, intersecato con la somma
|
|
dei restanti sottospazi, è di dimensione nulla (è facile ricondursi alla proposizione (v) per induzione).
|
|
\end{enumerate}
|
|
|
|
\subsection{Proprietà generali delle matrici}
|
|
|
|
Si dice che una matrice $A \in M(n, \KK)$ è singolare se $\det(A) = 0$,
|
|
o equivalentemente se non è invertibile. Compatibilmente, si
|
|
dice che una matrice $A \in M(n, \KK)$ è non singolare se $\det(A) \neq
|
|
0$, ossia se $A$ è invertibile.
|
|
|
|
Si definisce la matrice trasposta di
|
|
$A \in M(m, n, \KK)$, detta $A^\top$, in modo
|
|
tale che $A_{ij} = A^\top_{ji}$.
|
|
|
|
\begin{itemize}
|
|
\item $(AB)^\top = B^\top A^\top$,
|
|
\item $(A+B)^\top = A^\top + B^\top$,
|
|
\item $(\lambda A)^\top = \lambda A^\top$,
|
|
\item $(A^\top)^\top = A$,
|
|
\item se $A$ è invertibile, $(A^\top)^{-1} = (A^{-1})^\top$,
|
|
\item $ \begin{pmatrix}
|
|
A
|
|
& \rvline & B \\
|
|
\hline
|
|
C & \rvline &
|
|
D
|
|
\end{pmatrix}\begin{pmatrix}
|
|
E
|
|
& \rvline & F \\
|
|
\hline
|
|
G & \rvline &
|
|
H
|
|
\end{pmatrix}=\begin{pmatrix}
|
|
AE+BG
|
|
& \rvline & AF+BH \\
|
|
\hline
|
|
CE+DG & \rvline &
|
|
CF+DH
|
|
\end{pmatrix}$.
|
|
\end{itemize}
|
|
|
|
Siano $A \in M(m, n, \KK)$ e $B \in M(n, m, \KK)$.
|
|
|
|
Si definisce $\GL(n, \KK)$ come il gruppo delle matrici
|
|
di taglia $n$ invertibili sulla moltiplicazione matriciale. Si definisce
|
|
triangolare superiore una matrice i cui elementi al di sotto
|
|
della diagonale sono nulli, mentre si definisce triangolare
|
|
inferiore una matrice i cui elementi nulli sono quelli al di sopra
|
|
della diagonale.
|
|
|
|
Si definiscono
|
|
\[ Z(M(n, \KK)) = \left\{ A \in M(n, \KK) \mid AB=BA \, \forall B \in M(n, \KK) \right\}, \]
|
|
ossia l'insieme delle matrici che commutano con tutte le altre matrici, e
|
|
\[ Z_{\GL}(M(n, \KK)) = \left\{ A \in M(n, \KK) \mid AB=BA \, \forall B \in \GL(n, \KK) \right\}, \]
|
|
ovvero l'insieme delle matrici che commutano con tutte le matrici
|
|
di $\GL(n, \KK)$.
|
|
|
|
Si definisce $\tr \in M(m, \KK)^*$ come il funzionale che associa
|
|
ad ogni matrice la somma degli elementi sulla sua diagonale.
|
|
|
|
\begin{itemize}
|
|
\item $\tr(A^\top) = \tr(A)$,
|
|
\item $\tr(AB) = \tr(BA)$,
|
|
\item $Z(M(n, \KK)) = \Span(I_n)$,
|
|
\item $Z_{\GL}(M(n, \KK)) = \Span(I_n)$.
|
|
\end{itemize}
|
|
|
|
Sia $A \in M(n, \KK)$. Sia $C_A \in \End(M(n, \KK))$ definito in modo
|
|
tale che $C_A(B) = AB - BA$. Allora $\Ker C_A = M(n, \KK)
|
|
\iff A \in \Span(I_n)$. Siano $I$ un insieme di $n^2$ indici
|
|
distinti, allora l'insieme
|
|
|
|
\[ T = \left\{ A^i \mid i \in I \right\} \]
|
|
|
|
è linearmente dipendente (è sufficiente notare che
|
|
se così non fosse, se $A \notin \Span(I_n)$,
|
|
tale $T$ sarebbe base di $M(n, \KK)$, ma
|
|
così $\Ker C_A = M(n, \KK) \implies A \in \Span(I_n)$,
|
|
\Lightning{}, e che se $A \in \Span(I_n)$, $T$
|
|
è chiaramente linearmente dipendente).
|
|
|
|
In generale esiste sempre un polinomio $p(X) \in \KK[x]$
|
|
di grado $n$ tale per cui $p(A) = 0$, dove un tale polinomio
|
|
è per esempio il polinomio caratteristico di $p$, ossia $p(\lambda)=
|
|
\det(\lambda I_n - A)$ (\textit{teorema di
|
|
Hamilton-Cayley}).
|
|
|
|
\subsection{Rango di una matrice}
|
|
|
|
Si definisce rango di una matrice $A$ il numero di colonne linearmente
|
|
indipendenti di $A$. Siano $A$, $B \in M(m, n, \KK)$.
|
|
|
|
\begin{itemize}
|
|
\item $\rg(A) = \rg(A^\top)$ (i.e.~il rango è lo stesso se calcolato
|
|
sulle righe invece che sulle colonne),
|
|
\item $\rg(A) \leq \min\{m, n\}$ (come conseguenza dell'affermazione
|
|
precedente),
|
|
\item $\rg(A+B) \leq \rg(A) + \rg(B) \impliedby \Im (A+B) \subseteq
|
|
\Im(A) + \Im(B)$,
|
|
\item $\rg(A+B) = \rg(A) + \rg(B) \implies \Im(A+B) = \Im(A) \oplus \Im(B)$ (è sufficiente applicare la formula di Grassmann),
|
|
\item $\rg(A)$ è il minimo numero di matrici di rango uno che
|
|
sommate restituiscono $A$ (è sufficiente usare la proposizione
|
|
precedente per dimostrare che devono essere almeno $\rg(A)$),
|
|
\item $\rg(A)=1 \implies \exists B \in M(m, 1, \KK)$, $C \in M(1, n, \KK) \mid A=BC$ (infatti $A$ può scriversi come $\begin{pmatrix}[c|c|c]\alpha_1 A^i & \cdots & \alpha_n A^i \end{pmatrix}$ per un certo $i \leq n$ tale che $A^i \neq \vec{0}$).
|
|
\end{itemize}
|
|
|
|
Siano $A \in M(m, n, \KK)$, $B \in M(n, k, \KK)$ e $C \in M(k, t, \KK)$.
|
|
|
|
\begin{itemize}
|
|
\item $\rg(AB) \geq \rg(A) + \rg(B) - n$ (\textit{disuguaglianza
|
|
di Sylvester} -- è sufficiente
|
|
usare la formula delle dimensioni ristretta alla composizione
|
|
$f_A \circ f_B$),
|
|
\item $\rg(ABC) \geq \rg(AB) + \rg(BC) - \rg(B)$ (\textit{disuguaglianza di Frobenius}, di cui la proposizione
|
|
precedente è un caso particolare con $B = I_n$ e $k=n$),
|
|
\item $\rg(AB) = \rg(B) \impliedby \Ker A = \zerovecset$ (è
|
|
sufficiente usare la formula delle dimensioni ristretta
|
|
alla composizione $f_A \circ f_B$),
|
|
\item $\rg(AB) = \rg(A) \impliedby f_B$ surgettiva (come sopra).
|
|
\end{itemize}
|
|
|
|
Sia $A \in M(n, \KK)$.
|
|
|
|
\begin{itemize}
|
|
\item se $A$ è antisimmetrica e il campo su cui si fonda
|
|
lo spazio vettoriale non ha caratteristica $2$, allora
|
|
$\rg(A)$ è pari,
|
|
\item $\rg(A) = n \iff \dim \Ker A = 0 \iff \det(A) \neq 0 \iff A$ è invertibile,
|
|
\end{itemize}
|
|
|
|
\subsection{Sistemi lineari, algoritmo di eliminazione di Gauss ed
|
|
SD-equivalenza}
|
|
|
|
Un sistema lineare di $m$ equazioni in $n$ variabili può essere
|
|
rappresentato nella forma $A\vec{x} = B$, dove $A \in M(m, n, \KK)$,
|
|
$\vec{x} \in \KK^n$ e $B \in \KK^m$. Un sistema lineare si
|
|
dice omogeneo se $B = \vec{0}$. In tal caso l'insieme delle soluzioni del
|
|
sistema coincide con $\Ker A = \Ker f_A$, dove $f_A : \KK^n \to \KK^m$ è
|
|
l'applicazione lineare indotta dalla matrice $A$. Le soluzioni
|
|
di un sistema lineare sono raccolte nel sottospazio affine
|
|
$\vec{s} + \Ker A$, dove $\vec{s}$ è una qualsiasi soluzione
|
|
del sistema completo.
|
|
|
|
\begin{itemize}
|
|
\item $A\vec{x} = B$ ammette soluzione se e solo se
|
|
$B \in \Span(A^1, \ldots, A^n) \iff \Span(A^1, \ldots, A^n, B) =
|
|
\Span(A^1, \ldots, A^n) \iff \dim \Span(A^1, \ldots, A^n, B) =
|
|
\dim \Span(A^1, \ldots, A^n) \iff
|
|
\dim \Im (A \mid B) = \dim \Im A \iff \rg (A \mid B) = \rg (A)$
|
|
(\textit{teorema di Rouché-Capelli}),
|
|
\item $A\vec{x} = B$, se la ammette, ha un'unica soluzione
|
|
se e solo se $\Ker A = \zerovecset \iff \rg A = n$.
|
|
\end{itemize}
|
|
|
|
Si definiscono tre operazioni sulle righe di una matrice $A$:
|
|
|
|
\begin{enumerate}
|
|
\item l'operazione di scambio di riga,
|
|
\item l'operazione di moltiplicazione di una riga
|
|
per uno scalare non nullo,
|
|
\item la somma di un multiplo non nullo di una riga
|
|
ad un'altra riga distinta.
|
|
\end{enumerate}
|
|
|
|
Queste operazioni non variano né $\Ker A$ né $\rg (A)$. Si possono effettuare le stesse medesime operazioni
|
|
sulle colonne (variando tuttavia $\Ker A$, ma lasciando
|
|
invariato $\Im A$ -- e quindi $\rg (A)$). L'algoritmo di eliminazione di Gauss
|
|
procede nel seguente modo:
|
|
|
|
\begin{enumerate}
|
|
\item se $A$ ha una riga, l'algoritmo termina;
|
|
\item altrimenti si prenda la prima riga di $A$ con il primo elemento
|
|
non nullo e la si scambi con la prima riga di $A$ (in caso
|
|
non esista, si proceda all'ultimo passo),
|
|
\item per ogni riga di $A$ con primo elemento non nullo,
|
|
esclusa la prima, si sottragga un multiplo della prima riga in modo
|
|
tale che la riga risultante abbia il primo elemento nullo,
|
|
\item si ripeta l'algoritmo considerando come matrice $A$ la
|
|
matrice risultante dall'algoritmo senza la prima riga e la
|
|
prima colonna (in caso tale matrice non possa esistere,
|
|
l'algoritmo termina).
|
|
\end{enumerate}
|
|
|
|
Si definiscono \textit{pivot} di una matrice l'insieme dei primi
|
|
elementi non nulli di ogni riga della matrice.
|
|
Il rango della matrice iniziale $A$ è pari al numero di \textit{pivot}
|
|
della matrice risultante dall'algoritmo di eliminazione di Gauss.
|
|
Una matrice che processata dall'algoritmo di eliminazione di Gauss
|
|
restituisce sé stessa è detta matrice a scala.
|
|
|
|
Agendo solo attraverso
|
|
operazioni per riga, l'algoritmo di eliminazione di Gauss non
|
|
modifica $\Ker A$ (si può tuttavia integrare l'algoritmo con le
|
|
operazioni per colonna, perdendo quest'ultimo beneficio).
|
|
|
|
Agendo
|
|
su una matrice a scala con operazioni per riga considerando
|
|
la matrice riflessa (ossia dove l'elemento $(1, 1)$ e $(m, n)$ sono
|
|
scambiati), si può ottenere una matrice a scala ridotta,
|
|
ossia un matrice dove tutti i pivot sono $1$ e dove tutti
|
|
gli elementi sulle colonne dei pivot, eccetto i pivot stessi,
|
|
sono nulli.
|
|
|
|
Si definisce:
|
|
|
|
\[I^{m \times n}_r =
|
|
\begin{pmatrix}
|
|
I_r
|
|
& \rvline & \bigzero \\
|
|
\hline
|
|
\bigzero & \rvline &
|
|
\bigzero
|
|
\end{pmatrix} \in M(m, n, \KK). \]
|
|
|
|
Per ogni applicazione lineare $f : V \to W$, con $\dim V = n$ e
|
|
$\dim W = m$ esistono due basi $\basis_V$, $\basis_W$ rispettivamente
|
|
di $V$ e $W$ tale che $M^{\basis_V}_{\basis_W}(f) = I^{m \times n}_r$,
|
|
dove $r=\rg(f)$ (è sufficiente completare con $I$ a base di $V$ una base
|
|
di $\Ker f$ e poi prendere come base di $W$ il completamento di $f(I)$
|
|
su una base di $W$).
|
|
|
|
Si definisce SD-equivalenza la relazione d'equivalenza su
|
|
$M(m, n, \KK)$ indotta dalla relazione $A \sim_{SD} B \iff \exists P \in
|
|
\GL(m, \KK)$, $Q \in \GL(n, \KK) \mid A=PBQ$. L'invariante completo
|
|
della SD-equivalenza è il rango: $\rg(A) = \rg(B) \iff A \sim_{SD} B$
|
|
(infatti $\rg(A) = r \iff A \sim_{SD} I^{m \times n}_r$ -- è sufficiente
|
|
applicare il cambio di base e sfruttare il fatto che esistono
|
|
sicuramente due basi per cui $f_A$ ha $I^{m \times n}_r$ come
|
|
matrice associata).
|
|
|
|
Poiché $I^{m \times n}_r$ ha sempre rango $r$, l'insieme
|
|
quoziente della SD-equivalenza su $M(m, n, \KK)$ è il seguente:
|
|
|
|
\[ M(m, n, \KK)/{\sim_{SD}} = \left\{[\vec{0}], \left[I^{m \times n}_1\right], \ldots, \left[I^{m \times n}_{\min\{m, n\}}\right] \right\}, \]
|
|
|
|
contenente esattamente $\min\{m, n\}$ elementi. L'unico elemento
|
|
di $[\vec{0}]$ è $\vec{0}$ stesso.
|
|
|
|
\subsubsection{La regola di Cramer}
|
|
|
|
Qualora $m=n$ e $A$ fosse invertibile (i.e. $\det(A) \neq 0$),
|
|
per calcolare il valore di $\vec{x}$ si può applicare
|
|
la regola di Cramer.
|
|
|
|
Si definisce:
|
|
\[ A_i^* = \begin{pmatrix}
|
|
A^1 & \cdots & A^i \to B & \cdots & A^n
|
|
\end{pmatrix}, \]
|
|
|
|
dove si sostituisce alla $i$-esima colonna di $A$ il vettore $B$. Allora
|
|
vale la seguente relazione:
|
|
|
|
\[ \vec{x} = \frac{1}{\det(A)} \begin{pmatrix}
|
|
\det(A_1^*) \\ \vdots \\ \det(A_n^*)
|
|
\end{pmatrix}. \]
|
|
|
|
\subsection{L'inverso (generalizzato e non) di una matrice}
|
|
|
|
Si definisce matrice dei cofattori di una matrice $A \in M(n, \KK)$ la
|
|
seguente matrice:
|
|
|
|
\[ \Cof A = \begin{pmatrix}
|
|
\Cof_{1,1}(A) & \ldots & \Cof_{1,n}(A) \\
|
|
\vdots & \ddots & \vdots \\
|
|
\Cof_{n,1}(A) & \ldots & \Cof_{n,n}(A),
|
|
\end{pmatrix}, \]
|
|
|
|
dove, detta $A_{i,j}$ il minore di $A$ ottenuto eliminando
|
|
la $i$-esima riga e la $j$-esima colonna, si definisce il cofattore (o
|
|
complemento algebrico) nel seguente modo:
|
|
|
|
\[ \Cof_{i,j}(A) = (-1)^{i+j} \det( A_{i, j}). \]
|
|
|
|
Si definisce inoltre l'aggiunta classica:
|
|
|
|
\[ \adj(A) = (\Cof A)^\top. \]
|
|
|
|
Allora, se $A$ ammette un inverso (i.e. se $\det(A) \neq 0$),
|
|
vale la seguente relazione:
|
|
|
|
\[ A^{-1} = \frac{1}{\det(A)} \adj(A). \]
|
|
|
|
\vskip 0.05in
|
|
|
|
Quindi, per esempio, $A^{-1}$ è a coefficienti
|
|
interi $\iff \det(A) = \pm 1$.
|
|
|
|
Siano $A$, $B \in M(n, \KK)$.
|
|
|
|
\begin{itemize}
|
|
\item $\adj(AB) = \adj(B)\adj(A)$,
|
|
\item $\adj(A^\top) = \adj(A)^\top$.
|
|
\end{itemize}
|
|
|
|
Si definisce inverso generalizzato di una matrice $A \in M(m, n, \KK)$
|
|
una matrice $X \in M(n, m, \KK) \mid AXA=A$. Ogni matrice ammette
|
|
un inverso generalizzato (è sufficiente considerare gli inversi
|
|
generalizzati di $I^{m \times n}_r$ e la SD-equivalenza di $A$
|
|
con $I^{m \times n}_r$, dove $\rg(A)=r$). Se $m=n$ ed $A$ è invertibile, allora
|
|
$A^{-1}$ è l'unico inverso generalizzato di $A$. Gli inversi
|
|
generalizzati di $I^{m \times n}_r$ sono della forma:
|
|
|
|
\[X =
|
|
\begin{pmatrix}
|
|
I_r
|
|
& \rvline & B \\
|
|
\hline
|
|
C & \rvline &
|
|
D
|
|
\end{pmatrix} \in M(m, n, \KK). \]
|
|
|
|
\subsection{Endomorfismi e similitudine}
|
|
|
|
Si definisce la similitudine tra matrici su $M(n, \KK)$ come la relazione
|
|
di equivalenza determinata da $A \sim B \iff \exists P \in \GL(n, \KK)
|
|
\mid A = PBP^{-1}$. $A \sim B \implies \rg(A)=\rg(B)$, $\tr(A)=\tr(B)$,
|
|
$\det(A)=\det(B)$, $P_\lambda(A) = P_\lambda(B)$ (invarianti \textit{non completi} della similitudine).
|
|
Vale inoltre che $A \sim B \iff A$ e $B$ hanno la stessa forma
|
|
canonica di Jordan, a meno di permutazioni dei blocchi di Jordan
|
|
(invariante \textit{completo} della similitudine). La matrice
|
|
identità è l'unica matrice identica a sé stessa.
|
|
|
|
Sia $p \in \End(V)$. Si dice che un endomorfismo è un automorfismo
|
|
se è un isomorfismo. Gli automorfismi formano un sottospazio vettoriale
|
|
di $\End(V)$ denotato con $\Aut(V)$ o $\GL(V)$. Siano $\basis$, $\basis'$ due qualsiasi
|
|
basi di $V$.
|
|
|
|
\begin{itemize}
|
|
\item $p$ automorfismo $\iff p$ iniettivo $\iff p$ surgettivo (è
|
|
sufficiente applicare la formula delle dimensioni),
|
|
\item $M^\basis_{\basis'}(id_V) M^{\basis'}_\basis(id_V)
|
|
= I_n$ (dunque entrambe le matrici sono invertibili e sono
|
|
l'una l'inverso dell'altra),
|
|
\item se $p$ è un automorfismo, $M^\basis_{\basis'}(p^{-1}) =
|
|
M^{\basis'}_\basis(p)^{-1}$,
|
|
\item $M^\basis_{\basis}(p) = \underbrace{M^{\basis'}_\basis (id_V)}_{P} \,
|
|
M^{\basis'}_{\basis'}(p) \,
|
|
\underbrace{M^{\basis}_{\basis'} (id_V)}_{P^{-1}}$ (ossia
|
|
$M^\basis_{\basis}(p) \sim M^{\basis'}_{\basis'}(p)$).
|
|
\end{itemize}
|
|
|
|
$M^\basis_{\basis'}(id_V) M^{\basis'}_\basis(id_V)
|
|
= I_n$. Dunque entrambe le matrici sono invertibili. Inoltre
|
|
$M^\basis_\basis(id_V) = I_n$.
|
|
|
|
Si definisce un analogo della similitudine anche per gli endomorfismi:
|
|
due endomorfismi $f$, $g \in \End(V)$ si dicono coniugati se e solo se $\exists
|
|
h \in \GL(V) \mid f = h \, g \, h\inv$. Il coniugio induce in particolare
|
|
un'altra relazione di equivalenza. Due endomorfismi $f$ e $g$ sono coniugati
|
|
se e solo se le loro matrici associate nella stessa base $\basis$ sono simili.
|
|
|
|
\subsubsection{Duale, biduale e annullatore}
|
|
|
|
Si definisce duale di uno spazio vettoriale $V$ lo
|
|
spazio $\dual{V} = \mathcal{L}(V, \KK)$, i cui elementi
|
|
sono detti funzionali. Analogamente
|
|
il biduale è il duale del duale di $V$: $\bidual{V} = \dual{(\dual{V})} = \mathcal{L}(\dual{V}, \KK)$.
|
|
|
|
Sia data una base $\basis = \{\vec{v_1}, \ldots, \vec{v_n}\}$ di
|
|
uno spazio vettoriale $V$ di dimensione $n$. Allora $\dim \dual{V}
|
|
= \dim \mathcal{L}(V, \KK) = \dim V \cdot \dim \KK = \dim V$. Si definisce
|
|
il funzionale $\dual{\vec{v_i}}$ come l'applicazione lineare
|
|
univocamente determinata dalla relazione:
|
|
|
|
\[ \dual{\vec{v_i}}(\vec{v_j}) = \delta_{ij}. \]
|
|
|
|
\vskip 0.05in
|
|
|
|
Sia $\basis^* = \{\vec{v_1}^*, \ldots, \vec{v_n}^*\}$. Allora
|
|
$\basis^*$ è una base di $\dual{V}$. Poiché $V$ e $\dual{V}$
|
|
hanno la stesso dimensione, tali spazi sono isomorfi, sebbene
|
|
non canonicamente. Ciononostante, $V$ e $\bidual{V}$ sono
|
|
canonicamente isomorfi tramite l'isomorfismo:
|
|
|
|
\[ \bidual{\varphi} : V \to \bidual{V}, \; \vec{v} \mapsto \restr{\val}{\dual{V}}, \]
|
|
|
|
che associa ad ogni vettore $\vec{v}$ la funzione
|
|
di valutazione in una funzionale in $\vec{v}$, ossia:
|
|
|
|
\[ \restr{\val}{\dual{V}} : \dual{V} \to \KK, \; f \mapsto f(\vec{v}). \]
|
|
|
|
Sia $U \subseteq V$ un sottospazio di $V$.
|
|
Si definisce il sottospazio di $\mathcal{L}(V, W)$:
|
|
|
|
\[ \Ann_{\mathcal{L}(V, W)}(U) = \left\{ f \in \mathcal{L}(V, W) \mid f(U) = \zerovecset \right\}. \]
|
|
|
|
Se $V$ è a dimensione finita, la dimensione di
|
|
$\Ann(U)$ è pari a $(\dim V - \dim U) \cdot \dim W$ (è sufficiente
|
|
prendere una base di $U$, completarla a base di $V$ e
|
|
notare che $f(U) = \zerovecset \iff$ ogni valutazione
|
|
in $f$ degli elementi della base di $U$ è nullo $\iff$ la matrice
|
|
associata di $f$ ha tutte colonne nulle in corrispondenza degli
|
|
elementi della base di $U$).
|
|
|
|
Si scrive semplicemente $\Ann(U)$ quando $W=\KK$ (ossia
|
|
quando le funzioni sono funzionali di $V$). In tal
|
|
caso $\dim \Ann(U) = \dim V - \dim U$.
|
|
|
|
\begin{itemize}
|
|
\item $\bidual{\varphi}(U) \subseteq \Ann(\Ann(U))$,
|
|
\item se $V$ è a dimensione finita, $\bidual{\varphi}(U) = \bidual{U} = \Ann(\Ann(U))$ (è sufficiente
|
|
applicare la formula delle dimensioni $\restr{\bidual{\varphi}}{U}$ e notare l'uguaglianza
|
|
tra le due dimensioni),
|
|
\item se $V$ è a dimensione finita e $W$ è un altro
|
|
sottospazio di $V$,
|
|
$U = W \iff \Ann(U) = \Ann(W)$ (è sufficiente
|
|
considerare $\Ann(\Ann(U)) = \Ann(\Ann(W))$ e
|
|
applicare la proposizione precedente, ricordandosi
|
|
che $\bidual{\varphi}$ è un isomorfismo, ed è
|
|
dunque iniettivo).
|
|
\end{itemize}
|
|
|
|
Si definisce l'applicazione trasposta $^\top$ da $\mathcal{L}(V, W)$ a
|
|
$\mathcal{L}(\dual{W}, \dual{V})$ in modo tale che $f^\top(g)
|
|
= g \circ f \in \dual{V}$. Siano $f$, $g \in \mathcal{L}(V,W)$ e
|
|
sia $h \in \mathcal{L}(W,Z)$.
|
|
|
|
\begin{itemize}
|
|
\item $(f+g)^\top = f^\top + g^\top$,
|
|
\item $(\lambda f)^\top = \lambda f^\top$,
|
|
\item se $f$ è invertibile, $(f^{-1})^\top = (f^\top)^{-1}$,
|
|
\item $(h \circ f)^\top = f^\top \circ h^\top$.
|
|
\end{itemize}
|
|
|
|
Siano $\basis_V$, $\basis_W$ due basi rispettivamente di $V$ e
|
|
di $W$. Allora vale la seguente relazione:
|
|
|
|
\[ M^{\basis_W^*}_{\basis_V^*}(f^\top) = M^{\basis_V}_{\basis_W}(f)^\top. \]
|
|
|
|
\subsection{Applicazioni multilineari}
|
|
|
|
Sia $f : V_1 \times \ldots \times V_n \to W$ un'applicazione, dove
|
|
$V_i$ è uno spazio vettoriale $\forall i \leq n$, così come $W$. Tale
|
|
applicazione si dice $n$-lineare ed appartiene allo spazio
|
|
$\Mult(V_1 \times \ldots \times V_n, W)$, se è lineare in ogni sua coordinata, ossia se:
|
|
|
|
\begin{itemize}
|
|
\item $f(x_1, \ldots, x_i + y_i, \ldots, x_n) =
|
|
f(x_1, \ldots, x_i, \ldots, x_n) + f(x_1, \ldots, y_i, \ldots, x_n)$,
|
|
\item $f(x_1, \ldots, \alpha x_i, \ldots, x_n) = \alpha f(x_1, \ldots, x_i, \ldots, x_n)$.
|
|
\end{itemize}
|
|
|
|
Sia $W=\KK$, e siano tutti gli spazi $V_i$ fondati su tale campo: allora
|
|
$\Mult(V_1 \times \ldots \times V_n, \KK)$ si scrive anche come $V_1^* \otimes \ldots \otimes V_n^*$, e tale spazio
|
|
è detto prodotto tensoriale tra $V_1$, ..., $V_n$.
|
|
Sia $V_i$ di dimensione finita $\forall i \leq n$. Siano $\basis_{V_i} = \left\{ \vec{v^{(i)}_1}, \ldots, \vec{v^{(i)}_{k_i}} \right\}$ base
|
|
di $V_i$, dove $k_i = \dim V_i$.
|
|
Si definisce l'applicazione $n$-lineare $\dual{\vec{v^{(1)}_{j_1}}}
|
|
\otimes \cdots \otimes \dual{\vec{v^{(n)}_{j_n}}}\in \Mult(V_1 \times \ldots
|
|
\times V_n, \KK)$ univocamente determinata dalla relazione:
|
|
|
|
\[ \dual{\vec{v^{(1)}_{j_1}}} \otimes \cdots \otimes \dual{\vec{v^{(n)}_{j_n}}}(\vec{w_1}, \ldots, \vec{w_n}) = \dual{\vec{v^{(1)}_{j_1}}}(\vec{w_1}) \cdots \dual{\vec{v^{(n)}_{j_n}}}(\vec{w_n}). \]
|
|
|
|
Si definisce l'insieme $\basis_{\otimes}$ nel seguente modo:
|
|
|
|
\[ \basis_{\otimes} = \left\{ \dual{\vec{v^{(1)}_{j_1}}} \otimes \cdots \otimes \dual{\vec{v^{(n)}_{j_n}}} \mid 1 \leq j_1 \leq k_1, \, \ldots, \, 1 \leq j_n \leq k_n \right\}. \]
|
|
|
|
Poiché ogni applicazione $n$-lineare è univocamente determinata
|
|
dai valori che assume ogni combinazione degli elementi delle basi
|
|
degli spazi $V_i$, vi è un isomorfismo tra $\Mult(V_1 \times \ldots
|
|
\times V_n, \KK)$ e $\KK^{\basis_{V_1} \times \cdots \times \basis_{V_n}}$, che ha dimensione $\prod_{i=1}^n k_i = k$. Pertanto
|
|
anche $\dim \Mult(V_1 \times \ldots \times V_n, \KK) = k$.
|
|
|
|
Poiché $\basis_{\otimes}$ genera $\Mult(V_1 \times \ldots
|
|
\times V_n, \KK)$ e i suoi elementi sono tanti quanto è la
|
|
dimensione dello spazio, tale insieme è una base di $\Mult(V_1 \times
|
|
\ldots \times V_n, \KK)$.
|
|
|
|
Se $V_i = V_1 = V$ $\forall i \leq n$, si dice che $\Mult(V^n, \KK)$
|
|
è lo spazio delle forme $n$-lineari di $V$.
|
|
|
|
\subsubsection{Applicazioni multilineari simmetriche}
|
|
|
|
Sia $V$ uno spazio di dimensione $n$. Una
|
|
forma $k$-lineare $f$ si dice simmetrica
|
|
ed appartiene allo spazio $\Sym^k(V)$ se:
|
|
|
|
\[ f(\vec{x_1}, \ldots, \vec{x_k}) = f(\vec{x_{\sigma(1)}}, \ldots, \vec{x_{\sigma(k)}}), \quad \forall \sigma \in S_k. \]
|
|
|
|
Poiché ogni applicazione $n$-lineare simmetrica è univocamente
|
|
determinata dai valori che assume negli elementi della base
|
|
disposti in modo non decrescente, $\dim \Sym^k(V) = \binom{n+k-1}{k}$.
|
|
|
|
Sia $\basis = \{\vec{v_1}, \ldots, \vec{v_n}\}$ una base
|
|
di $V$. Dato un insieme di indici non decrescente $I$,
|
|
si definisce il prodotto simmetrico (o \textit{prodotto vee})
|
|
$\dual{\vec{v_{i_1}}} \vee \cdots \vee \dual{\vec{v_{i_k}}}$
|
|
tra elementi della base come la forma $k$-lineare simmetrica
|
|
determinata dalla relazione:
|
|
|
|
\[ \dual{\vec{v_{i_1}}} \vee \cdots \vee \dual{\vec{v_{i_k}}} = \sum_{\sigma \in S_k} \dual{\vec{v_{i_{\sigma(1)}}}} \otimes \cdots \otimes \dual{\vec{v_{i_{\sigma(k)}}}}. \]
|
|
|
|
Si definisce l'insieme:
|
|
|
|
\[\basis_{\Sym} = \left\{ \dual{\vec{v_{i_1}}} \vee \cdots \vee \dual{\vec{v_{i_k}}} \mid 1 \leq i_1 \leq \cdots \leq i_k \leq n \right\}. \]
|
|
|
|
L'insieme $\basis_{\Sym}$ è sia generatore che linearmente
|
|
indipendente su $\Sym^k(V)$, ed è dunque base. Allora
|
|
$\dim \Sym^k(V) = \binom{n+k-1}{k}$.
|
|
|
|
\subsubsection{Applicazioni multilineari alternanti}
|
|
|
|
Sia $V$ uno spazio di dimensione $n$. Una forma
|
|
$k$-lineare $f$ si dice alternante (o antisimmetrica)
|
|
ed appartiene allo spazio $\Lambda^k(V)$ (talvolta scritto
|
|
come $\operatorname{Alt}^k(V)$) se:
|
|
|
|
\[ f(x_1, \ldots, x_k) = 0 \impliedby \exists \, i, j \leq k \mid x_i = x_j. \]
|
|
|
|
\vskip 0.05in
|
|
|
|
Questo implica che:
|
|
|
|
\[ f(x_1, \ldots, x_k) = \sgn(\sigma) f(x_{\sigma(1)}, \ldots, x_{\sigma(n)}), \quad \forall \sigma \in S_k \]
|
|
|
|
Se $k > n$, un argomento della base di $V$ si ripete sempre nel
|
|
computo $f$ negli elementi della base, e quindi ogni alternante è
|
|
pari a $\vec{0}$, ossia $\dim \Lambda^k(V) = 0$.
|
|
|
|
Sia $\basis = \{\vec{v_1}, \ldots, \vec{v_n}\}$ una base
|
|
di $V$. Dato un insieme di indici crescente $I$,
|
|
si definisce il prodotto esterno (o \textit{prodotto wedge})
|
|
$\dual{\vec{v_{i_1}}} \wedge \cdots \wedge \dual{\vec{v_{i_k}}}$
|
|
tra elementi della base come la forma $k$-lineare alternante
|
|
determinata dalla relazione:
|
|
\[ \dual{\vec{v_{i_1}}} \wedge \cdots \wedge \dual{\vec{v_{i_k}}} = \sum_{\sigma \in S_k} \sgn(\sigma) \, \dual{\vec{v_{i_{\sigma(1)}}}} \otimes \cdots \otimes \dual{\vec{v_{i_{\sigma(k)}}}}. \]
|
|
|
|
Si definisce l'insieme:
|
|
|
|
\[\basis_{\Lambda} = \left\{ \dual{\vec{v_{i_1}}} \wedge \cdots \wedge \dual{\vec{v_{i_k}}} \mid 1 \leq i_1 < \cdots < i_k \leq n \right\}. \]
|
|
|
|
L'insieme $\basis_{\Lambda}$ è sia generatore che linearmente
|
|
indipendente su $\Lambda^k(V)$, ed è dunque base. Allora
|
|
$\dim \Lambda^k(V) = \binom{n}{k}$. Riassumendo si può scrivere:
|
|
|
|
\[\dim \Lambda^k(V) = \begin{cases} 0 & \text{se } k > n\,, \\ \binom{n}{k} & \text{altrimenti}. \end{cases}\]
|
|
|
|
Quindi è quasi sempre vero che:
|
|
|
|
\[ \underbrace{\dim \Sym^k(V)}_{= \, \binom{n+k-1}{k}} + \underbrace{\dim \Lambda^k(V)}_{\leq \, \binom{n}{k}} < \underbrace{\dim \Mult(V^k, \KK)}_{=\,n^k}, \]
|
|
|
|
e dunque che $\Sym^k(V) + \Lambda^k(V) \neq \Mult(V^k, \KK)$.
|
|
|
|
|
|
|
|
\subsection{Determinante di una matrice}
|
|
|
|
Si definisce il determinante $\det$ di una matrice di taglia
|
|
$n \times n$ come l'unica forma $n$-lineare alternante di $(\KK^n)^n$
|
|
tale che $\det(\vec{e_1}, \ldots, \vec{e_n}) = 1$ (infatti
|
|
$\dim \Lambda^n (V) = \binom{n}{n} = 1$, e quindi ogni forma
|
|
alternante è multipla delle altre, eccetto per lo zero).
|
|
|
|
Equivalentemente $\det = \dual{\vec{e_1}} \, \wedge \cdots \wedge \, \dual{\vec{e_n}}$.
|
|
|
|
Siano $A$, $B \in M(n, \KK)$. Si scrive
|
|
$\det(A)$ per indicare $\det(A_1, \ldots, A_n)$. Vale pertanto la
|
|
seguente relazione:
|
|
|
|
\[ \det(A) = \sum_{\sigma \in S_n} \sgn(\sigma) \, a_{1\sigma(1)} \cdots a_{n\sigma(n)}. \]
|
|
|
|
\begin{itemize}
|
|
\item $\det(I_n) = 1$,
|
|
\item $\det \begin{pmatrix}
|
|
a & b \\ c & d
|
|
\end{pmatrix} = ad-bc$,
|
|
\item $\det \begin{pmatrix}
|
|
a & b & c \\ d & e & f \\ g & h & i
|
|
\end{pmatrix} = a(ei-fh) - b(di-fg) + c(dh-eg)$,
|
|
\item $\det(A) \neq 0 \iff A$ invertibile (ossia non singolare),
|
|
\item $\det(\lambda A) = \lambda^n A$,
|
|
\item $\det(A) = \det(A^\top)$ (è sufficiente applicare la definizione
|
|
di $\det$ e manipolare algebricamente il risultato per evidenziare
|
|
l'uguaglianza),
|
|
\item se $A$ è antisimmetrica, $n$ è dispari e $\Char \KK \neq 2$,
|
|
$\det(A) = \det(-A^\top) = (-1)^n \det(A^\top) = (-1)^n \det(A) = -\det(A) \implies \det(A) = 0$ (quindi ogni matrice antisimmetrica di taglia
|
|
dispari non è invertibile),
|
|
\item $\det(AB) = \det(A)\det(B)$ (\textit{teorema di Binet} -- è
|
|
sufficiente considerare la forma $\frac{\det(AB)}{\det(B)}$ in
|
|
funzione delle righe di $A$ e determinare che tale forma
|
|
è alternante e che vale $1$ nell'identità, e che, per l'unicità
|
|
del determinante, deve obbligatoriamente essere pari a
|
|
$\det(A)$),
|
|
\item se $A$ è invertibile, $\det(A^{-1}) = \det(A)^{-1}$,
|
|
\item $\det \begin{pmatrix}
|
|
\lambda_{1} & & \\
|
|
& \ddots & \\
|
|
& & \lambda_{n}
|
|
\end{pmatrix} = \det(\lambda_1 \vec{e_1}, \ldots, \lambda_n \vec{e_n}) = \prod_{i=1}^n \lambda_i$,
|
|
\item se $A$ è triangolare superiore (o inferiore), allora $\det(A)$ è
|
|
il prodotto degli elementi sulla sua diagonale principale,
|
|
\item $\det(A_1, \ldots, A_n) = \sgn(\sigma) \det(A_{\sigma(1)}, \ldots, A_{\sigma(n)})$, $\forall \sigma \in S_n$ (infatti $\det$ è alternante),
|
|
\item \setlength{\extrarowheight}{1.3pt}$\det \begin{pmatrix}
|
|
A
|
|
& \rvline & B \\
|
|
\hline
|
|
C & \rvline &
|
|
D
|
|
\end{pmatrix} = \det(AD-BC)$, se $C$ e $D$ commutano e $D$ è invertibile,
|
|
\item $\det \begin{pmatrix}
|
|
A
|
|
& \rvline & B \\
|
|
\hline
|
|
0 & \rvline &
|
|
C
|
|
\end{pmatrix} = \det(A)\det(C)$\setlength{\extrarowheight}{0pt},
|
|
\item se $A$ è nilpotente (ossia se $\exists k \mid A^k = 0$),
|
|
$\det(A) = 0$,
|
|
\item se $A$ è idempotente (ossia se $A^2 = A$), allora
|
|
$\det(A) = 1$ o $\det(A) = 0$,
|
|
\item se $A$ è ortogonale (ossia se $AA^\top = I_n$), allora
|
|
$\det(A) = \pm 1$,
|
|
\item se $A$ è un'involuzione (ossia se $A^2 = I_n$), allora
|
|
$\det(A) = \pm 1$,
|
|
\item se ogni minore di taglia $k$ di $A$ ha determinante nullo,
|
|
allora tutti i minori di $A$ taglia maggiore o uguale a $k$ hanno
|
|
determinante nullo (è una diretta applicazione dello sviluppo di Laplace).
|
|
\end{itemize}
|
|
|
|
Le operazioni del terzo tipo dell'algoritmo di eliminazione
|
|
di Gauss (ossia l'aggiunta a una riga di un multiplo di un'altra
|
|
riga -- a patto che le due righe siano distinte) non alterano il
|
|
determinante della matrice iniziale, mentre lo scambio di righe
|
|
ne inverte il segno (corrisponde a una trasposizione di $S_n$).
|
|
L'operazione del secondo tipo (la moltiplicazione di una riga
|
|
per uno scalare) altera il determinante moltiplicandolo per
|
|
tale scalare.
|
|
|
|
Inoltre, se $D$ è invertibile, vale la decomposizione di Schur:
|
|
\setlength{\extrarowheight}{1.3pt}
|
|
\begin{gather*}
|
|
\begin{pmatrix}
|
|
A
|
|
& \rvline & B \\
|
|
\hline
|
|
C & \rvline &
|
|
D
|
|
\end{pmatrix} = \begin{pmatrix}
|
|
I_k
|
|
& \rvline & BD^{-1} \\
|
|
\hline
|
|
0 & \rvline &
|
|
I_k
|
|
\end{pmatrix}
|
|
\begin{pmatrix}
|
|
A-BD^{-1}C
|
|
& \rvline & 0 \\
|
|
\hline
|
|
0 & \rvline &
|
|
D
|
|
\end{pmatrix} \\
|
|
\begin{pmatrix}
|
|
I_k
|
|
& \rvline & 0 \\
|
|
\hline
|
|
D^{-1}C & \rvline &
|
|
I_k
|
|
\end{pmatrix},
|
|
\end{gather*}
|
|
\setlength{\extrarowheight}{0pt}
|
|
|
|
dove $k \times k$ è la taglia di $A$. Pertanto vale
|
|
la seguente relazione, sempre se $D$ è invertibile:
|
|
|
|
\[ \det \begin{pmatrix}
|
|
A
|
|
& \rvline & B \\
|
|
\hline
|
|
C & \rvline &
|
|
D
|
|
\end{pmatrix} = \det(A-BD^{-1}C)\det(D). \]
|
|
|
|
È possibile computare il determinante di $A$, scelta la riga $i$, mediante lo
|
|
sviluppo di Laplace:
|
|
\[ \det(A) = \sum_{j=1}^n a_{ij} \Cof_{i,j}(A) = \sum_{j=1}^n (-1)^{i+j} a_{ij} \det(A_{i,j}). \]
|
|
|
|
Si definisce matrice di Vandermonde una matrice $A \in M(n, \KK)$ della
|
|
forma:
|
|
|
|
\[ A = \begin{pmatrix}
|
|
1 & x_1 & x_1^2 & \dots & x_1^{n-1}\\
|
|
1 & x_2 & x_2^2 & \dots & x_2^{n-1}\\
|
|
\vdots & \vdots & \vdots & \ddots &\vdots \\
|
|
1 & x_n & x_n^2 & \dots & x_n^{n-1}.
|
|
\end{pmatrix} \]
|
|
|
|
Vale allora che:
|
|
|
|
\[ \det(A) = \prod_{1 \leq i < j \leq n} (x_j - x_i), \]
|
|
|
|
verificabile notando che $\det(A)$ è di grado $\frac{n(n-1)}{2}$ e
|
|
che ponendo $x_i = x_j$ per una coppia $(i, j)$, tale matrice
|
|
ha due righe uguali, e quindi determinante nullo $\implies (x_j - x_i) \mid \det(A) \overbrace{\implies}^{\text{UFD}} \det(A) = \prod_{1 \leq i < j \leq n} (x_j - x_i) $.
|
|
|
|
Pertanto una matrice di Vandermonde è invertibile se e solo se la sua
|
|
seconda colonna contiene tutti scalari distinti nelle coordinate. Tale
|
|
matrice risulta utile nello studio dell'interpolazione di Lagrange
|
|
(ossia nella dimostrazione dell'unicità del polinomio di $n-1$ grado
|
|
tale che $p(\alpha_i) = \beta_i$ per $i$ coppie ($\alpha_i$, $\beta_i$) con
|
|
$\alpha_i$ tutti distinti).
|
|
|
|
\subsubsection{Rango tramite il determinante degli orlati}
|
|
|
|
Si dicono \textit{sottomatrici} della matrice $A \in M(m, n, \KK)$ tutte
|
|
le matrici contenute in $A$, ossia le matrici $B$ che sono ottenibili da $A$
|
|
mantenendo solo alcune sue righe e colonne. In generale, si scrive $A^{j_1, \ldots, j_s}_{i_1, \ldots, i_t}$ per indicare la sottomatrice ottenuta
|
|
da $A$ mantenendo le colonne di indice $j_1$, ..., $j_s$ e le righe di
|
|
indice $i_1$, ..., $i_t$. Quando è omesso l'indice delle colonne o l'indice
|
|
delle righe, si sottintende di aver mantenuto o tutte le colonne o tutte le righe
|
|
(e.g.~$A_{1,2}$ è la sottomatrice di $A$ ottenuta mantenendo tutte le colonne e
|
|
le prime due righe). Si dice che $M$ è \textit{minore} di $A$ una sua sottomatrice quadrata. Si chiamano \textit{orlati} di un minore $M$ di taglia $k$ i minori di taglia $k+1$ di $A$ aventi $M$ come minore.
|
|
|
|
\begin{itemize}
|
|
\item se $B$ è una sottomatrice di $A$, allora $\rg(B) \leq \rg(A)$ (è sufficiente prendere un numero massimo di colonne linearmente indipendenti
|
|
di $B$ e mostrare che le relative colonne in $A$ sono ancora linearmente indipendenti),
|
|
\item $\rg(A) = \max\{\rg(B) \mid B \text{ sottomatrice di }\! A\}$ (è sufficiente utilizzare il precedente risultato; infatti $A$ è una sottomatrice di $A$),
|
|
\item $\rg(A) = \max\{\rg(B) \mid B \text{ minore invertibile di }\! A\} = \max\{n \mid \text{esiste un minore di $A$ di taglia $n$ invertibile} \}$ (è sufficiente utilizzare la prima disuguaglianza e considerare un minore di $A$ composto dalle righe e le colonne linearmente indipendenti di $A$, che sono
|
|
dello stesso numero, dal momento che il rango per righe è uguale al rango per colonne),
|
|
\item $\rg(A)$ è il più piccolo naturale $n$ tale per cui, per ogni minore
|
|
$M$ di $A$ di taglia maggiore di $n$, $\det(M) = 0$ (ossia $M$ è singolare; segue direttamente dal precedente risultato),
|
|
\item $\rg(A)$ è il più piccolo naturale $n$ tale per cui, per ogni minore
|
|
$M$ di $A$ di taglia $n+1$, $\det(M) = 0$ (ossia $M$ è singolare; segue dal precedente risultato a cui si combina lo sviluppo di Laplace del determinante -- se ogni minore di taglia $k$ ha determinante nullo, anche tutti i minori di
|
|
taglia maggiore di $k$ hanno determinante nullo).
|
|
\item esiste un minore $M$ di taglia $k$ di $A$ con $\det(M) \neq 0$ $\implies \rg(A) \geq k$ (deriva direttamente dall'ultimo risultato sul rango),
|
|
\item per ogni minore $M$ di taglia $k$ di $A$ vale che $\det(M) = 0$
|
|
$\implies \rg(A) < k$ (come sopra).
|
|
\end{itemize}
|
|
|
|
Si può facilitare lo studio del rango tramite il teorema di Kronecker (o degli orlati): $\rg(A)$ è il più piccolo naturale $n$ tale per cui esista un minore
|
|
$M$ di taglia $k$ con $\det(M) \neq 0$ e per cui ogni suo orlato $O$ è tale
|
|
per cui $\det(O) = 0$.
|
|
|
|
Sia infatti, senza perdità di generalità, $M = A^{1,\ldots, k}_{1,\ldots,k}$ tale minore (altrimenti è sufficiente considerare una permutazione delle righe e
|
|
delle colonne per ricadere in questo caso; tale permutazione è ammessa dall'algoritmo di Gauss). Si mostra che $A^j \in \Span(A^1, \ldots, A^k)$ $\forall j > k$. Si consideri ogni orlato $M_j$ di $M$ ottenuto scegliendo
|
|
la $j$-esima colonna di $A$: per ipotesi $\det(M_j) = 0$, ed il rango è almeno
|
|
$k$. Quindi $\rg(M_j) = k$; poiché le prime $k$ righe sono linearmente indipendenti, l'ultima riga aggiunta deve certamente appartenere al loro
|
|
sottospazio generato. Quindi ogni riga di $A^{1,\ldots, k, j}$ appartiene
|
|
al sottospazio $\Span(A_1, \ldots, A_k)$, da cui si deduce che $\rg(A^{1,\ldots, k, j}) = k$, e quindi che $\rg(A^{1,\ldots,k,j}) = k \implies A^j \in \Span(A^1, \ldots, A^k) \implies \rg(A) = k$.
|
|
|
|
|
|
|
|
\subsection{Autovalori, diagonalizzabilità e triangolabilità}
|
|
|
|
Sia $f \in \End(V)$. Si dice che $\lambda \in \KK$ è un autovalore
|
|
di $f$ se e solo se $\exists \vec{v} \neq \vec{0}$, $\vec{v} \in V$
|
|
tale che $f(\vec{v}) = \lambda \vec{v}$, e in tal caso si dice
|
|
che $\vec{v}$ è un autovettore relativo a $\lambda$. Un autovalore
|
|
è tale se esiste una soluzione non nulla a $(f - \lambda \Idv) \vec{v} = \vec{0}$, ossia se e solo se:
|
|
\[\det(f - \lambda \Idv) = 0. \]
|
|
|
|
Questa relazione è ben definita dacché il determinante è invariante
|
|
per qualsiasi cambio di base applicato ad una matrice associata
|
|
di $f$. Si definisce allora $p_f(\lambda) = \det(f - \lambda \Idv)$,
|
|
detto polinomio caratteristico di $f$, ancora invariante per
|
|
matrici associate a $f$. Si denota inoltre con
|
|
spettro di $f$ l'insieme $\Sp(f)$ degli autovalori di $f$ e con
|
|
$V_\lambda = \Ker(f - \lambda \Idv)$ lo spazio degli autovettori
|
|
relativo a $\lambda$, detto autospazio di $\lambda$.
|
|
|
|
Si definisce la molteplicità algebrica $\mu_{a,f}(\lambda)$ di un autovalore
|
|
$\lambda$ come la molteplicità che assume come radice del polinomio
|
|
$p_f(\lambda)$. Si definisce la molteplicità geometrica
|
|
$\mu_{g,f}(\lambda)$ di un autovalore $\lambda$ come la dimensione
|
|
del suo autospazio $V_\lambda$. Quando è noto l'endomorfismo
|
|
che si sta considerando si omette la dicitura $f$ nel pedice delle
|
|
molteplicità.
|
|
|
|
\begin{itemize}
|
|
\item $p_f(\lambda)$ ha sempre grado $n = \dim V$,
|
|
\item $p_f(\lambda)$ è sempre monico a meno del segno,
|
|
\item il coefficiente di $\lambda^n$ è sempre $(-1)^n$,
|
|
\item il coefficiente di $\lambda^{n-1}$ è $(-1)^{n+1} \tr(f)$,
|
|
\item il termine noto di $p_f(\lambda)$ è $\det(f - 0 \cdot \Idv) = \det(f)$,
|
|
\item poiché $p_f(\lambda)$ appartiene all'anello euclideo $\KK[\lambda]$, che è dunque un UFD, esso ammette al più
|
|
$n$ radici,
|
|
\item $\Sp(f)$ ha al più $n$ elementi, ossia esistono al massimo
|
|
$n$ autovalori (dalla precedente considerazione),
|
|
\item se $\KK = \CC$ e $\charpoly{f} \in \RR[\lambda]$, $\lambda \in
|
|
\Sp(f) \iff \overline{\lambda} \in \Sp(f)$ (infatti $\lambda$ è
|
|
soluzione di $\charpoly{f}$, e quindi anche $\overline{\lambda}$
|
|
deve esserne radice, dacché i coefficienti di $\charpoly{f}$ sono
|
|
in $\RR$),
|
|
\item se $\KK$ è un campo algebricamente chiuso, $p_f(\lambda)$
|
|
ammette sempre almeno un autovalore distinto (o esattamente
|
|
$n$ se contati con molteplicità),
|
|
\item $0 \in \Sp(f) \iff \dim \Ker f > 0 \iff \rg f < 0 \iff \det(f) = 0$,
|
|
\item autovettori relativi ad autovalori distinti sono sempre
|
|
linearmente indipendenti,
|
|
\item dati $\lambda_1$, ..., $\lambda_k$ autovalori di $f$,
|
|
gli spazi $V_{\lambda_1}$, ..., $V_{\lambda_k}$ sono sempre
|
|
in somma diretta,
|
|
\item $\sum_{i=1}^k \mu_a(\lambda_i)$ corrisponde al numero
|
|
di fattori lineari di $p_f(\lambda)$,
|
|
\item $\sum_{i=1}^k \mu_a(\lambda_i) = n \iff$ $p_f(\lambda)$
|
|
è completamente fattorizzabile in $\KK[\lambda]$,
|
|
\item vale sempre la disuguaglianza $n \geq \mu_a(\lambda) \geq
|
|
\mu_g(\lambda) \geq 1$ (è sufficiente considerare una
|
|
base di $V_\lambda$ estesa a base di $V$ e calcolarne il
|
|
polinomio caratteristico sfruttando i blocchi della matrice
|
|
associata, notando che $\mu_g(\lambda)$ deve forzatamente essere
|
|
minore di $\mu_a(\lambda)$),
|
|
\item vale sempre la disuguaglianza $n \geq \sum_{i=1}^k \mu_a(\lambda_i) \geq \sum_{i=1}^k \mu_g(\lambda_i)$,
|
|
\item se $W \subseteq V$ è un sottospazio $f$-invariante,
|
|
allora $\charpolyrestr{f}{W} \mid p_f(\lambda)$\footnote{Quando si lavora
|
|
su degli endomorfismi, la notazione $\restr{f}{W}$ è impiegata per
|
|
considerare $f$ ristretta a $W$ sia sul dominio che sul codominio.} (è sufficiente
|
|
prendere una base di $W$ ed estenderla a base di $V$, considerando
|
|
poi la matrice associata in tale base, che è a blocchi),
|
|
\item se $W \subseteq V$ è un sottospazio $f$-invariante,
|
|
ed estesa una base $\basis_W$ di $W$ ad una $\basis$ di $V$,
|
|
detto $U = \Span(\basis \setminus \basis_W)$ il supplementare di $W$ che si ottiene da tale base $\basis$, vale
|
|
che $\charpoly{f} = \charpolyrestr{f}{W} \cdot \charpoly{\hat{f}}$,
|
|
dove $\hat{f} : V/W \to V/W$ è tale che $\hat{f}(\vec{u} + W) = f(\vec{u}) + W$ (come prima, è sufficiente considerare una matrice
|
|
a blocchi),
|
|
\item se $V = W \oplus U$, dove sia $W$ che $U$ sono $f$-invarianti,
|
|
allora $\charpoly{f} = \charpolyrestr{f}{W} \cdot \charpolyrestr{f}{U}$ (la matrice associata in un'unione di basi
|
|
di $W$ e $U$ è infatti diagonale a blocchi),
|
|
\item se sia $W$ che $U$ sono $f$-invarianti, allora $f$ è diagonalizzabile
|
|
se e solo se sia $\restr{f}{W}$ che $\restr{f}{U}$ lo sono,
|
|
\item se $f$ è nilpotente, $p_f(\lambda) = \lambda^n$ (è sufficiente considerare
|
|
un eventuale altro autovalore diverso da zero e mostrare che se tale
|
|
autovalore esistesse, $f$ non sarebbe nilpotente),
|
|
\item un endomorfismo è nilpotente se e solo se $f^n = 0$ (discende direttamente dal teorema di Hamilton-Cayley e dalla forma di $p_f$),
|
|
\end{itemize}
|
|
|
|
Si dice che $f$ è diagonalizzabile se $V$ ammette una base per cui
|
|
la matrice associata di $f$ è diagonale, o equivalentemente se,
|
|
dati $\lambda_1$, ..., $\lambda_k$ autovalori di $f$, si verifica
|
|
che:
|
|
|
|
\[ V = V_{\lambda_1} \oplus \cdots \oplus V_{\lambda_k}. \]
|
|
|
|
Ancora in modo equivalente si può dire che $f$ è diagonalizzabile
|
|
se e solo se:
|
|
|
|
\[ \begin{cases} \sum_{i=1}^k \mu_a(\lambda_i) = n, \\ \mu_g(\lambda_i) = \mu_a(\lambda_i) \; \forall 1 \leq i \leq k, \end{cases} \]
|
|
|
|
ossia se il polinomio caratteristico è completamente fattorizzabile
|
|
in $\KK[\lambda]$ (se non lo fosse, la somma diretta
|
|
$V_{\lambda_1} \oplus \cdots \oplus V_{\lambda_k}$ avrebbe
|
|
forzatamente dimensione minore di $V$, ed esisterebbero altri
|
|
autovalori in un qualsiasi campo di spezzamento di $p_f(\lambda)$) e se $\sum_{i=1}^k \mu_g(\lambda_i) = n$. Tale condizione, in un
|
|
campo algebricamente chiuso, si riduce a $\mu_g(\lambda_i) = \mu_a(\lambda_i)$, $\forall 1 \leq i \leq k$.
|
|
|
|
Considerando la forma canonica di Jordan di $f$, si osserva anche
|
|
che $f$ è diagonalizzabile se e solo se per ogni autovalore la
|
|
massima taglia di un blocco di Jordan è esattamente $1$, ossia
|
|
se il polinomio minimo di $f$ è un prodotto di fattori lineari
|
|
distinti (i.e.~se $\varphi_f(t) = \prod_i (t-\lambda_i)$). Si può fare la stessa considerazione guardando al
|
|
teorema di decomposizione primaria (gli indici di Fitting del
|
|
sottospazio generalizzato sono esattamente le moltiplicità algebriche
|
|
degli autovalori nel polinomio minimo).
|
|
|
|
Data $f$ diagonalizzabile, la matrice diagonale $J$ a cui $f$ è
|
|
associata è, dati gli autovalori $\lambda_1$, ..., $\lambda_k$,
|
|
una matrice diagonale dove $\lambda_i$ compare sulla diagonale
|
|
esattamente $\mu_g(\lambda_i)$ volte.
|
|
|
|
Data $A \in M(n, \KK)$, $A$ è diagonalizzabile se e solo se $f_A$,
|
|
l'applicazione indotta dalla matrice $A$, è diagonalizzabile,
|
|
ossia se $A$ è simile ad una matrice diagonale $J$, computabile
|
|
come prima. Si scrive in particolare $p_A(\lambda)$ per indicare
|
|
$p_{f_A}(\lambda)$.
|
|
|
|
Una matrice $P \in \GL(M(n, \KK))$
|
|
tale che $A = P J P\inv$, è tale che $AP = PJ$: presa la $i$-esima
|
|
colonna, allora, $AP^{(i)} = PJ^{(i)} = P^{(i)}$; ossia è sufficiente
|
|
costruire una matrice $P$ dove l'$i$-esima colonna è un autovettore
|
|
relativo all'autovalore presente in $J_{ii}$ linearmente indipendente
|
|
con gli altri autovettori presenti in $P$ relativi allo stesso
|
|
autovalore (esattamente nello stesso modo in cui si costruisce in
|
|
generale tale $P$ con la forma canonica di Jordan).
|
|
|
|
Se $A$ e $B$ sono diagonalizzabili, allora $A \sim B \iff p_A(\lambda) =
|
|
p_B(\lambda)$ (infatti due matrici diagonali hanno lo stesso polinomio
|
|
caratteristico se e solo se compaiono gli stessi identici autovalori).
|
|
|
|
Se $f$ è diagonalizzabile, allora ogni spazio $W$ $f$-invariante di
|
|
$V$ è tale che:
|
|
\[ W = (W \cap V_{\lambda_1}) \oplus \cdots \oplus (W \cap V_{\lambda_k}), \]
|
|
|
|
dove $\lambda_1$, ..., $\lambda_k$ sono gli autovalori distinti di
|
|
$f$, e dunque $\restr{f}{W}$ è sempre diagonalizzabile, se $f$ lo è. In generale, dato un sottospazio $W$ di $V$ che
|
|
è $f$-invariante, si può facilmente costruire un suo
|
|
supplementare $f$-invariante. È infatti sufficiente
|
|
prendere una base di $W$ ed estenderla a base di $V$
|
|
completandola tramite una base di autovettori di $V$.
|
|
|
|
Se $f$ è diagonalizzabile, anche $f^k$ lo è, per ogni $k \in \NN$. Se
|
|
ogni vettore di $V$ è un autovettore di $f$, allora $f = \lambda \Id$,
|
|
con $\lambda \in \KK$ (è sufficiente considerare l'eventuale esistenza di più
|
|
autospazi e due vettori $\v$ e $\w$ di due autospazi distinti e considerare
|
|
le due scritture possibili di $f(\v + \w)$).
|
|
|
|
Si dice infine che $f$ è triangolabile (o triangolarizzabile) se $V$
|
|
ammette una base per cui la matrice associata di $f$ è triangolare superiore
|
|
(o inferiore, dal momento che è sufficiente riordinare dal basso la base
|
|
per ottenere una matrice associata triangolare superiore). Vale in particolare
|
|
che $f$ è triangolabile se e soltanto se $p_f(\lambda)$ è completamente
|
|
riducibile in fattori lineari in $\KK$ (dunque, nel caso di $\KK$ algebricamente
|
|
chiuso, $f$ è sempre triangolabile). Infatti, se $f$ è triangolabile, il polinomio
|
|
caratteristico ha come radici esattamente gli elementi sulla diagonale della
|
|
matrice associata di $f$ nella base $\basis$ in cui tale matrice è triangolare
|
|
superiore (e dunque $p_f(\lambda)$ è riducibile in fattori lineari). Se invece $p_f(\lambda)$ è riducibile in fattori lineari, si può applicare il seguente
|
|
algoritmo (su cui si fonda induttivamente la dimostrazione della proposizione):
|
|
|
|
\begin{enumerate}
|
|
\itemsep 0pt
|
|
\item Si calcolino le basi degli autospazi di $f$,
|
|
\item Si estenda l'unione $\basis_A$ di queste basi a una base $\basis$ di $V$,
|
|
\item Si consideri la matrice associata di $f$ nella base $\basis$, della forma: \setlength{\extrarowheight}{1.3pt}
|
|
\[M_\basis(f) = \begin{pmatrix}
|
|
A
|
|
& \rvline & B \\
|
|
\hline
|
|
0 & \rvline &
|
|
C
|
|
\end{pmatrix}, \]\setlength{\extrarowheight}{0pt}dove $A$ è una matrice diagonale contenente gli autovalori di $\Sp(f)$,
|
|
\item Se $M_\basis(f)$ è triangolare superiore, l'algoritmo termina. Altrimenti si ripeta l'algoritmo su $C$ (ossia sull'endomorfismo $p_W \circ \restr{f}{W} \in \End(W)$, dove $W$ è il sottospazio generato dai vettori aggiunti alla base $\basis_A$ per costruire la base $\basis$).
|
|
\end{enumerate}
|
|
|
|
Inoltre, se $W$ è un sottospazio $f$-invariante di $V$,
|
|
e $f$ è triangolabile, anche $\restr{f}{W}$ lo è (infatti,
|
|
in tal caso, il polinomio caratteristico di $f$ si riduce
|
|
in fattori lineari).
|
|
|
|
\subsubsection{Diagonalizzabilità e triangolabilità simultanea}
|
|
|
|
Due endomorfismi $f$, $g \in \End(V)$ diagonalizzabili si dicono simultaneamente diagonalizzabili se esiste una base $\basis$ di $V$
|
|
tale per cui sia la matrice associata di $f$ in $\basis$ che quella
|
|
di $g$ sono diagonali. Vale in particolare che $f$ e $g$ sono
|
|
simultaneamente diagonalizzabili se e solo se $f \circ g = g \circ f$.
|
|
Per trovare tale base è sufficiente, dati $\lambda_1$, ...,
|
|
$\lambda_k$ autovalori di $f$, considerare $\restr{g}{V_{\lambda_i}}$
|
|
$\forall 1 \leq i \leq k$ ($V_{\lambda_i}$ è infatti $g$-invariante,
|
|
dacché, per $\vec{v} \in V_{\lambda_i}$, $f(g(\vec{v})) =
|
|
g(f(\vec{v})) = g(\lambda_i \vec{v}) = \lambda_i g(\vec{v}) \implies
|
|
g(\vec{v}) \in V_{\lambda_i}$), che, essendo una restrizione di
|
|
un endomorfismo diagonalizzabile su un sottospazio invariante, è diagonalizzabile: presa allora
|
|
una base di autovettori di $\restr{g}{V_{\lambda_i}}$, questi sono
|
|
anche base di autovettori di $V_{\lambda_i}$; unendo tutti questi
|
|
autovettori in un'unica base $\basis$ di $V$, si otterrà dunque
|
|
che una base in cui le matrici associate di $f$ e $g$ sono diagonali.
|
|
|
|
Analogamente due endomorfismi $f$, $g \in \End(V)$ triangolabili si dicono
|
|
simultaneamente triangolabili se esiste una base $\basis$
|
|
in cui $M_\basis(f)$ e $M_\basis(g)$ sono due matrici
|
|
triangolari superiori. Non è generalmente vero che
|
|
due endomorfismi simultaneamente triangolabili
|
|
commutano; è tuttavia vero il viceversa. Se infatti $f$
|
|
e $g$ sono due endomorfismi triangolabili tali che $f \circ g = g \circ f$, allora si può riapplicare, con le dovute modifiche, il precedente algoritmo di triangolarizzazione (anche questa volta dimostrabile per induzione):
|
|
\begin{enumerate}
|
|
\itemsep 0pt
|
|
\item Si calcolino le basi degli autospazi di $f$ e si consideri $\restr{f}{U}$, dove $U = \eigsp 1 \oplus \cdots \oplus \eigsp k$,
|
|
\item Si cerchi una base $\basis_U$ in cui $\restr{f}{U}$ e $\restr{g}{U}$ sono simultaneamente diagonalizzabili (osservando che $g$ è $U$-invariante),
|
|
\item Si estenda tale base $\basis_U$ ad una base $\basis$ di $V$ e si chiami $W$ il sottospazio $\Span(\basis_W)$, dove $\basis_W := \basis \setminus \basis_U$,
|
|
\item Si considerino la matrice associata di $f$ e di $g$ nella base $\basis$, della forma: \setlength{\extrarowheight}{1.3pt}
|
|
\begin{gather*}
|
|
M_\basis(f) = \begin{pmatrix}
|
|
A
|
|
& \rvline & B \\
|
|
\hline
|
|
0 & \rvline &
|
|
C
|
|
\end{pmatrix}, \\
|
|
M_\basis(g) = \begin{pmatrix}
|
|
A'
|
|
& \rvline & B' \\
|
|
\hline
|
|
0 & \rvline &
|
|
C'
|
|
\end{pmatrix},
|
|
\end{gather*}
|
|
\setlength{\extrarowheight}{0pt}dove $A$ e $A'$ sono matrici diagonali contenente gli autovalori dei rispettivi endomorfismi,
|
|
\item Se le due matrici sono triangolari superiori, l'algoritmo termina. Altrimenti si ripeta l'algoritmo su $C$ e $C'$ (ossia sugli endomorfismi $p_W \circ \restr{f}{W}$, $p_W \circ \restr{g}{W} \in \End(W)$, i
|
|
quali commutano, dal momento che vale l'identità $C C' = C' C$, dedotta moltiplicando le due matrici associate di sopra).
|
|
\end{enumerate}
|
|
|
|
\subsubsection{Polinomio minimo}
|
|
|
|
Sia $f \in \End(V)$. Si può allora definire l'applicazione $\sigma_f : \KK[x] \to \End(V)$
|
|
tale per cui $\sigma_f(p) = p(f)$, dove per $p(f)$ s'intende
|
|
la riscrittura di $p$ a cui si sostituisce all'usuale
|
|
somma e all'usuale prodotto, la somma di applicazioni
|
|
e la composizione (intendendo, in particolare, i termini
|
|
noti come multipli dell'identità $f^0 := \Idv$). In particolare $\sigma_f$ è un omomorfismo di anelli,
|
|
ed è dunque anche un'applicazione lineare. $\sigma_f$ non
|
|
è mai iniettiva, ed esiste dunque sempre un polinomio $p$
|
|
tale per cui $\sigma_f(p) = 0$, l'applicazione nulla (è
|
|
sufficiente prendere $n^2+1$ potenze di $f$ e osservare
|
|
che devono essere linearmente indipendenti). Poiché
|
|
$\KK[x]$ è un PID, $\Ker \sigma_f$ è un ideale principale,
|
|
e quindi esiste un polinomio monico $\varphi_f$, detto
|
|
polinomio minimo di $f$, tale per cui
|
|
$\Ker \sigma_f = (\varphi_f)$.
|
|
|
|
\begin{itemize}
|
|
\item $\varphi_f \mid p_f$ (teorema di Hamilton-Cayley),
|
|
\item $\deg \varphi_f = d$ se e solo se $\Idv$, $f$, ...,
|
|
$f^{d-1}$ sono linearmente indipendenti e $f^d \in \Span(\Idv, f, \ldots, f^{d-1})$,
|
|
\item $\dim \KK[f] = \deg \varphi_f$ (infatti, per
|
|
il primo teorema di omomorfismo $\KK[f] \cong \KK[x]\quot(\varphi_f)$, da cui si ricava
|
|
facilmente la dimensione dello spazio),
|
|
\item $\Idv$, $f$, ..., $f^{d-1}$ formano una base
|
|
di $\KK[f]$ (per i precedenti risultati), se $d = \deg \varphi_f$,
|
|
\item $\varphi_f$ e $p_f$ condividono gli stessi fattori
|
|
primi (se infatti non comparisse un autovalore come radice di $\varphi_f$, $\varphi_f(f)$ non sarebbe nullo),
|
|
\item gli esponenti dei fattori lineari di $\varphi_f$
|
|
sono esattamente gli indici di Fitting degli autospazi
|
|
generalizzati di $f$,
|
|
\item gli autovalori hanno moltiplicità algebrica $1$ in $\varphi_f$ se e solo se $f$ è diagonalizzabile (è sufficiente utilizzare il precedente risultato, o considerare la forma canonica di Jordan),
|
|
\item se $f$ è nilpotente, $\varphi_f(t) = t^k$, dove $k$ è l'indice di Fitting
|
|
di $\Ker f$ (discende direttamente dalla forma di $p_f$ se $f$ è nilpotente),
|
|
\item se $p \in \KK[x]$ è tale per cui $p = p_1 \cdots p_k$ con $p_1$, ..., $p_k \in \KK[x]$ coprimi, allora $\Ker p(f) = \Ker p_1(f) \oplus \cdots \oplus \Ker p_k(f)$ (teorema di decomposizione primaria; si dimostra facilmente attraverso il teorema di Bezout),
|
|
\item $V = \gensp 1 \oplus \cdots \oplus \gensp k$, se $\lambda_1$, ..., $\lambda_k$ sono tutti gli autovalori di $f$ (deriva direttamente dal teorema
|
|
di Hamilton-Cayley e dal teorema di decomposizione primaria, o, alternativamente,
|
|
dalla decomposizione di Fitting).
|
|
\end{itemize}
|
|
|
|
Sia $\v \in V$. Si definisce allora l'applicazione
|
|
$\val_{f, \v} : \KK[x] \to V$ in modo tale
|
|
che $\val_{f, \v}(p) = p(f)(\v)$. Come prima,
|
|
$\val_{f,\v}$ è un'applicazione lineare. Si osserva
|
|
ancora che $\Ker \val_{f, \v}$ è un'ideale,
|
|
e quindi che esiste un polinomio $\varphi_{f, \v}$
|
|
tale per cui $\Ker \val_{f, \v} = (\varphi_{f, \v})$.
|
|
Tale polinomio viene denotato come polinomio minimo
|
|
relativo al vettore $\v$. Si definisce in particolare
|
|
$\KK[f](\v) := \Im \val_{f, \v}$.
|
|
|
|
\begin{itemize}
|
|
\item $\varphi_{f, \v} \mid \varphi_f$ (infatti $\varphi_f(f)=0$, e dunque $\varphi_f(f)$ annulla $\v$),
|
|
\item $\deg \varphi_{f, \v} = d$ se e solo se $\v$, $f(\v)$, ..., $f^{d-1}(\v)$ sono linearmente indipendenti
|
|
e $f^d(\v) \in \Span(\v, \ldots, f^{d-1}(\v))$,
|
|
\item $\dim \KK[f](\v) = \deg \varphi_{f, \v}$ (si dimostra allo stesso modo in cui si è dimostrata la proposizione analoga per $\varphi_f$),
|
|
\item $\v$, ..., $f^{d-1}(\v)$ formano una base
|
|
di $\KK[f](\v)$, se $d = \deg \varphi_{f, \v}$.
|
|
\item se $\vv 1$, ..., $\vv k$ sono generatori
|
|
di $V$, allora $\varphi_f = \mcm(\varphi_{f, \vv 1}, \ldots, \varphi_{f, \vv k})$ (è sufficiente mostrare
|
|
che $\varphi_f$ annulla una base e che il grado è minimale).
|
|
\item se $\v$, ..., $f^{k}(\v)$ sono linearmente indipendenti per qualche $\v \in V$, allora $\deg \varphi_f \geq \varphi_{f, \v} \geq k + 1$.
|
|
\item esiste sempre un vettore $\v$ tale per cui
|
|
$\varphi_f = \varphi_{f, \v}$ (se $\KK$ è infinito).
|
|
\item $p(f)$ è invertibile $\iff \Ker p(f) = \zerovecset$ $\iff \MCD(\varphi_f, p) \in \KK^*$, se $p \in \KK[x]$ (è sufficiente
|
|
applicare il teorema di Bezout).
|
|
\end{itemize}
|
|
|
|
Un vettore $\v$ si dice ciclico rispetto a $f$ se
|
|
gli $n$ vettori $\v$, ..., $f^{n-1}(\v)$ formano
|
|
una base di $V$, in tal caso detta base ciclica
|
|
di $V$.
|
|
|
|
Se $\KK$ è infinito, $V$ ammette una base ciclica se e solo se $p_f = \pm \varphi_f$ (infatti esiste sempre un vettore $\v$ tale per cui $\varphi_f = \varphi_{f, \v}$). In
|
|
una base ciclica $\basis$ la matrice associata si
|
|
scrive nel seguente modo:
|
|
\[ M_\basis(f) = \Matrix{1 & & & -a_0 \\ & \ddots & & \vdots \\ & & 1 & -a_{n-1}}, \]
|
|
|
|
dove $\varphi_f(x) = x^n + a_{n-1} x^{n-1} + \ldots + a_0$.
|
|
Tale matrice viene detta matrice compagna del polinomio
|
|
$p := \varphi_f$ (e dunque ogni polinomio monico è in particolare
|
|
il polinomio minimo di un qualche endomorfismo; analogamente
|
|
ogni polinomio monico è, a meno del segno, un polinomio
|
|
caratteristico).
|
|
|
|
\subsection{La forma canonica di Jordan}
|
|
|
|
Si definisce blocco di Jordan di taglia $k$ relativo
|
|
all'autovalore $\lambda$ la seguente matrice:
|
|
\[J_{\lambda, k} :=\begin{pmatrix}
|
|
\lambda&1&0&\cdots&0 \\
|
|
0&\ddots&\ddots&&\vdots \\
|
|
\vdots&\ddots&\ddots&\ddots&0\\
|
|
\vdots&&\ddots&\ddots&1 \\
|
|
0&\cdots&\cdots&0&\lambda
|
|
\end{pmatrix},\]
|
|
|
|
ossia la matrice che ha solo $\lambda$ sulla diagonale, $1$ sulla
|
|
sopradiagonale e $0$ nelle altre posizioni. Si può
|
|
sempre restringere un blocco di Jordan a un blocco nilpotente
|
|
considerando $J = J_{\lambda, k} - \lambda I_k$. Tale blocco
|
|
ha come polinomio minimo $\varphi_J(t) = t^k$, e dunque
|
|
$\varphi_{J_{\lambda, k}}(t) = (t-\lambda)^k$. Allo stesso
|
|
modo si calcola $p_{J_{\lambda, k}}(t) = (t-\lambda)^k$. Si osserva dunque
|
|
che $\mu_{a, J_{\lambda, k}}(\lambda) = \mu_{a, J}(0)$.
|
|
|
|
Poiché il polinomio caratteristico ed il polinomio minimo coincidono a meno
|
|
del segno, esiste sempre una base ciclica per la quale $J_{\lambda, k}$
|
|
si scrive come matrice compagna di $\varphi_{J_{\lambda, k}}$.
|
|
|
|
Si definisce forma canonica di Jordan di un endomorfismo $f$
|
|
una sua matrice associata in una base $\basis$ tale per cui:
|
|
\[M_\basis(f) = \begin{pmatrix}
|
|
J_1 & & 0 \\
|
|
& \ddots & \\
|
|
0 & & J_s \end{pmatrix}, \]
|
|
|
|
dove $J_1$, ..., $J_s$ sono blocchi di Jordan. La forma canonica
|
|
di Jordan esiste sempre ed è unica a meno di permutazione dei blocchi,
|
|
se tutti gli autovalori di $f$ sono in $\KK$ (teorema di Jordan; se
|
|
gli autovalori di $f$ non sono tutti in $\KK$, si può sempre considerare
|
|
un'estensione di campo in cui esistono).
|
|
|
|
Si definisce autospazio generalizzato relativo all'autovalore $\lambda$ di
|
|
$f \in \End(V)$ lo spazio:
|
|
|
|
\[ \Gensp = \Ker (f - \lambda \Idv)^n. \]
|
|
|
|
Una definizione alternativa, ma equivalente di $\Gensp$ è la seguente:
|
|
|
|
\[ \Gensp = \{ \v \in V \mid \exists k \in \NN \mid (f-\lambda \Idv)^k = \vec 0 \}, \]
|
|
|
|
ossia $\Gensp$ è lo spazio dei vettori $\v \in V$ tali per cui, applicando ripetutamente $f-\lambda \Idv$, si ottiene un autovettore relativo a $\lambda$ (per
|
|
dimostrare l'equivalenza delle due dimostrazioni è sufficiente considerare la
|
|
decomposizione di Fitting). In generale, dalla catena della decomposizione
|
|
di Fitting, si deduce in realtà che:
|
|
|
|
\[ \Gensp = \Ker (f - \lambda \Idv)^q \; \forall q \geq k, \]
|
|
|
|
dove $k$ è la molteplicità algebrica di $\lambda$ in $\varphi_f$ (in particolare
|
|
si ottiene sempre l'autospazio generalizzato sostituendo $\mu_a(\lambda)$ a $q$,
|
|
dacché $\mu_a(\lambda) \geq k$).
|
|
|
|
In generale vale che:
|
|
\[ V = \gensp 1 \oplus \cdots \oplus \gensp k, \]
|
|
se $\lambda_1$, ..., $\lambda_k$ sono tutti gli autovalori di $f$ (vd.~polinomio minimo). Inoltre, $\restr{f}{\Gensp}$ ammette come autovalore soltanto $\lambda$
|
|
(pertanto $\dim \Gensp = \mu_{a, f}(\lambda)$, confrontando i polinomi caratteristici). Si osserva inoltre che $\Gensp$ è sempre $f$-invariante. Infatti ogni $f$ induce due catene di inclusione:
|
|
|
|
\begin{gather*}
|
|
\Ker f^0 = \zerovecset \subsetneqq \Ker f^1 \subsetneqq \cdots \subsetneqq \Ker f^k = \Ker f^{k+1} = \cdots, \\
|
|
\Im f^0 = V \supsetneqq \Im f^1 \supsetneqq \cdots \supsetneqq \Im f^k = \Im f^{k+1} = \cdots,
|
|
\end{gather*}
|
|
|
|
dove $k$ è detto indice di Fitting di $f$. Vale in particolare la decomposizione di Fitting:
|
|
\[ V = \Ker f^k \oplus \Im f^k, \]
|
|
|
|
dove $\restr{f}{\Ker f^k}$ è nilpotente (e dunque ammette solo $0$ come autovalore;
|
|
infatti $(\restr{f}{\Ker f^k})^k = \restr{f^k}{\Ker f^k} = 0$),
|
|
mentre $\restr{f}{\Im f^k}$ è invertibile (e dunque non ammette $0$ come autovalore;
|
|
infatti tale endomorfismo mantiene le dimensioni delle immagini).
|
|
|
|
\begin{itemize}
|
|
\itemsep 0pt
|
|
\item esiste sempre almeno un blocco di Jordan relativo a $\lambda$ di ordine $k$,
|
|
dove $k$ è la molteplicità algebrica di $\lambda$ in $\varphi_f$,
|
|
\item la successione di $\Ker (f-\lambda \Idv)^t - \Ker (f - \lambda \Idv)^{t-1}$
|
|
all'aumentare di $t$ è decrescente ed è definitivamente $0$,
|
|
\item il numero di blocchi di Jordan di taglia maggiore o uguale a $t$ relativi
|
|
a $\lambda$ è esattamente $\Ker (f-\lambda \Idv)^t - \Ker (f - \lambda \Idv)^{t-1}$,
|
|
\item il numero di blocchi di Jordan di taglia $t$ relativi a $\lambda$
|
|
è esattamente:
|
|
\begin{gather*}
|
|
2 \dim \Ker (f-\lambda \Idv)^t - \dim \Ker (f-\lambda \Idv)^{t+1} \\ - \dim \Ker (f-\lambda \Idv)^{t-1},
|
|
\end{gather*}
|
|
riscrivibile anche come:
|
|
\begin{gather*}
|
|
\rg (f-\lambda \Idv)^{t+1} + \rg (f-\lambda \Idv)^{t-1} - \\
|
|
2 \rg (f-\lambda \Idv),
|
|
\end{gather*}
|
|
(da queste due identità risulta evidente l'unicità della forma canonica di Jordan),
|
|
\item esistono esattamente $\mu_g(\lambda) = \dim \Ker (f - \lambda \Idv)$ blocchi
|
|
relativi all'autovalore $\lambda$,
|
|
\item $\mu_g(\lambda) = 1$ $\forall \lambda \in \Sp(f)$ implica
|
|
che vi sia un solo blocco relativo ad ogni $\lambda \in \Sp(f)$; dal
|
|
momento che ne deve esiste uno di ordine massimo, tale blocco ha taglia
|
|
$k$, dove $k$ è la molteplicità algebrica di $\lambda$ in $\varphi_f$,
|
|
\item $\mu_g(\lambda) = 1$ $\forall \lambda \in \Sp(f)$ implica che
|
|
$p_f = \pm \varphi_f$ (e dunque che $f$ ammette una base ciclica; segue
|
|
direttamente dal precedente risultato),
|
|
\item una base di $\Ker (f - \lambda \Idv)^t$ è data dai primi $t$ vettori
|
|
di ogni blocco relativo a $\lambda$,
|
|
\item due matrici $A$, $B$ sono simili se e solo se condividono la stessa
|
|
forma canonica di Jordan (a meno di permutazione di blocchi; dunque la
|
|
forma canonica di Jordan è un invariante completto della similitudine),
|
|
\item Se $\KK=\CC$, vale l'identità:
|
|
\[ \conj{\Ker (f - \lambda \Idv)^k} = \Ker (f - \conj{\lambda} \Idv)^k, \]
|
|
|
|
da cui è possibile ottenere una base dell'autospazio generalizzato relativo
|
|
a $\conj{\lambda}$ coniugando una base dell'autospazio generalizzato relativo
|
|
a $\lambda$ (in particolare i due spazi hanno la stessa dimensione),
|
|
\item Se $\KK=\CC$, la forma canonica di Jordan contiene tanti blocchi di taglia $t$
|
|
relativi a $\lambda$ quanti ve ne sono di relativi a $\conj{\lambda}$.
|
|
\end{itemize}
|
|
|
|
\subsubsection{Calcolo di una base di Jordan}
|
|
|
|
Si dice base di Jordan una qualsiasi base $\basis$ tale per cui
|
|
$M_\basis(f)$ è una forma canonica di Jordan, se $f \in \End(V)$.
|
|
Per calcolare una base di Jordan si può seguire il seguente
|
|
algoritmo:
|
|
|
|
\begin{enumerate}
|
|
\item Si calcoli il polinomio caratteristico $p_f$ di $f$ e se
|
|
ne estragga lo spettro $\Sp(f)$,
|
|
\item Si consideri una base $\basis$ di $V$ e si ponga
|
|
$A := M_\basis(f)$,
|
|
\item Si consideri ogni autovalore $\lambda \in \Sp(f)$:
|
|
\begin{enumerate}[a.]
|
|
\item Si consideri $B := A - \lambda I_n$. Si calcoli
|
|
il rango di $B$ per ricavare $\mu_g(\lambda)$, indicante
|
|
il numero di blocchi relativi a $\lambda$,
|
|
\item Se possibile, si facciano considerazioni riguardo
|
|
a come deve essere la forma canonica di Jordan. Altrimenti
|
|
si calcoli il numero di blocchi tramite la formula
|
|
presentata precedentemente,
|
|
\item Si calcolino le matrici della forma $B^i$ con $2 \leq i \leq k-1$,
|
|
dove $k$ è la taglia del blocco più grande,
|
|
\item Si calcolino le basi dei sottospazi $U_i$ tali per cui:
|
|
\begin{flalign*}
|
|
&\Ker B^k = \Ker B^{k-1} \oplus U_1, \\
|
|
&\Ker B^{k-1} = \Ker B^{k-2} \oplus B(U_1) \oplus U_2, \\
|
|
&\,\vdots \\
|
|
&\Ker B = B^{k-1}(U_1) \oplus B^{k-2}(U_2) \oplus \cdots \oplus U_k;
|
|
\end{flalign*}
|
|
\item Si scelgano da queste basi i vettori che generano ogni blocco
|
|
relativo a $\lambda$ (in particolare ogni vettore di base di $U_i$ genera
|
|
un blocco di taglia $k-1+i$),
|
|
\item Per ogni blocco, generato dal vettore $\v$, si costruisca una base ordinata nel seguente modo:
|
|
\[ \basis' = \{B^{t-1} \v ,\ldots , B \v, \v\}, \]
|
|
dove $t$ è l'indice minimo per cui $B^t \v = 0$;
|
|
\end{enumerate}
|
|
\item Si uniscano ordinatamente a catena le basi ottenute in una base $\basis_J$. La base $[]_\basis\inv \basis_J$ è allora base di Jordan. In particolare, se
|
|
$P = \Matrix{\v_1 \cdots \v_n}$, dove $\basis_J= \{\v_1, \ldots, \v_n\}$, vale
|
|
che $J = P\inv A P$ è esattamente la forma canonica di Jordan individuata
|
|
da tale base.
|
|
\end{enumerate}
|
|
|
|
Se $f$ è nilpotente, l'algoritmo può essere velocizzato notevolmente considerando
|
|
solamente $B := A$. Se $f$ ha un solo autovalore $\lambda$ e ammette una base ciclica (ossia esiste un solo blocco di Jordan), considerando $B := A - \lambda I_n$,
|
|
quasi ogni vettore è un vettore ciclico (è pertanto consigliato cercare un vettore
|
|
in modo casuale, piuttosto che estendere tutte le basi dei kernel).
|
|
|
|
\subsubsection{La forma canonica di Jordan reale}
|
|
|
|
Sia $A \in M(n, \RR)$. Allora
|
|
la forma canonica di Jordan reale è una variante reale della forma canonica di
|
|
Jordan che esiste sempre (infatti gli autovalori di $A$ non sono forzatamente
|
|
in $\RR$, e potrebbero dunque essere in $\CC \setminus \RR$). La forma canonica di
|
|
Jordan reale si costruisce a partire da una forma canonica di Jordan $J$
|
|
e una sua base di Jordan $\basis$ associata. Tale forma canonica
|
|
si costruisce mediante il seguente algoritmo:
|
|
|
|
\begin{enumerate}
|
|
\item Si scelga un autovalore $z$, se non si è già considerato il
|
|
suo coniugato $\conj z$:
|
|
\begin{enumerate}[a.]
|
|
\item Si prenda la base $\basis_z = \{\vv 1, \ldots, \vv k, \conj{\vv 1}, \ldots, \conj{\vv k}\}$ che
|
|
genera i blocchi di $z$ e $\conj z$ e si consideri la nuova
|
|
base $\basis_z' = \{ \Re(\vv 1), \imm(\vv 1), \ldots, \Re(\vv k), \imm(\vv 1k) \}$,
|
|
\item In tale base la forma canonica di Jordan varia eliminando i blocchi
|
|
di $\conj z$, sostituendo all'autovalore $z = a + bi$ il seguente blocco:
|
|
\[ \Matrix{
|
|
a & -b \\ b & a
|
|
}, \]
|
|
ed ingrandendo gli eventuali $1$ mediante l'identità $I_2$ (tale processo prende
|
|
il nome di complessificazione).
|
|
\end{enumerate}
|
|
\item La matrice ottenuta dopo aver considerato tutti gli eventuali autovalori complessi è una forma canonica di Jordan reale, e la base ottenuta mediante
|
|
tutti i processi di complessificazione è una base di Jordan reale.
|
|
\end{enumerate}
|
|
|
|
\subsection{Prodotto scalare e congruenza}
|
|
Si consideri una mappa $\varphi : V \times V \to \KK$. Si dice che
|
|
$\varphi$ è un prodotto scalare (e quindi che $\varphi \in \PS(V)$, lo spazio dei prodotti scalari) se è una forma bilineare simmetrica.
|
|
In particolare vale la seguente identità:
|
|
|
|
\[ \varphi\left( \sum_{i=1}^s a_i \vv i, \sum_{j=1}^t b_j \ww j \right) =
|
|
\sum_{i=1}^s \sum_{j=1}^t a_i b_j \varphi(\vv i, \ww j). \]
|
|
|
|
Se $\basis = \{ \vv 1, \ldots ,\vv n \}$ è una base di $V$, si definisce $M_\basis(\varphi) = (\varphi(\vv i, \vv j))_{i,j=1\mbox{--}n}$ come la matrice associata al prodotto scalare $\varphi$. In particolare,
|
|
se $a_\varphi : V \to V^*$ è la mappa lineare che associa a $\v$ il funzionale $\varphi(\v, \cdot) \in V^*$
|
|
tale che $\varphi(\v, \cdot)(\w) = \varphi(\v, \w)$. Si scrive $(V, \varphi)$ per indicare uno
|
|
spazio vettoriale $V$ dotato del prodotto scalare $\varphi$.
|
|
|
|
Si definisce prodotto scalare \textit{standard} il prodotto $\varphi$ tale che
|
|
$\varphi(\v, \w) = [\v]_\basis^\top [\w]_\basis$.
|
|
|
|
Si dice che due vettori $\v$, $\w \in V$ sono ortogonali tra loro, scritto come $\v \perp \w$, se
|
|
$\varphi(\v, \w) = 0$. Dato $W$ sottospazio di $V$, si definisce $W^\perp$ come il sottospazio di $V$ dei vettori ortogonali a tutti i vettori di $W$. Si dice che $\varphi$ è non degenere se $V^\perp = \zerovecset$.
|
|
Si scrive in particolare che $V^\perp = \Rad(\varphi)$.
|
|
|
|
Si dice che $V = U \oplus^\perp W$ (ossia che $U$ e $W$ sono in somma diretta ortogonale) se $V = U \oplus W$ e $U \subseteq W^\perp$. Sia $i : W \to V$ tale che $\w \mapsto \w$. Si scrive $\restr{\varphi}{W}$ intendendo $\restr{\varphi}{W \times W}$.
|
|
|
|
Ad ogni prodotto scalare si può associare una forma quadratica (e viceversa) $q : V \to \KK$ tale che
|
|
$q(\v) = \varphi(\v, \v)$. Un vettore $\v \in V$ si dice isotropo se $q(\v) = 0$ (altrimenti si dice
|
|
anisotropo). Si definisce il cono isotropo $\CI(\varphi)$ come l'insieme dei vettori isotropi di $V$.
|
|
|
|
Se $\KK = \RR$, si dice che $\varphi$ è semidefinito positivo ($\varphi \geq 0$) se $q(\v) \geq 0$ $\forall \v \in V$, e che è semidefinito negativo ($\varphi \leq 0$) se $q(\v) \leq 0$ $\forall \v \in V$. Si dice
|
|
che $\varphi$ è definito positivo ($\varphi > 0$) se $\varphi \geq 0$ e se $q(\v) = 0 \iff \v = \vec 0$,
|
|
e che è definito negativo ($\varphi < 0$) se $\varphi \leq 0$ e se $q(\v) = 0 \iff \v = \vec 0$.
|
|
|
|
Si dice che $\varphi$ è definito se è definito positivo o definito negativo. Analogamente $\varphi$
|
|
è semidefinito se è semidefinito positivo o semidefinito negativo.
|
|
|
|
\begin{itemize}
|
|
\item $M_\basis(\varphi)$ è simmetrica,
|
|
\item $\varphi(\v, \w) = [\v]_\basis^\top M_\basis(\varphi) [\w]_\basis$,
|
|
\item $M_\basis(\varphi) = M^\basis_{\basis^*}(a_\varphi)$,
|
|
\item $\Ker a_\varphi = V^\perp$,
|
|
\item $\varphi$ è non degenere se e solo se $M_\basis(\varphi)$ è invertibile,
|
|
\item $W^\perp = \Ker i^\top \circ a_\varphi$,
|
|
\item $a_\varphi(W^\perp) = \Ann(W) \cap \Im a_\varphi$,
|
|
\item $\dim W + \dim W^\perp = \dim V + \dim (W \cap V^\perp)$ (da sopra),
|
|
\item $V = W \oplus^\perp W^\perp$ se $\restr{\varphi}{W}$ è non degenere ($\iff W \cap W^\perp = \Rad(\restr{\varphi}{W}) = \zerovecset$),
|
|
\item $(W^\perp)^\perp = W^\dperp = W + \Rad(\varphi) = W + V^\perp$,
|
|
\item $(U + W)^\perp = U^\perp \cap W^\perp$,
|
|
\item $(U \cap W)^\perp \supseteq U^\perp + W^\perp$,
|
|
\item $(U \cap W)^\perp = U^\perp + W^\perp$, se $\varphi$ è non degenere,
|
|
\item $\varphi$ è definito $\iff$ $\CI(\varphi) = \zerovecset$,
|
|
\item $\varphi$ è semidefinito $\iff$ $\CI(\varphi) = V^\perp = \Rad(\varphi)$ (considera l'esistenza
|
|
di due vettori $\v$, $\w \in V$ con forme quadratiche discordi, osserva che sono linearmente indipendenti
|
|
e trova un $\lambda \in \KK$ tale per cui $\v + \lambda \w$ crea un assurdo).
|
|
\end{itemize}
|
|
|
|
Se $\basis'$ è un'altra base di $V$, vale il seguente \textit{teorema di cambiamento di base}:
|
|
|
|
\[ M_{\basis'}(\varphi) = M_{\basis}^{\basis'}(\Idv)^\top \, M_\basis(\varphi) \, M_{\basis}^{\basis'}(\Idv). \]
|
|
|
|
Si definisce relazione di congruenza la relazione di equivalenza $\cong$ (o $\equiv$) definita
|
|
su $\Sym(n, \KK)$ nel seguente modo:
|
|
|
|
\[ A \cong B \iff \exists P \in \GL(n, \KK) \mid A = P^\top B P. \]
|
|
|
|
|
|
\begin{itemize}
|
|
\item $A \cong B \implies \rg(A) = \rg(B)$ (il rango è invariante per congruenza; e dunque si può
|
|
definire $\rg(\varphi)$ come il rango di una qualsiasi matrice associata a $\varphi$),
|
|
\item $A \cong B \implies \det(A) \det(B) \geq 0$ (in $\KK = \RR$ il segno del determinante è invariante per congruenza),
|
|
\item Due matrici associate a $\varphi$ in basi diverse sono congruenti per la formula
|
|
di cambiamento di base.
|
|
\end{itemize}
|
|
|
|
Si definiscono i seguenti tre indici per $\KK = \RR$:
|
|
|
|
\begin{itemize}
|
|
\item $\iota_+ = \max\{ \dim W \mid W \subseteq V \E \restr{\varphi}{W} > 0 \}$,
|
|
\item $\iota_- = \max\{ \dim W \mid W \subseteq V \E \restr{\varphi}{W} < 0 \}$,
|
|
\item $\iota_0 = \dim V^\perp$,
|
|
\end{itemize}
|
|
|
|
e si definisce segnatura di $\varphi$ la terna $\sigma = (\iota_+, \iota_-, \iota_0)$.
|
|
|
|
Si dice che una base $\basis$ di $V$ è ortogonale se i suoi vettori sono a due a due ortogonali (e
|
|
quindi la matrice associata in tale base è diagonale). Se $\Char \KK \neq 2$, valgono i seguenti risultati:
|
|
|
|
\begin{itemize}
|
|
\item $\varphi(\v, \w) = \frac{q(\v + \w) - q(\v) - q(\w)}{2}$ (formula di polarizzazione; $\varphi$ è
|
|
completamente determinata dalla sua forma quadratica),
|
|
|
|
\item Esiste sempre una base ortogonale $\basis$ di $V$ (teorema di Lagrange; è sufficiente considerare
|
|
l'esistenza di un vettore anisotropo $\w \in V$ ed osservare che $V = W \oplus^\perp W^\perp$, dove $W = \Span(V)$, concludendo per induzione; o in caso di non esistenza di tale $\w$, concludere per il
|
|
risultato precedente),
|
|
|
|
\item (se $\KK = \CC$) Esiste sempre una base ortogonale $\basis$ di $V$ tale che:
|
|
|
|
\[ M_\basis(\varphi) = \Matrix{I_r & \rvline & 0 \\ \hline 0 & \rvline & 0\,}, \]
|
|
|
|
\vskip 0.05in
|
|
|
|
dove $r = \rg(\varphi)$ (teorema di Sylvester, caso complesso; si consideri una base ortogonale e se
|
|
ne normalizzino i vettori anisotropi),
|
|
|
|
\item Due matrici simmetriche con stesso rango allora non solo sono SD-equivalenti, ma sono
|
|
anche congruenti,
|
|
|
|
\item (se $\KK = \RR$) Esiste sempre una base ortogonale $\basis$ di $V$ tale che:
|
|
|
|
\[ M_\basis(\varphi) = \Matrix{I_{\iota_+} & \rvline & 0 & \rvline & 0 \\ \hline 0 & \rvline & -I_{\iota_-} & \rvline & 0 \\ \hline 0 & \rvline & 0 & \rvline & 0\cdot I_{\iota_0} }. \]
|
|
|
|
\vskip 0.05in
|
|
|
|
Inoltre $\sigma$ è un invariante completo per la congruenza, e vale che, su una qualsiasi base ortogonale $\basis'$ di $V$, $\iota_+$ è esattamente il numero
|
|
di vettori anisotropi di base con forma quadratica positiva, che $\iota_-$ è il numero di vettori con forma
|
|
negativa e che $\iota_0$ è il numero di vettori isotropi (teorema di Sylvester, caso reale; si consideri
|
|
una base ortogonale e se ne normalizzino i vettori anisotropi, facendo infine eventuali considerazioni
|
|
dimensionali per dimostrare la seconda parte dell'enunciato),
|
|
|
|
\item $\varphi > 0 \iff \sigma = (n, 0, 0)$ e $\varphi < 0 \iff \sigma = (0, n, 0)$,
|
|
\item $\varphi \geq 0 \iff \sigma = (n - k, 0, k)$ e $\varphi \leq 0 \iff \sigma = (0, n - k, k)$,
|
|
con $0 \leq k \leq n$ tale che $k = \dim V^\perp$,
|
|
|
|
\item I vettori isotropi di una base ortogonale sono una base di $V^\perp$,
|
|
|
|
\item $\rg(\varphi) = \iota_+ + \iota_-$,
|
|
|
|
\item $n = \iota_+ + \iota_- + \iota_0$,
|
|
|
|
\item Se $W$ è un sottospazio di $V$, $\iota_+(\varphi) \geq \iota_+(\restr{\varphi}{W})$ e
|
|
$\iota_-(\varphi) \geq \iota_-(\restr{\varphi}{W})$,
|
|
|
|
\item Se $V = U \oplus^\perp W$, $\sigma(\varphi) = \sigma(\restr{\varphi}{U}) + \sigma(\restr{\varphi}{W})$,
|
|
|
|
\item Se $\KK = \RR$ e $A = M_\basis(\varphi)$, allora:
|
|
\[ \sigma = \textstyle \left( \sum_{\substack{\lambda \in \Sp(\varphi) \\ \lambda > 0}} \mu_a(\lambda), \; \sum_{\substack{\lambda \in \Sp(A) \\ \lambda < 0}} \mu_a(\lambda), \; \mu_0(\lambda) \right), \]
|
|
come conseguenza del teorema spettrale reale.
|
|
\end{itemize}
|
|
|
|
Si chiama matrice di Sylvester una matrice della forma vista nell'enunciato del teorema di Sylvester
|
|
reale, e si dice che una base $\basis$ è una base di Sylvester se la matrice ad essa associata è di
|
|
Sylvester. Per il teorema di Sylvester, tale base esiste sempre, e la matrice di Sylvester è unica per
|
|
ogni prodotto scalare $\varphi$.
|
|
|
|
\subsubsection{Algoritmo di ortogonalizzazione di Gram-Schmidt}
|
|
|
|
Data una base $\basis$ di $V$, se $\abs{\CI(\varphi) \cap \basis} \leq 1$ (ossia se ogni vettore di
|
|
$\basis$ è anisotropo o al più vi è un vettore isotropo, posto in fondo come $\vv n$), si può
|
|
trovare una base ortogonale $\basis' = \{ \vv 1', \ldots, \vv n' \}$ a partire da $\basis$ tale che ne mantenga la stessa bandiera, ossia tale che:
|
|
\[ \Span(\vv 1', \ldots, \vv i') = \Span(\vv 1, \ldots, \vv i) \forall 1 \leq i \leq n. \]
|
|
|
|
Si definisce $C(\w, \v) = \frac{\varphi(\v, \w)}{\varphi(\w, \w)}$ come il coefficiente di Fourier
|
|
di $\v$ rispetto a $\w$. L'algoritmo allora funziona nel seguente modo:
|
|
|
|
\begin{enumerate}
|
|
\item Si prenda in considerazione $\vv 1$ e si sottragga ad ogni altro vettore $\vv i$ della base il
|
|
vettore $C(\vv 1, \vv i) \, \vv 1$,
|
|
\item Si ripeta il processo considerando come $\basis$ tutti i vettori di $\basis$ con $\vv 1$ escluso,
|
|
o si termini l'algoritmo una volta che è rimasto un solo vettore.
|
|
\end{enumerate}
|
|
|
|
\subsubsection{Metodo di Jacobi per il calcolo della segnatura}
|
|
Sia $A = M_\basis(\varphi)$ una matrice associata a $\varphi$ nella base $\basis$.
|
|
Sia $d_0 := 1$. Se $d_i = \det(A_{1, \ldots, i}^{1, \ldots, i})$ (è possibile anche
|
|
prendere un'altra sequenza di minori, a patto che essi siano principali e che siano
|
|
crescenti per inclusione) è diverso da zero
|
|
per ogni $1 \leq i \leq n-1$, allora $\iota_+$ è il numero di permanenze di segno
|
|
di $d_i$ (zero escluso), $\iota_-$ è il numero di variazioni di segno (zero escluso), e $\iota_0$ è $1$ se
|
|
$d_n = 0$ o $0$ altrimenti.
|
|
|
|
In generale, se $W$ è un sottospazio di $W'$, $W$ ha codimensione $1$ rispetto a $W'$ e $\det(M_{\basis_W}(\restr{\varphi}{W})) \neq 0$ per una base $\basis_W$ di $W$, allora la segnatura
|
|
di $\restr{\varphi}{W'}$ è la stessa di $\restr{\varphi}{W}$, dove si aggiunge
|
|
$1$ a $\iota_+$, se i determinanti $\det(M_{\basis_W}(\restr{\varphi}{W}))$ e $\det(M_{\basis_{W'}}(\restr{\varphi}{W}))$ (dove $\basis_{W'}$ è una base di $W'$) concordano di segno, $1$ a $\iota_-$, se
|
|
sono discordi, o $1$ a $\iota_0$ se l'ultimo di questi due determinanti è nullo.
|
|
|
|
Dal metodo di Jacobi si deduce il criterio di definitezza di Sylvester: $A$ è
|
|
definita positiva se e solo se $d_i > 0$ $\forall 1 \leq i \leq n$; $A$ è
|
|
definita negativa se e solo se $(-1)^i d_i > 0$ $\forall 1 \leq i \leq n$.
|
|
|
|
\subsubsection{Sottospazi isotropi e indice di Witt}
|
|
|
|
Si dice che un sottospazio $W$ di $V$ è isotropo se $\restr{\varphi}{W} = 0$, o
|
|
equivalentemente se $W \subseteq W^\perp$ (i.e.~se $W \cap W^\perp = W$, e quindi
|
|
se $\Rad(\restr{\varphi}{W}) = W$). Si definisce allora l'indice di Witt $W(\varphi)$ come
|
|
la dimensione massima di un sottospazio isotropo di $V$.
|
|
|
|
\begin{itemize}
|
|
\item $V^\perp$ è un sottospazio isotropo,
|
|
\item Se $W$ è isotropo, allora $\dim W \leq \frac{\dim V + \dim \Rad(\varphi)}{2}$,
|
|
\item Se $W$ è isotropo e $\varphi$ è non degenere, allora $\dim W \leq \frac{1}{2} \dim V$,
|
|
\item Se $\KK = \RR$, allora $W(\varphi) = \min\{ i_+, i_- \} + i_0$ (è sufficiente considerare
|
|
una base di Sylvester e creare una nuova base i cui i vettori sono o isotropi o della forma $\vv i - \ww i$, dove $q(\vv i) = 1$ e $q(\ww i) = 1$, concludendo con discussioni dimensionali),
|
|
\item Se $\varphi$ è definito, allora $W(\varphi) = 0$,
|
|
\item Se $\varphi$ è semidefinito, allora $W(\varphi) = i_0$ (e $W = V^\perp$ è un sottospazio
|
|
isotropo di tale dimensione).
|
|
\end{itemize}
|
|
|
|
\subsubsection{Isometrie tra spazi vettoriali}
|
|
|
|
Due spazi vettoriali $(V, \varphi)$ e $(W, \psi)$ su $\KK$ si dicono isometrici tra loro se
|
|
esiste un isomorfismo $f : V \to W$ tale che $\varphi(\vv 1, \vv 2) = \psi(f(\vv 1), f(\vv 2))$.
|
|
|
|
Se $f$ è un isomorfismo tra $V$ e $W$, sono equivalenti le seguenti affermazioni:
|
|
|
|
\begin{enumerate}[(i)]
|
|
\item $(V, \varphi)$ e $(W, \psi)$ sono isometrici tra loro tramite $f$,
|
|
\item $\forall \basis$ base di $V$, $M_\basis(\varphi) = M_{f(\basis)}(\psi)$,
|
|
\item $\exists \basis$ base di $V$, $M_\basis(\varphi) = M_{f(\basis)}(\psi)$.
|
|
\end{enumerate}
|
|
|
|
Inoltre, $V$ e $W$ sono isometrici se e solo se hanno la stessa dimensione e le matrici associate
|
|
a $\varphi$ e $\psi$ in due basi di $V$ e di $W$ sono congruenti (infatti, in tal caso, esistono due
|
|
basi di $V$ e di $W$ che condividono la stessa matrice associata, ed è possibile associare ad uno
|
|
ad uno gli elementi di queste basi).
|
|
|
|
Pertanto, se $\basis_V$ e $\basis_W$ sono due basi di $V$ e di $W$, $\KK = \RR$ e $M_{\basis_V}(\varphi)$ e $M_{\basis_W}(\psi)$ condividono la stessa segnatura, allora $V$ e $W$ sono
|
|
isometrici tra loro (come conseguenza del teorema di Sylvester reale).
|
|
|
|
Analogamente, se $\KK = \CC$ e $M_{\basis_V}(\varphi)$ e $M_{\basis_W}(\psi)$ condividono lo stesso
|
|
rango, allora $V$ e $W$ sono isometrici tra loro (come conseguenza stavolta del teorema di Sylvester
|
|
complesso).
|
|
|
|
\vfill
|
|
\hrule
|
|
~\\
|
|
Gabriel Antonio Videtta, \url{https://poisson.phc.dm.unipi.it/~videtta/}
|
|
\end{multicols}
|
|
|
|
\end{document} |