\subsection{Autovalori, diagonalizzabilità e triangolabilità}
Sia $f \in\End(V)$. Si dice che $\lambda\in\KK$ è un autovalore
Sia $f \in\End(V)$. Si dice che $\lambda\in\KK$ è un autovalore
di $f$ se e solo se $\exists\vec{v}\neq\vec{0}$, $\vec{v}\in V$
di $f$ se e solo se $\exists\vec{v}\neq\vec{0}$, $\vec{v}\in V$
@ -1252,7 +1252,11 @@
\[ W =(W \cap V_{\lambda_1})\oplus\cdots\oplus(W \cap V_{\lambda_k}), \]
\[ W =(W \cap V_{\lambda_1})\oplus\cdots\oplus(W \cap V_{\lambda_k}), \]
dove $\lambda_1$, ..., $\lambda_k$ sono gli autovalori distinti di
dove $\lambda_1$, ..., $\lambda_k$ sono gli autovalori distinti di
$f$, e dunque $\restr{f}{W}$ è sempre diagonalizzabile, se $f$ lo è.
$f$, e dunque $\restr{f}{W}$ è sempre diagonalizzabile, se $f$ lo è. In generale, dato un sottospazio $W$ di $V$ che
è $f$-invariante, si può facilmente costruire un suo
supplementare $f$-invariante. È infatti sufficiente
prendere una base di $W$ ed estenderla a base di $V$
completandola tramite una base di autovettori di $V$.
Se $f$ è diagonalizzabile, anche $f^k$ lo è, per ogni $k \in\NN$. Se
Se $f$ è diagonalizzabile, anche $f^k$ lo è, per ogni $k \in\NN$. Se
ogni vettore di $V$ è un autovettore di $f$, allora $f =\lambda\Id$,
ogni vettore di $V$ è un autovettore di $f$, allora $f =\lambda\Id$,
@ -1270,7 +1274,27 @@
caratteristico ha come radici esattamente gli elementi sulla diagonale della
caratteristico ha come radici esattamente gli elementi sulla diagonale della
matrice associata di $f$ nella base $\basis$ in cui tale matrice è triangolare
matrice associata di $f$ nella base $\basis$ in cui tale matrice è triangolare
superiore (e dunque $p_f(\lambda)$ è riducibile in fattori lineari). Se invece $p_f(\lambda)$ è riducibile in fattori lineari, si può applicare il seguente
superiore (e dunque $p_f(\lambda)$ è riducibile in fattori lineari). Se invece $p_f(\lambda)$ è riducibile in fattori lineari, si può applicare il seguente
algoritmo [...]
algoritmo (su cui si fonda induttivamente la dimostrazione della proposizione):
\begin{enumerate}
\itemsep 0pt
\item Si calcolino le basi degli autospazi di $f$,
\item Si estenda l'unione $\basis_A$ di queste basi a una base $\basis$ di $V$,
\item Si consideri la matrice associata di $f$ nella base $\basis$, della forma: \setlength{\extrarowheight}{1.3pt}
\[M_\basis(f)=\begin{pmatrix}
A
&\rvline& B \\
\hline
0 &\rvline&
C
\end{pmatrix}, \]\setlength{\extrarowheight}{0pt}dove $A$ è una matrice diagonale contenente gli autovalori di $\Sp(f)$,
\item Se $M_\basis(f)$ è triangolare superiore, l'algoritmo termina. Altrimenti si ripeta l'algoritmo su $C$ (ossia sull'endomorfismo $p_W \circ\restr{f}{W}\in\End(W)$, dove $W$ è il sottospazio generato dai vettori aggiunti alla base $\basis_A$ per costruire la base $\basis$).
\end{enumerate}
Inoltre, se $W$ è un sottospazio $f$-invariante di $V$,
e $f$ è triangolabile, anche $\restr{f}{W}$ lo è (infatti,
in tal caso, il polinomio caratteristico di $f$ si riduce
in fattori lineari).
\subsubsection{Diagonalizzabilità e triangolabilità simultanea}
\subsubsection{Diagonalizzabilità e triangolabilità simultanea}
@ -1291,7 +1315,118 @@
che una base in cui le matrici associate di $f$ e $g$ sono diagonali.
che una base in cui le matrici associate di $f$ e $g$ sono diagonali.
Analogamente due endomorfismi $f$, $g \in\End(V)$ triangolabili si dicono
Analogamente due endomorfismi $f$, $g \in\End(V)$ triangolabili si dicono
simultaneamente triangolabili se [...]
simultaneamente triangolabili se esiste una base $\basis$
in cui $M_\basis(f)$ e $M_\basis(g)$ sono due matrici
triangolari superiori. Non è generalmente vero che
due endomorfismi simultaneamente triangolabili
commutano; è tuttavia vero il viceversa. Se infatti $f$
e $g$ sono due endomorfismi triangolabili tali che $f \circ g = g \circ f$, allora si può riapplicare, con le dovute modifiche, il precedente algoritmo di triangolarizzazione (anche questa volta dimostrabile per induzione):
\begin{enumerate}
\itemsep 0pt
\item Si calcolino le basi degli autospazi di $f$ e si consideri $\restr{f}{U}$, dove $U =\eigsp1\oplus\cdots\oplus\eigsp k$,
\item Si cerchi una base $\basis_U$ in cui $\restr{f}{U}$ e $\restr{g}{U}$ sono simultaneamente diagonalizzabili (osservando che $g$ è $U$-invariante),
\item Si estenda tale base $\basis_U$ ad una base $\basis$ di $V$ e si chiami $W$ il sottospazio $\Span(\basis_W)$, dove $\basis_W :=\basis\setminus\basis_U$,
\item Si considerino la matrice associata di $f$ e di $g$ nella base $\basis$, della forma: \setlength{\extrarowheight}{1.3pt}
\begin{gather*}
M_\basis(f) = \begin{pmatrix}
A
&\rvline& B \\
\hline
0 &\rvline&
C
\end{pmatrix}, \\
M_\basis(g) = \begin{pmatrix}
A'
&\rvline& B' \\
\hline
0 &\rvline&
C'
\end{pmatrix},
\end{gather*}
\setlength{\extrarowheight}{0pt}dove $A$ e $A'$ sono matrici diagonali contenente gli autovalori dei rispettivi endomorfismi,
\item Se le due matrici sono triangolari superiori, l'algoritmo termina. Altrimenti si ripeta l'algoritmo su $C$ e $C'$ (ossia sugli endomorfismi $p_W \circ\restr{f}{W}$, $p_W \circ\restr{g}{W}\in\End(W)$, i
quali commutano, dal momento che vale l'identità $C C' = C' C$, dedotta moltiplicando le due matrici associate di sopra).
\end{enumerate}
\subsubsection{Polinomio minimo}
Sia $f \in\End(V)$. Si può allora definire l'applicazione $\sigma_f : \KK[x]\to\End(V)$
tale per cui $\sigma_f(p)= p(f)$, dove per $p(f)$ s'intende
la riscrittura di $p$ a cui si sostituisce all'usuale
somma e all'usuale prodotto, la somma di applicazioni
e la composizione (intendendo, in particolare, i termini
noti come multipli dell'identità $f^0 :=\Idv$). In particolare $\sigma_f$ è un omomorfismo di anelli,
ed è dunque anche un'applicazione lineare. $\sigma_f$ non
è mai iniettiva, ed esiste dunque sempre un polinomio $p$
tale per cui $\sigma_f(p)=0$, l'applicazione nulla (è
sufficiente prendere $n^2+1$ potenze di $f$ e osservare
che devono essere linearmente indipendenti). Poiché
$\KK[x]$ è un PID, $\Ker\sigma_f$ è un ideale principale,
e quindi esiste un polinomio monico $\varphi_f$, detto
polinomio minimo di $f$, tale per cui
$\Ker\sigma_f =(\varphi_f)$.
\begin{itemize}
\item$\varphi_f \mid p_f$ (teorema di Hamilton-Cayley),
\item$\deg\varphi_f = d$ se e solo se $\Idv$, $f$, ...,
$f^{d-1}$ sono linearmente indipendenti e $f^d \in\Span(\Idv, f, \ldots, f^{d-1})$,
\item$\dim\KK[f]=\deg\varphi_f$ (infatti, per
il primo teorema di omomorfismo $\KK[f]\cong\KK[x]\quot(\varphi_f)$, da cui si ricava
facilmente la dimensione dello spazio),
\item$\Idv$, $f$, ..., $f^{d-1}$ formano una base
di $\KK[f]$ (per i precedenti risultati), se $d =\deg\varphi_f$,
\item$\varphi_f$ e $p_f$ condividono gli stessi fattori
primi (se infatti non comparisse un autovalore come radice di $\varphi_f$, $\varphi_f(f)$ non sarebbe nullo),
\item gli esponenti dei fattori lineari di $\varphi_f$
sono esattamente gli indici di Fitting degli autospazi
generalizzati di $f$,
\item gli autovalori hanno moltiplicità algebrica $1$ in $\varphi_f$ se e solo se $f$ è diagonalizzabile (è sufficiente utilizzare il precedente risultato, o considerare la forma canonica di Jordan).
\end{itemize}
Sia $\v\in V$. Si definisce allora l'applicazione
$\val_{f, \v} : \KK[x]\to V$ in modo tale
che $\val_{f, \v}(p)= p(f)(\v)$. Come prima,
$\val_{f,\v}$ è un'applicazione lineare. Si osserva
ancora che $\Ker\val_{f, \v}$ è un'ideale,
e quindi che esiste un polinomio $\varphi_{f, \v}$
tale per cui $\Ker\val_{f, \v}=(\varphi_{f, \v})$.
Tale polinomio viene denotato come polinomio minimo
relativo al vettore $\v$. Si definisce in particolare
$\KK[f](\v) :=\Imm\val_{f, \v}$.
\begin{itemize}
\item$\varphi_{f, \v}\mid\varphi_f$ (infatti $\varphi_f(f)=0$, e dunque $\varphi_f(f)$ annulla $\v$),
\item$\deg\varphi_{f, \v}= d$ se e solo se $\v$, $f(\v)$, ..., $f^{d-1}(\v)$ sono linearmente indipendenti
e $f^d(\v)\in\Span(\v, \ldots, f^{d-1}(\v))$,
\item$\dim\KK[f](\v)=\deg\varphi_{f, \v}$ (si dimostra allo stesso modo in cui si è dimostrata la proposizione analoga per $\varphi_f$),
\item$\v$, ..., $f^{d-1}(\v)$ formano una base
di $\KK[f](\v)$, se $d =\deg\varphi_{f, \v}$.
\item se $\vv1$, ..., $\vv k$ sono generatori
di $V$, allora $\varphi_f =\mcm(\varphi_{f, \vv1}, \ldots, \varphi_{f, \vv k})$ (è sufficiente mostrare
che $\varphi_f$ annulla una base e che il grado è minimale).
\item se $\v$, ..., $f^{k}(\v)$ sono linearmente indipendenti per qualche $\v\in V$, allora $\deg\varphi_f \geq\varphi_{f, \v}\geq k +1$.
\item esiste sempre un vettore $\v$ tale per cui
$\varphi_f =\varphi_{f, \v}$ (se $\KK$ è infinito).
\item$p(f)$ è invertibile $\iff\Ker p(f)=\zerovecset$$\iff\MCD(\varphi_f, p)\in\KK^*$, se $p \in\KK[x]$.
\end{itemize}
Un vettore $\v$ si dice ciclico rispetto a $f$ se
gli $n$ vettori $\v$, ..., $f^{n-1}(\v)$ formano
una base di $V$, in tal caso detta base ciclica
di $V$.
Se $\KK$ è infinito, $V$ ammette una base ciclica se e solo se $p_f =\pm\varphi_f$ (infatti esiste sempre un vettore $\v$ tale per cui $\varphi_f =\varphi_{f, \v}$). In