vale che $M(n, \KK)=\Sym(n, \KK)\oplus\Lambda(n, \KK)$,
\item una base naturale di $\KK[x]$ è data da $\basis=\{x^n \mid
n \in\NN\}$, mentre una di $\KK_t[x]$ è data da $\basis\cap
\KK_t[x] = \{x^n \mid n \in\NN\land n \leq t\}$(quindi
$\dim\KK[x]=\infty$ e $\dim\KK_t[x]= t+1$),
\item una base naturale di $\KK$ è $1_\KK=\{1_\KK\}$ (quindi
$\dim\KK=1$),
\item un sottospazio di dimensione $1$ si definisce \textit{retta},
uno di dimensione $2$\textit{piano}, uno di dimensione $3$
\textit{spazio}, e, infine, uno di dimensione $n-1$ un iperpiano,
\item un iperpiano $\Pi$ è sempre rappresentabile da un'equazione cartesiana
nelle coordinate della rappresentazione della base (infatti ogni
iperpiano è il kernel di un funzionale $f \in\dual{V}$, e $M^\basis_{1_\KK}(f)\,[\vec{v}]_\basis=0$ è l'equazione cartesiana; è sufficiente prendere una base di $\Pi$ e completarla
a base di $V$ con un vettore $\vec{t}$, considerando infine
\item un iperpiano $\Pi$, rappresentato da un'equazione cartesiana $\alpha_1 x_1+\ldots+\alpha_n x_n =0$, è esattamente il sottospazio ortogonale a $\Span(\alpha_1, \ldots, \alpha_n)^\perp$ tramite il prodotto scalare standard,
\item in generale, un sistema di equazioni omogenee è l'intersezione di più
\item se $\mathbb{F}$ è un'estensione di campo di $\KK$, allora vale $[V : \KK]=[V : \mathbb{F}][\mathbb{F} : \KK]$ (\textit{teorema delle torri algebriche}).
\item$M^{\basis_V}_{\basis_W}(f)=\begin{pmatrix}\;[f(\vec{v_1})]_{\basis_W}\,\mid\,\cdots\,\mid\,[f(\vec{v_n})]_{\basis_W}\;\end{pmatrix}$ è la matrice
associata a $f$ sulle basi $\basis_V$, $\basis_W$,
\item$M^V_W(f + h)= M^V_W(f)+ M^V_W(h)$,
\item$M^V_Z(g \circ f)= M^W_Z(g) M^V_W(f)$,
\item data $A \in M(m, n, \KK)$, sia $f_A : \KK^n \to\KK^m$ tale
che $f_A(\vec{x})= A \vec{x}$, allora $M^{e}_{e'}(f_A)= A$,
\item$f$ è completamente determinata dai suoi valori in una
qualsiasi base di $V$ ($M^{\basis_V}_{\basis_W}$ è un isomorfismo
tra $\mathcal{L}(V, W)$ e $M(\dim W, \dim V, \mathbb{K})$),
\item$\dim\mathcal{L}(V, W)=\dim V \cdot\dim W$ (dall'isomorfismo
Si dice che i sottospazi $W_1$, ..., $W_k$ di $V$ sono in somma
diretta, e si scrive $W_1+\ldots+ W_k = W_1\oplus\ldots\oplus W_k$,
se la rappresentazione di un vettore della somma di questi sottospazi
è unica, ossia se esistono unici $\ww1\in W_1$, ..., $\ww k \in W_k$ tali
per cui $\w\in W_1+\ldots+ W_k$ si scrive come $\w=\ww1+\ldots+\ww k$. \\
In generale, sono equivalenti i seguenti fatti:
\begin{enumerate}[(i)]
\itemsep0em
\item$W_1$, ..., $W_k$ sono in somma diretta,
\item Se esistono $\ww1\in W_1$, ..., $\ww k \in W_k$ tali per cui
$\ww1+\ldots+\ww k =\vec0$, allora $\ww1=\cdots=\ww k =\vec0$ (è sufficiente considerare due scritture alternative e poi farne la differenza per dimostrare un'implicazione),
\item Se $\basis_{W_1}$, ..., $\basis_{W_k}$ sono basi di $W_1$, ..., $W_k$,
allora $\bigcup_{i=1}^k \basis_{W_i}$ è base di $W_1+\ldots+ W_k$ (è sufficiente considerare l'indipendenza lineare per dimostrare un'implicazione),
\item$\dim(W_1+\ldots+ W_k)=\dim W_1+\ldots+\dim W_k$ (si dimostra facilmente che è equivalente a (iii), e quindi che lo è alle altre proposizioni),
\item$W_i \cap(W_1+\ldots+ W_{i-1})=\zerovecset$$\forall2\leq i \leq k$ (è sufficiente spezzare la somma in $(W_1+\ldots+ W_{i-1})+ W_i$ e ricondursi al caso di due sottospazi, mostrando in particolare, per induzione, l'equivalenza con (iv), da cui seguono le altre equivalenze),
\item$W_i \cap(W_1+\ldots+ W_{i-1}+\widehat{W_i}+ W_{i+1}+ W_k)=\zerovecset$$\forall1\leq i \leq k$, ossia $W_i$, intersecato con la somma
dei restanti sottospazi, è di dimensione nulla (è facile ricondursi alla proposizione (v) per induzione).
\item$\rg(A+B)=\rg(A)+\rg(B)\implies\Im(A+B)=\Im(A)\oplus\Im(B)$ (è sufficiente applicare la formula di Grassmann),
\item$\rg(A)$ è il minimo numero di matrici di rango uno che
sommate restituiscono $A$ (è sufficiente usare la proposizione
precedente per dimostrare che devono essere almeno $\rg(A)$),
\item$\rg(A)=1\implies\exists B \in M(m, 1, \KK)$, $C \in M(1, n, \KK)\mid A=BC$ (infatti $A$ può scriversi come $\begin{pmatrix}[c|c|c]\alpha_1 A^i &\cdots&\alpha_n A^i \end{pmatrix}$ per un certo $i \leq n$ tale che $A^i \neq\vec{0}$).
\end{itemize}
Siano $A \in M(m, n, \KK)$, $B \in M(n, k, \KK)$ e $C \in M(k, t, \KK)$.
Si definisce matrice di Vandermonde una matrice $A \in M(n, \KK)$ della
forma:
\[ A =\begin{pmatrix}
1 & x_1 & x_1^2 &\dots& x_1^{n-1}\\
1 & x_2 & x_2^2 &\dots& x_2^{n-1}\\
\vdots&\vdots&\vdots&\ddots&\vdots\\
1 & x_n & x_n^2 &\dots& x_n^{n-1}.
\end{pmatrix}\]
Vale allora che:
\[\det(A)=\prod_{1\leq i < j \leq n}(x_j - x_i), \]
verificabile notando che $\det(A)$ è di grado $\frac{n(n-1)}{2}$ e
che ponendo $x_i = x_j$ per una coppia $(i, j)$, tale matrice
ha due righe uguali, e quindi determinante nullo $\implies(x_j - x_i)\mid\det(A)\overbrace{\implies}^{\text{UFD}}\det(A)=\prod_{1\leq i < j \leq n}(x_j - x_i)$.
Pertanto una matrice di Vandermonde è invertibile se e solo se la sua
seconda colonna contiene tutti scalari distinti nelle coordinate. Tale
matrice risulta utile nello studio dell'interpolazione di Lagrange
(ossia nella dimostrazione dell'unicità del polinomio di $n-1$ grado
tale che $p(\alpha_i)=\beta_i$ per $i$ coppie ($\alpha_i$, $\beta_i$) con
\subsubsection{Rango tramite il determinante degli orlati}
Si dicono \textit{sottomatrici} della matrice $A \in M(m, n, \KK)$ tutte
le matrici contenute in $A$, ossia le matrici $B$ che sono ottenibili da $A$
mantenendo solo alcune sue righe e colonne. In generale, si scrive $A^{j_1, \ldots, j_s}_{i_1, \ldots, i_t}$ per indicare la sottomatrice ottenuta
da $A$ mantenendo le colonne di indice $j_1$, ..., $j_s$ e le righe di
indice $i_1$, ..., $i_t$. Quando è omesso l'indice delle colonne o l'indice
delle righe, si sottintende di aver mantenuto o tutte le colonne o tutte le righe
(e.g.~$A_{1,2}$ è la sottomatrice di $A$ ottenuta mantenendo tutte le colonne e
le prime due righe). Si dice che $M$ è \textit{minore} di $A$ una sua sottomatrice quadrata. Si chiamano \textit{orlati} di un minore $M$ di taglia $k$ i minori di taglia $k+1$ di $A$ aventi $M$ come minore.
di $B$ e mostrare che le relative colonne in $A$ sono ancora linearmente indipendenti),
\item$\rg(A)=\max\{\rg(B)\mid B \text{ sottomatrice di }\! A\}$ (è sufficiente utilizzare il precedente risultato; infatti $A$ è una sottomatrice di $A$),
\item$\rg(A)=\max\{\rg(B)\mid B \text{ minore invertibile di }\! A\}=\max\{n \mid\text{esiste un minore di $A$ di taglia $n$ invertibile}\}$ (è sufficiente utilizzare la prima disuguaglianza e considerare un minore di $A$ composto dalle righe e le colonne linearmente indipendenti di $A$, che sono
dello stesso numero, dal momento che il rango per righe è uguale al rango per colonne),
\item$\rg(A)$ è il più piccolo naturale $n$ tale per cui, per ogni minore
$M$ di $A$ di taglia maggiore di $n$, $\det(M)=0$ (ossia $M$ è singolare; segue direttamente dal precedente risultato),
\item$\rg(A)$ è il più piccolo naturale $n$ tale per cui, per ogni minore
$M$ di $A$ di taglia $n+1$, $\det(M)=0$ (ossia $M$ è singolare; segue dal precedente risultato a cui si combina lo sviluppo di Laplace del determinante -- se ogni minore di taglia $k$ ha determinante nullo, anche tutti i minori di
taglia maggiore di $k$ hanno determinante nullo).
\item esiste un minore $M$ di taglia $k$ di $A$ con $\det(M)\neq0$$\implies\rg(A)\geq k$ (deriva direttamente dall'ultimo risultato sul rango),
\item per ogni minore $M$ di taglia $k$ di $A$ vale che $\det(M)=0$
$\implies\rg(A) < k$ (come sopra).
\end{itemize}
Si può facilitare lo studio del rango tramite il teorema di Kronecker (o degli orlati): $\rg(A)$ è il più piccolo naturale $n$ tale per cui esista un minore
$M$ di taglia $k$ con $\det(M)\neq0$ e per cui ogni suo orlato $O$ è tale
per cui $\det(O)=0$.
Sia infatti, senza perdità di generalità, $M = A^{1,\ldots, k}_{1,\ldots,k}$ tale minore (altrimenti è sufficiente considerare una permutazione delle righe e
delle colonne per ricadere in questo caso; tale permutazione è ammessa dall'algoritmo di Gauss). Si mostra che $A^j \in\Span(A^1, \ldots, A^k)$$\forall j > k$. Si consideri ogni orlato $M_j$ di $M$ ottenuto scegliendo
la $j$-esima colonna di $A$: per ipotesi $\det(M_j)=0$, ed il rango è almeno
$k$. Quindi $\rg(M_j)= k$; poiché le prime $k$ righe sono linearmente indipendenti, l'ultima riga aggiunta deve certamente appartenere al loro
sottospazio generato. Quindi ogni riga di $A^{1,\ldots, k, j}$ appartiene
al sottospazio $\Span(A_1, \ldots, A_k)$, da cui si deduce che $\rg(A^{1,\ldots, k, j})= k$, e quindi che $\rg(A^{1,\ldots,k,j})= k \implies A^j \in\Span(A^1, \ldots, A^k)\implies\rg(A)= k$.
Se $f$ è diagonalizzabile, anche $f^k$ lo è, per ogni $k \in\NN$. Se
ogni vettore di $V$ è un autovettore di $f$, allora $f =\lambda\Id$,
con $\lambda\in\KK$ (è sufficiente considerare l'eventuale esistenza di più
autospazi e due vettori $\v$ e $\w$ di due autospazi distinti e considerare
le due scritture possibili di $f(\v+\w)$).
Si dice infine che $f$ è triangolabile (o triangolarizzabile) se $V$
ammette una base per cui la matrice associata di $f$ è triangolare superiore
(o inferiore, dal momento che è sufficiente riordinare dal basso la base
per ottenere una matrice associata triangolare superiore). Vale in particolare
che $f$ è triangolabile se e soltanto se $p_f(\lambda)$ è completamente
riducibile in fattori lineari in $\KK$ (dunque, nel caso di $\KK$ algebricamente
chiuso, $f$ è sempre triangolabile). Infatti, se $f$ è triangolabile, il polinomio
caratteristico ha come radici esattamente gli elementi sulla diagonale della
matrice associata di $f$ nella base $\basis$ in cui tale matrice è triangolare
superiore (e dunque $p_f(\lambda)$ è riducibile in fattori lineari). Se invece $p_f(\lambda)$ è riducibile in fattori lineari, si può applicare il seguente
algoritmo (su cui si fonda induttivamente la dimostrazione della proposizione):
\begin{enumerate}
\itemsep 0pt
\item Si calcolino le basi degli autospazi di $f$,
\item Si estenda l'unione $\basis_A$ di queste basi a una base $\basis$ di $V$,
\item Si consideri la matrice associata di $f$ nella base $\basis$, della forma: \setlength{\extrarowheight}{1.3pt}
\[M_\basis(f)=\begin{pmatrix}
A
&\rvline& B \\
\hline
0 &\rvline&
C
\end{pmatrix}, \]\setlength{\extrarowheight}{0pt}dove $A$ è una matrice diagonale contenente gli autovalori di $\Sp(f)$,
\item Se $M_\basis(f)$ è triangolare superiore, l'algoritmo termina. Altrimenti si ripeta l'algoritmo su $C$ (ossia sull'endomorfismo $p_W \circ\restr{f}{W}\in\End(W)$, dove $W$ è il sottospazio generato dai vettori aggiunti alla base $\basis_A$ per costruire la base $\basis$).
\end{enumerate}
Inoltre, se $W$ è un sottospazio $f$-invariante di $V$,
e $f$ è triangolabile, anche $\restr{f}{W}$ lo è (infatti,
in tal caso, il polinomio caratteristico di $f$ si riduce
simultaneamente triangolabili se esiste una base $\basis$
in cui $M_\basis(f)$ e $M_\basis(g)$ sono due matrici
triangolari superiori. Non è generalmente vero che
due endomorfismi simultaneamente triangolabili
commutano; è tuttavia vero il viceversa. Se infatti $f$
e $g$ sono due endomorfismi triangolabili tali che $f \circ g = g \circ f$, allora si può riapplicare, con le dovute modifiche, il precedente algoritmo di triangolarizzazione (anche questa volta dimostrabile per induzione):
\begin{enumerate}
\itemsep 0pt
\item Si calcolino le basi degli autospazi di $f$ e si consideri $\restr{f}{U}$, dove $U =\eigsp1\oplus\cdots\oplus\eigsp k$,
\item Si cerchi una base $\basis_U$ in cui $\restr{f}{U}$ e $\restr{g}{U}$ sono simultaneamente diagonalizzabili (osservando che $g$ è $U$-invariante),
\item Si estenda tale base $\basis_U$ ad una base $\basis$ di $V$ e si chiami $W$ il sottospazio $\Span(\basis_W)$, dove $\basis_W :=\basis\setminus\basis_U$,
\item Si considerino la matrice associata di $f$ e di $g$ nella base $\basis$, della forma: \setlength{\extrarowheight}{1.3pt}
\begin{gather*}
M_\basis(f) = \begin{pmatrix}
A
&\rvline& B \\
\hline
0 &\rvline&
C
\end{pmatrix}, \\
M_\basis(g) = \begin{pmatrix}
A'
&\rvline& B' \\
\hline
0 &\rvline&
C'
\end{pmatrix},
\end{gather*}
\setlength{\extrarowheight}{0pt}dove $A$ e $A'$ sono matrici diagonali contenente gli autovalori dei rispettivi endomorfismi,
\item Se le due matrici sono triangolari superiori, l'algoritmo termina. Altrimenti si ripeta l'algoritmo su $C$ e $C'$ (ossia sugli endomorfismi $p_W \circ\restr{f}{W}$, $p_W \circ\restr{g}{W}\in\End(W)$, i
quali commutano, dal momento che vale l'identità $C C' = C' C$, dedotta moltiplicando le due matrici associate di sopra).
\end{enumerate}
\subsubsection{Polinomio minimo}
Sia $f \in\End(V)$. Si può allora definire l'applicazione $\sigma_f : \KK[x]\to\End(V)$
tale per cui $\sigma_f(p)= p(f)$, dove per $p(f)$ s'intende
la riscrittura di $p$ a cui si sostituisce all'usuale
somma e all'usuale prodotto, la somma di applicazioni
e la composizione (intendendo, in particolare, i termini
noti come multipli dell'identità $f^0 :=\Idv$). In particolare $\sigma_f$ è un omomorfismo di anelli,
ed è dunque anche un'applicazione lineare. $\sigma_f$ non
è mai iniettiva, ed esiste dunque sempre un polinomio $p$
tale per cui $\sigma_f(p)=0$, l'applicazione nulla (è
sufficiente prendere $n^2+1$ potenze di $f$ e osservare
che devono essere linearmente indipendenti). Poiché
$\KK[x]$ è un PID, $\Ker\sigma_f$ è un ideale principale,
e quindi esiste un polinomio monico $\varphi_f$, detto
polinomio minimo di $f$, tale per cui
$\Ker\sigma_f =(\varphi_f)$.
\begin{itemize}
\item$\varphi_f \mid p_f$ (teorema di Hamilton-Cayley),
\item$\deg\varphi_f = d$ se e solo se $\Idv$, $f$, ...,
$f^{d-1}$ sono linearmente indipendenti e $f^d \in\Span(\Idv, f, \ldots, f^{d-1})$,
\item$\dim\KK[f]=\deg\varphi_f$ (infatti, per
il primo teorema di omomorfismo $\KK[f]\cong\KK[x]\quot(\varphi_f)$, da cui si ricava
facilmente la dimensione dello spazio),
\item$\Idv$, $f$, ..., $f^{d-1}$ formano una base
di $\KK[f]$ (per i precedenti risultati), se $d =\deg\varphi_f$,
\item$\varphi_f$ e $p_f$ condividono gli stessi fattori
primi (se infatti non comparisse un autovalore come radice di $\varphi_f$, $\varphi_f(f)$ non sarebbe nullo),
\item gli esponenti dei fattori lineari di $\varphi_f$
sono esattamente gli indici di Fitting degli autospazi
\item gli autovalori hanno moltiplicità algebrica $1$ in $\varphi_f$ se e solo se $f$ è diagonalizzabile (è sufficiente utilizzare il precedente risultato, o considerare la forma canonica di Jordan),
\item se $f$ è nilpotente, $\varphi_f(t)= t^k$, dove $k$ è l'indice di Fitting
di $\Ker f$ (discende direttamente dalla forma di $p_f$ se $f$ è nilpotente),
\item se $p \in\KK[x]$ è tale per cui $p = p_1\cdots p_k$ con $p_1$, ..., $p_k \in\KK[x]$ coprimi, allora $\Ker p(f)=\Ker p_1(f)\oplus\cdots\oplus\Ker p_k(f)$ (teorema di decomposizione primaria; si dimostra facilmente attraverso il teorema di Bezout),
\item$V =\gensp1\oplus\cdots\oplus\gensp k$, se $\lambda_1$, ..., $\lambda_k$ sono tutti gli autovalori di $f$ (deriva direttamente dal teorema
di Hamilton-Cayley e dal teorema di decomposizione primaria, o, alternativamente,
Se $\KK$ è infinito, $V$ ammette una base ciclica se e solo se $p_f =\pm\varphi_f$ (infatti esiste sempre un vettore $\v$ tale per cui $\varphi_f =\varphi_{f, \v}$). In
Si definisce blocco di Jordan di taglia $k$ relativo
all'autovalore $\lambda$ la seguente matrice:
\[J_{\lambda, k} :=\begin{pmatrix}
\lambda&1&0&\cdots&0 \\
0&\ddots&\ddots&&\vdots\\
\vdots&\ddots&\ddots&\ddots&0\\
\vdots&&\ddots&\ddots&1 \\
0&\cdots&\cdots&0&\lambda
\end{pmatrix},\]
ossia la matrice che ha solo $\lambda$ sulla diagonale, $1$ sulla
sopradiagonale e $0$ nelle altre posizioni. Si può
sempre restringere un blocco di Jordan a un blocco nilpotente
considerando $J = J_{\lambda, k}-\lambda I_k$. Tale blocco
ha come polinomio minimo $\varphi_J(t)= t^k$, e dunque
$\varphi_{J_{\lambda, k}}(t)=(t-\lambda)^k$. Allo stesso
modo si calcola $p_{J_{\lambda, k}}(t)=(t-\lambda)^k$. Si osserva dunque
che $\mu_{a, J_{\lambda, k}}(\lambda)=\mu_{a, J}(0)$.
Poiché il polinomio caratteristico ed il polinomio minimo coincidono a meno
del segno, esiste sempre una base ciclica per la quale $J_{\lambda, k}$
si scrive come matrice compagna di $\varphi_{J_{\lambda, k}}$.
Si definisce forma canonica di Jordan di un endomorfismo $f$
una sua matrice associata in una base $\basis$ tale per cui:
\[M_\basis(f)=\begin{pmatrix}
J_1 && 0 \\
&\ddots&\\
0 && J_s \end{pmatrix}, \]
dove $J_1$, ..., $J_s$ sono blocchi di Jordan. La forma canonica
di Jordan esiste sempre ed è unica a meno di permutazione dei blocchi,
se tutti gli autovalori di $f$ sono in $\KK$ (teorema di Jordan; se
gli autovalori di $f$ non sono tutti in $\KK$, si può sempre considerare
un'estensione di campo in cui esistono).
Si definisce autospazio generalizzato relativo all'autovalore $\lambda$ di
$f \in\End(V)$ lo spazio:
\[\Gensp=\Ker(f -\lambda\Idv)^n. \]
Una definizione alternativa, ma equivalente di $\Gensp$ è la seguente:
\[\Gensp=\{\v\in V \mid\exists k \in\NN\mid(f-\lambda\Idv)^k =\vec0\}, \]
ossia $\Gensp$ è lo spazio dei vettori $\v\in V$ tali per cui, applicando ripetutamente $f-\lambda\Idv$, si ottiene un autovettore relativo a $\lambda$ (per
dimostrare l'equivalenza delle due dimostrazioni è sufficiente considerare la
decomposizione di Fitting). In generale, dalla catena della decomposizione
dove $k$ è la molteplicità algebrica di $\lambda$ in $\varphi_f$ (in particolare
si ottiene sempre l'autospazio generalizzato sostituendo $\mu_a(\lambda)$ a $q$,
dacché $\mu_a(\lambda)\geq k$).
In generale vale che:
\[ V =\gensp1\oplus\cdots\oplus\gensp k, \]
se $\lambda_1$, ..., $\lambda_k$ sono tutti gli autovalori di $f$ (vd.~polinomio minimo). Inoltre, $\restr{f}{\Gensp}$ ammette come autovalore soltanto $\lambda$
(pertanto $\dim\Gensp=\mu_{a, f}(\lambda)$, confrontando i polinomi caratteristici). Si osserva inoltre che $\Gensp$ è sempre $f$-invariante. Infatti ogni $f$ induce due catene di inclusione:
&\Ker B = B^{k-1}(U_1) \oplus B^{k-2}(U_2) \oplus\cdots\oplus U_k;
\end{flalign*}
\item Si scelgano da queste basi i vettori che generano ogni blocco
relativo a $\lambda$ (in particolare ogni vettore di base di $U_i$ genera
un blocco di taglia $k-1+i$),
\item Per ogni blocco, generato dal vettore $\v$, si costruisca una base ordinata nel seguente modo:
\[\basis' =\{B^{t-1}\v ,\ldots , B \v, \v\}, \]
dove $t$ è l'indice minimo per cui $B^t \v=0$;
\end{enumerate}
\item Si uniscano ordinatamente a catena le basi ottenute in una base $\basis_J$. La base $[]_\basis\inv\basis_J$ è allora base di Jordan. In particolare, se
$P =\Matrix{\v_1\cdots\v_n}$, dove $\basis_J=\{\v_1, \ldots, \v_n\}$, vale
che $J = P\inv A P$ è esattamente la forma canonica di Jordan individuata
da tale base.
\end{enumerate}
Se $f$ è nilpotente, l'algoritmo può essere velocizzato notevolmente considerando
solamente $B := A$. Se $f$ ha un solo autovalore $\lambda$ e ammette una base ciclica (ossia esiste un solo blocco di Jordan), considerando $B := A -\lambda I_n$,
quasi ogni vettore è un vettore ciclico (è pertanto consigliato cercare un vettore
in modo casuale, piuttosto che estendere tutte le basi dei kernel).
\subsubsection{La forma canonica di Jordan reale}
Sia $A \in M(n, \RR)$. Allora
la forma canonica di Jordan reale è una variante reale della forma canonica di
Jordan che esiste sempre (infatti gli autovalori di $A$ non sono forzatamente
in $\RR$, e potrebbero dunque essere in $\CC\setminus\RR$). La forma canonica di
Jordan reale si costruisce a partire da una forma canonica di Jordan $J$
e una sua base di Jordan $\basis$ associata. Tale forma canonica
si costruisce mediante il seguente algoritmo:
\begin{enumerate}
\item Si scelga un autovalore $z$, se non si è già considerato il
suo coniugato $\conj z$:
\begin{enumerate}[a.]
\item Si prenda la base $\basis_z =\{\vv1, \ldots, \vv k, \conj{\vv1}, \ldots, \conj{\vv k}\}$ che
genera i blocchi di $z$ e $\conj z$ e si consideri la nuova
base $\basis_z' =\{\Re(\vv1), \imm(\vv1), \ldots, \Re(\vv k), \imm(\vv1k)\}$,
\item In tale base la forma canonica di Jordan varia eliminando i blocchi
di $\conj z$, sostituendo all'autovalore $z = a + bi$ il seguente blocco:
\[\Matrix{
a & -b \\ b & a
}, \]
ed ingrandendo gli eventuali $1$ mediante l'identità $I_2$ (tale processo prende
il nome di complessificazione).
\end{enumerate}
\item La matrice ottenuta dopo aver considerato tutti gli eventuali autovalori complessi è una forma canonica di Jordan reale, e la base ottenuta mediante
tutti i processi di complessificazione è una base di Jordan reale.
Si consideri una mappa $\varphi : V \times V \to\KK$. Si dice che
$\varphi$ è un prodotto scalare (e quindi che $\varphi\in\PS(V)$, lo spazio dei prodotti scalari) se è una forma bilineare simmetrica.
In particolare vale la seguente identità:
\[\varphi\left(\sum_{i=1}^s a_i \vv i, \sum_{j=1}^t b_j \ww j \right)=
\sum_{i=1}^s \sum_{j=1}^t a_i b_j \varphi(\vv i, \ww j). \]
Se $\basis=\{\vv1, \ldots ,\vv n \}$ è una base di $V$, si definisce $M_\basis(\varphi)=(\varphi(\vv i, \vv j))_{i,j=1\mbox{--}n}$ come la matrice associata al prodotto scalare $\varphi$. In particolare,
se $a_\varphi : V \to V^*$ è la mappa lineare che associa a $\v$ il funzionale $\varphi(\v, \cdot)\in V^*$
Si definisce prodotto scalare \textit{standard} il prodotto $\varphi$ tale che
$\varphi(\v, \w)=[\v]_\basis^\top[\w]_\basis$.
Si dice che due vettori $\v$, $\w\in V$ sono ortogonali tra loro, scritto come $\v\perp\w$, se
$\varphi(\v, \w)=0$. Dato $W$ sottospazio di $V$, si definisce $W^\perp$ come il sottospazio di $V$ dei vettori ortogonali a tutti i vettori di $W$. Si dice che $\varphi$ è non degenere se $V^\perp=\zerovecset$.
Si scrive in particolare che $V^\perp=\Rad(\varphi)$.
Si dice che $V = U \oplus^\perp W$ (ossia che $U$ e $W$ sono in somma diretta ortogonale) se $V = U \oplus W$ e $U \subseteq W^\perp$. Sia $i : W \to V$ tale che $\w\mapsto\w$. Si scrive $\restr{\varphi}{W}$ intendendo $\restr{\varphi}{W \times W}$.
Ad ogni prodotto scalare si può associare una forma quadratica (e viceversa) $q : V \to\KK$ tale che
$q(\v)=\varphi(\v, \v)$. Un vettore $\v\in V$ si dice isotropo se $q(\v)=0$ (altrimenti si dice
anisotropo). Si definisce il cono isotropo $\CI(\varphi)$ come l'insieme dei vettori isotropi di $V$.
Se $\KK=\RR$, si dice che $\varphi$ è semidefinito positivo ($\varphi\geq0$) se $q(\v)\geq0$$\forall\v\in V$, e che è semidefinito negativo ($\varphi\leq0$) se $q(\v)\leq0$$\forall\v\in V$. Si dice
che $\varphi$ è definito positivo ($\varphi > 0$) se $\varphi\geq0$ e se $q(\v)=0\iff\v=\vec0$,
e che è definito negativo ($\varphi < 0$) se $\varphi\leq0$ e se $q(\v)=0\iff\v=\vec0$.
Si dice che $\varphi$ è definito se è definito positivo o definito negativo. Analogamente $\varphi$
è semidefinito se è semidefinito positivo o semidefinito negativo.
Se $U$ è un sottospazio di $V$, $\varphi$ induce un prodotto scalare $\hat\varphi : V/U \times V/U \times\KK$ tale che $\hat\varphi([\vv1]_U, [\vv2]_U)=\varphi(\vv1, \vv2)$ se e solo se $U \subseteq V^\perp$. In particolare, se $U = V^\perp$,
Si definisce relazione di congruenza la relazione di equivalenza $\cong$ (o $\equiv$) definita
su $\Sym(n, \KK)$ nel seguente modo:
\[ A \cong B \iff\exists P \in\GL(n, \KK)\mid A = P^\top B P. \]
\begin{itemize}
\item$A \cong B \implies\rg(A)=\rg(B)$ (il rango è invariante per congruenza; e dunque si può
definire $\rg(\varphi)$ come il rango di una qualsiasi matrice associata a $\varphi$),
\item$A \cong B \implies\det(A)\det(B)\geq0$ (in $\KK=\RR$ il segno del determinante è invariante per congruenza),
\item Due matrici associate a $\varphi$ in basi diverse sono congruenti per la formula
di cambiamento di base.
\end{itemize}
Si definiscono i seguenti tre indici per $\KK=\RR$:
\begin{itemize}
\item$\iota_+=\max\{\dim W \mid W \subseteq V \E\restr{\varphi}{W} > 0\}$,
\item$\iota_-=\max\{\dim W \mid W \subseteq V \E\restr{\varphi}{W} < 0\}$,
\item$\iota_0=\dim V^\perp$,
\end{itemize}
e si definisce segnatura di $\varphi$ la terna $\sigma=(\iota_+, \iota_-, \iota_0)$.
Si dice che una base $\basis$ di $V$ è ortogonale se i suoi vettori sono a due a due ortogonali (e
quindi la matrice associata in tale base è diagonale). Se $\Char\KK\neq2$, valgono i seguenti risultati:
\begin{itemize}
\item$\varphi(\v, \w)=\frac{q(\v+\w)- q(\v)- q(\w)}{2}$ (formula di polarizzazione; $\varphi$ è
completamente determinata dalla sua forma quadratica),
\item Esiste sempre una base ortogonale $\basis$ di $V$ (teorema di Lagrange; è sufficiente considerare
l'esistenza di un vettore anisotropo $\w\in V$ ed osservare che $V = W \oplus^\perp W^\perp$, dove $W =\Span(V)$, concludendo per induzione; o in caso di non esistenza di tale $\w$, concludere per il
risultato precedente),
\item (se $\KK=\CC$) Esiste sempre una base ortogonale $\basis$ di $V$ tale che:
Inoltre $\sigma$ è un invariante completo per la congruenza, e vale che, su una qualsiasi base ortogonale $\basis'$ di $V$, $\iota_+$ è esattamente il numero
di vettori anisotropi di base con forma quadratica positiva, che $\iota_-$ è il numero di vettori con forma
negativa e che $\iota_0$ è il numero di vettori isotropi (teorema di Sylvester, caso reale; si consideri
una base ortogonale e se ne normalizzino i vettori anisotropi, facendo infine eventuali considerazioni
dimensionali per dimostrare la seconda parte dell'enunciato),
Sia $V$ un $\CC$-spazio. Allora una mappa $\varphi : V \times V \to\CC$ si
dice prodotto hermitiano (e quindi si dice che $\varphi\in\PH(V)$, l'$\RR$-spazio dei
prodotti hermitiani\footnote{Infatti, se $\lambda\in\CC\setminus\RR$ e $\varphi\in\PH(V)$, $\lambda\varphi$\underline{non} è un prodotto hermitiano, mancando della proprietà del coniugio.}) se è una forma sesquilineare, ossia se è antilineare
nel primo argomento ed è lineare nel secondo\footnote{In realtà questa convenzione è spesso e volentieri implementata nelle ricerche di Fisica, mentre in Matematica si tende in realtà a mettere l'antilinearità nel secondo argomento. Il corso ha comunque implementato la prima delle due convenzioni, e così si è riportato in queste schede la convenzione scelta.}, e se il coniugio applicato a $\varphi$ ne inverte gli argomenti. In particolare $\varphi$ è un prodotto hermitiano se:
scalare su $\RR$ (le definizioni principali sono infatti le medesime). Se $\basis$ è una base di $V$, la matrice associata $M_\basis(\varphi)$ è definita in
modo tale che $M_\basis(\varphi)_{ij}=\varphi(\vv i, \vv j)$. Infatti tale prodotto soddisfa le seguenti proprietà:
Esiste un unico modo per complessificare un prodotto scalare $\varphi$, ossia
esiste un unico prodotto hermitiano $\varphi_\CC$ tale per cui $\varphi_\CC(\v, \w)=\varphi(\v, \w)$ se $\v$, $\w$ sono vettori della parte reale dello spazio complessificato. In particolare $\varphi_\CC$ è determinato dalla seguente
Dal momento che $\Im(\alpha_\varphi)=\Ann(V^\perp)$ (l'inclusione verso destra è facile da dimostrare e l'uguaglianza è data dall'uguaglianza dimensione), $f$ è rappresentabile
segue che $(\Ker f)^\perp=\v^\dperp=\Span(\v)+ V^\perp$. Se $f$ non è
l'applicazione nulla, $\vec v \notin V^\perp$, e quindi $\Span(\v)\cap V^\perp=\zerovecset\implies(\Ker f)^\perp=\Span(\v)\oplus^\perp V^\perp$. Quindi,
per computare un vettore $\vv0$ che rappresenti $f$ è sufficiente prendere
un supplementare $\Span(\U)$ di $V^\perp$ in $(\Ker f)^\perp$ (infatti l'aggiunta
di un vettore di $V^\perp$ non varierebbe l'immagine secondo $\alpha_\varphi$) e
computare $\lambda\in\KK\mid\vv0=\lambda\U$ nel seguente
\subsubsection{Metodo di Jacobi per il calcolo della segnatura}
Sia $A = M_\basis(\varphi)$ una matrice associata a $\varphi$ nella base $\basis$.
Sia $d_0 :=1$. Se $d_i =\det(A_{1, \ldots, i}^{1, \ldots, i})$ (è possibile anche
prendere un'altra sequenza di minori, a patto che essi siano principali e che siano
crescenti per inclusione) è diverso da zero
per ogni $1\leq i \leq n-1$, allora $\iota_+$ è il numero di permanenze di segno
di $d_i$ (zero escluso), $\iota_-$ è il numero di variazioni di segno (zero escluso), e $\iota_0$ è $1$ se
$d_n =0$ o $0$ altrimenti.
In generale, se $W$ è un sottospazio di $W'$, $W$ ha codimensione $1$ rispetto a $W'$ e $\det(M_{\basis_W}(\restr{\varphi}{W}))\neq0$ per una base $\basis_W$ di $W$, allora la segnatura
di $\restr{\varphi}{W'}$ è la stessa di $\restr{\varphi}{W}$, dove si aggiunge
$1$ a $\iota_+$, se i determinanti $\det(M_{\basis_W}(\restr{\varphi}{W}))$ e $\det(M_{\basis_{W'}}(\restr{\varphi}{W}))$ (dove $\basis_{W'}$ è una base di $W'$) concordano di segno, $1$ a $\iota_-$, se
sono discordi, o $1$ a $\iota_0$ se l'ultimo di questi due determinanti è nullo.
Dal metodo di Jacobi si deduce il criterio di definitezza di Sylvester: $A$ è
definita positiva se e solo se $d_i > 0$$\forall1\leq i \leq n$; $A$ è
definita negativa se e solo se $(-1)^i d_i > 0$$\forall1\leq i \leq n$.
\subsubsection{Sottospazi isotropi e indice di Witt}
Si dice che un sottospazio $W$ di $V$ è isotropo se $\restr{\varphi}{W}=0$, o
equivalentemente se $W \subseteq W^\perp$ (i.e.~se $W \cap W^\perp= W$, e quindi
se $\Rad(\restr{\varphi}{W})= W$). Si definisce allora l'indice di Witt $W(\varphi)$ come
la dimensione massima di un sottospazio isotropo di $V$.
una base di Sylvester e costruire un nuovo insieme linearmente indipendente $\basis_W$ i cui i vettori sono o isotropi o della forma $\vv i -\ww i$, dove $q(\vv i)=1$ e $q(\ww i)=1$, mostrando che $W =\Span(\basis_W)$ è isotropo, concludendo con discussioni dimensionali),
\item Se $\KK=\CC$, allora $W(\varphi)=\lfloor\frac{\dim V +\dim V^\perp}{2}\rfloor$ (è sufficiente considerare una base di Sylvester per $\varphi$, costruire un nuovo insieme linearmente indipendente $\basis_W$ prendendo quante più coppie $(\vv i, \vv j)$ possibili di vettori della base non isotropi poi associate al vettore $\vv i + i \vv j$, mostrando infine che $W =\Span(\basis_W)$ è isotropo e che è sicuramente massimale perché realizza la dimensione massima possibile secondo le precedenti proposizioni),
\item Se $\KK=\RR$ e $\varphi$ è definito, allora $W(\varphi)=0$,
\item Se $\KK=\RR$ e $\varphi$ è semidefinito, allora $W(\varphi)= i_0$ (e $W = V^\perp$ è un sottospazio
Due spazi vettoriali $(V, \varphi)$ e $(W, \psi)$ su $\KK$ si dicono isometrici tra loro se
esiste un isomorfismo $f : V \to W$ tale che $\varphi(\vv1, \vv2)=\psi(f(\vv1), f(\vv2))$.
Se $f$ è un isomorfismo tra $V$ e $W$, sono equivalenti le seguenti affermazioni:
\begin{enumerate}[(i)]
\item$(V, \varphi)$ e $(W, \psi)$ sono isometrici tra loro tramite $f$,
\item$\forall\basis$ base di $V$, $M_\basis(\varphi)= M_{f(\basis)}(\psi)$,
\item$\exists\basis$ base di $V$, $M_\basis(\varphi)= M_{f(\basis)}(\psi)$.
\end{enumerate}
Inoltre, $V$ e $W$ sono isometrici se e solo se hanno la stessa dimensione e le matrici associate
a $\varphi$ e $\psi$ in due basi di $V$ e di $W$ sono congruenti (infatti, in tal caso, esistono due
basi di $V$ e di $W$ che condividono la stessa matrice associata, ed è possibile associare ad uno
ad uno gli elementi di queste basi).
Pertanto, se $\basis_V$ e $\basis_W$ sono due basi di $V$ e di $W$, $\KK=\RR$ e $M_{\basis_V}(\varphi)$ e $M_{\basis_W}(\psi)$ condividono la stessa segnatura, allora $V$ e $W$ sono
isometrici tra loro (come conseguenza del teorema di Sylvester reale).
Analogamente, se $\KK=\CC$ e $M_{\basis_V}(\varphi)$ e $M_{\basis_W}(\psi)$ condividono lo stesso
rango, allora $V$ e $W$ sono isometrici tra loro (come conseguenza stavolta del teorema di Sylvester
\subsection{Operatori simmetrici, ortogonali, hermitiani e unitari}
[TODO]
\subsection{Spazi euclidei reali e complessi}
Si dice che $(V, \varphi)$ è uno spazio euclideo reale se $V$ è un $\RR$-spazio e se
$\varphi$ è un prodotto scalare definito positivo. Si dice che $(V_\CC, \varphi_\CC)$ è uno spazio euclideo complesso se $V_\CC$ è un $\CC$-spazio e se $\varphi_\CC$ è un
prodotto hermitiano definito positivo.
Questi due tipi di spazi hanno in comune alcune proprietà particolari. Si definisce
innanzitutto la norma euclidea per uno spazio euclideo $(V, \varphi)$ come:
Su questi due spazi possono essere definiti due particolare operatori: la
proiezione ortogonale e l'inversione ortogonale.
Si definisce proiezione ortogonale su un sottospazio $W \neq\zerovecset$ l'operatore $\pr_W \in\End(V)$ tale
che $\pr_W(\v)=\w$, dove $\v=\w+\w^\perp$, con $\w\in W$ e $\w^\perp\in W^\perp$. Tale decomposizione è ben definita e unica dacché $V = W \oplus^\perp W^\perp$ (infatti $\varphi$ è definita positiva). Una proiezione ortogonale
soddisfa la relazione $\pr_W^2=\pr_W$, da cui si ricava che $\varphi_{\pr_W}\mid x(x-1)$ (implicandone la diagonalizzabilità). Infatti $V_1=\Ker(\pr_W -\Idv)= W$ e $V_0=\Ker(\pr_W)= W^\perp$ (per cui $\varphi_{\pr_W}(x)= x(x-1)$). La
proiezione ortogonale è un operatore simmetrico (se lo spazio è euclideo reale)
o hermitiano (se lo spazio è euclideo complesso); infatti vale che
Si definisce inversione ortogonale su un sottospazio $W \neq\zerovecset$ l'operatore $\rho_W \in\End(V)$ tale
che $\rho_W(\v)=\w-\w^\perp$, dove $\v=\w+\w^\perp$, con $\w\in W$ e $\w^\perp\in W^\perp$. Come prima, tale decomposizione è unica e ben definita. Un'inversione ortogonale
soddisfa la relazione $\rho_W^2=\Idv$, da cui si ricava che $\varphi_{\rho_W}\mid(x+1)(x-1)$ (implicandone la diagonalizzabilità). Infatti $V_1=\Ker(\rho_W -\Idv)= W$ e $V_{-1}=\Ker(\rho_W +\Idv)= W^\perp$ (per cui $\varphi_{\rho_W}(x)=(x+1)(x-1)$). Se $\dim W =\dim V -1$, allora si dice che l'inversione ortogonale
è una riflessione ortogonale. L'inversione ortogonale è sempre un operatore
ortogonale (se lo spazio è euclideo reale) o unitario (se lo spazio è euclideo
complesso); infatti vale che $\varphi(\v, \w)=\varphi(\pr_W(\v)+\pr_{W^\perp}(\v), \pr_W(\w)+\pr_{W^\perp}(\w))=\varphi(\pr_W(\v), \pr_W(\w))+\varphi(\pr_{W^\perp}(\v), \pr_{W^\perp}(\w))=\varphi(\pr_W(\v), \pr_W(\w))+\varphi(-\pr_{W^\perp}(\v), -\pr_{W^\perp}(\w))=\varphi(\pr_W(\v)-\pr_{W^\perp}(\v), \pr_W(\w)-\pr_{W^\perp}(\w))=\varphi(\rho_W(\v), \rho_W(\w))$.
Se $f$ è simmetrico o hermitiano, esiste sempre una base ortonormale di autovettori
per $f$. $f$ è normale se e solo se è diagonalizzabile. Esiste sempre $S \in\Sym(n, \RR)$ tale per cui $S^2= A$, con $A \in\Sym(n, \RR)$. Se $S$ è definita positiva,
tale $S$ è unica. Se $A \in\GL(n, \RR)$, esistono e sono unici $P \in O(n)$,
$S \in\Sym(n, \RR)$ tali per cui $A = PS$ (in particolare $S =\sqrt{A A^\top}$).
Se $\varphi$ è definito positivo e $\psi$ è un altro prodotto scalare, allora
i due prodotti sono simultaneamente ortogonalizzabili. È sufficiente prendere
una base $\basis$ ortonormale di $\varphi$, e trovare la base ortonormale $\basis'$ di autovettori
che rende $M_\basis(\psi)$ diagonale. In tale base $\basis'$, $M_{\basis'}(\varphi)$
è l'identità e $M_\basis(\psi)$ è diagonale: dunque la base è ortogonale per ambo
i prodotti scalari.
\subsection{Complementi sugli spazi affini}
\begin{itemize}
\item se $A \cap B \neq\emptyset$, vale la formula di Grassmann,
\item se $A \cap B =\emptyset$, $\dim(A + B)=\dim A +\dim B -\dim(A_0\cap B_0)+1$,
\item ogni affinità $f(\x)= M \x+\vec t$ può scriversi in forma matriciale
come:
\[\Matrix{M &\vec t \\0&1}. \]
\end{itemize}
La matrice $\MM(p \circ f)$, con $f(\x)= M\x+\vec t$, varia nel seguente
modo:
\begin{gather*}
\tiny
\MM(p \circ f) = {\hat M}^\top\MM(p) \hat M = \\\Matrix{M^\top\AA(p) M &\rvline& M^\top(\AA(p) \vec t + \Ll(p)) \,\\\hline\,\left(M^\top(\AA(p) \vec t + \Ll(p))\right)^\top&\rvline& p(\vec t)},
\end{gather*}
Una conica è a centro se e solo se è risolvibile il sistema $(\AA(p)\vec t +\Ll(p)$.
Sia $\KK=\CC$. Allora ogni conica è affinemente equivalente ad
un'equazione canonica della seguente tabella, unicamente
determinata dagli invarianti $\rg(\MM(p))$ e $\rg(\AA(p))$.
\begin{center}
\tiny
\begin{tabular}{|l|l|l|l|l|}
\hline
&$\rg(\MM(p))$&$\rg(\AA(p))$& Eq.~canonica & A centro \\\hline
$\mathcal{C}_1$& 3 & 2 &$x^2+y^2=1$& Sì \\\hline
$\mathcal{C}_2$& 3 & 1 &$x^2=y$& No \\\hline
$\mathcal{C}_3$& 2 & 2 &$x^2+y^2=0$& Sì \\\hline
$\mathcal{C}_4$& 2 & 1 &$x^2=1$& Sì \\\hline
$\mathcal{C}_5$& 1 & 1 &$x^2=0$& Sì \\\hline
\end{tabular}
\end{center}
Sia $\KK=\RR$. Allora ogni conica è affinemente equivalente ad
un'equazione canonica della seguente tabella, unicamente
determinata dagli invarianti $\rg(\MM(p))$, $\rg(\AA(p))$,
$S(\MM(p)) :=\abs{\iota_+(\MM(p))-\iota_-(\MM(p))}$ e