vale che $M(n, \KK)=\Sym(n, \KK)\oplus\Lambda(n, \KK)$,
\item una base naturale di $\KK[x]$ è data da $\basis=\{x^n \mid
n \in\NN\}$, mentre una di $\KK_t[x]$ è data da $\basis\cap
\KK_t[x] = \{x^n \mid n \in\NN\land n \leq t\}$(quindi
$\dim\KK[x]=\infty$ e $\dim\KK_t[x]= t+1$),
\item una base naturale di $\KK$ è $1_\KK=\{1_\KK\}$ (quindi
$\dim\KK=1$),
\item un sottospazio di dimensione $1$ si definisce \textit{retta},
uno di dimensione $2$\textit{piano}, uno di dimensione $3$
\textit{spazio}, e, infine, uno di dimensione $n-1$ un iperpiano,
\item un iperpiano $\Pi$ è sempre rappresentabile da un'equazione cartesiana
nelle coordinate della rappresentazione della base (infatti ogni
iperpiano è il kernel di un funzionale $f \in\dual{V}$, e $M^\basis_{1_\KK}(f)\,[\vec{v}]_\basis=0$ è l'equazione cartesiana; è sufficiente prendere una base di $\Pi$ e completarla
a base di $V$ con un vettore $\vec{t}$, considerando infine
\item un iperpiano $\Pi$, rappresentato da un'equazione cartesiana $\alpha_1 x_1+\ldots+\alpha_n x_n =0$, è esattamente il sottospazio ortogonale a $\Span(\alpha_1, \ldots, \alpha_n)^\perp$ tramite il prodotto scalare standard,
\item in generale, un sistema di equazioni omogenee è l'intersezione di più
\item se $\mathbb{F}$ è un'estensione di campo di $\KK$, allora vale $[V : \KK]=[V : \mathbb{F}][\mathbb{F} : \KK]$ (\textit{teorema delle torri algebriche}).
\item$M^{\basis_V}_{\basis_W}(f)=\begin{pmatrix}\;[f(\vec{v_1})]_{\basis_W}\,\mid\,\cdots\,\mid\,[f(\vec{v_n})]_{\basis_W}\;\end{pmatrix}$ è la matrice
associata a $f$ sulle basi $\basis_V$, $\basis_W$,
\item$M^V_W(f + h)= M^V_W(f)+ M^V_W(h)$,
\item$M^V_Z(g \circ f)= M^W_Z(g) M^V_W(f)$,
\item data $A \in M(m, n, \KK)$, sia $f_A : \KK^n \to\KK^m$ tale
che $f_A(\vec{x})= A \vec{x}$, allora $M^{e}_{e'}(f_A)= A$,
\item$f$ è completamente determinata dai suoi valori in una
qualsiasi base di $V$ ($M^{\basis_V}_{\basis_W}$ è un isomorfismo
tra $\mathcal{L}(V, W)$ e $M(\dim W, \dim V, \mathbb{K})$),
\item$\dim\mathcal{L}(V, W)=\dim V \cdot\dim W$ (dall'isomorfismo
Si dice che i sottospazi $W_1$, ..., $W_k$ di $V$ sono in somma
diretta, e si scrive $W_1+\ldots+ W_k = W_1\oplus\ldots\oplus W_k$,
se la rappresentazione di un vettore della somma di questi sottospazi
è unica, ossia se esistono unici $\ww1\in W_1$, ..., $\ww k \in W_k$ tali
per cui $\w\in W_1+\ldots+ W_k$ si scrive come $\w=\ww1+\ldots+\ww k$. \\
In generale, sono equivalenti i seguenti fatti:
\begin{enumerate}[(i)]
\itemsep0em
\item$W_1$, ..., $W_k$ sono in somma diretta,
\item Se esistono $\ww1\in W_1$, ..., $\ww k \in W_k$ tali per cui
$\ww1+\ldots+\ww k =\vec0$, allora $\ww1=\cdots=\ww k =\vec0$ (è sufficiente considerare due scritture alternative e poi farne la differenza per dimostrare un'implicazione),
\item Se $\basis_{W_1}$, ..., $\basis_{W_k}$ sono basi di $W_1$, ..., $W_k$,
allora $\bigcup_{i=1}^k \basis_{W_i}$ è base di $W_1+\ldots+ W_k$ (è sufficiente considerare l'indipendenza lineare per dimostrare un'implicazione),
\item$\dim(W_1+\ldots+ W_k)=\dim W_1+\ldots+\dim W_k$ (si dimostra facilmente che è equivalente a (iii), e quindi che lo è alle altre proposizioni),
\item$W_i \cap(W_1+\ldots+ W_{i-1})=\zerovecset$$\forall2\leq i \leq k$ (è sufficiente spezzare la somma in $(W_1+\ldots+ W_{i-1})+ W_i$ e ricondursi al caso di due sottospazi, mostrando in particolare, per induzione, l'equivalenza con (iv), da cui seguono le altre equivalenze),
\item$W_i \cap(W_1+\ldots+ W_{i-1}+\widehat{W_i}+ W_{i+1}+ W_k)=\zerovecset$$\forall1\leq i \leq k$, ossia $W_i$, intersecato con la somma
dei restanti sottospazi, è di dimensione nulla (è facile ricondursi alla proposizione (v) per induzione).
\item$\rg(A)=1\implies\exists B \in M(m, 1, \KK)$, $C \in M(1, n, \KK)\mid A=BC$ (infatti $A$ può scriversi come $\begin{pmatrix}\alpha_1 A^i &\cdots&\alpha_n A^i \end{pmatrix}$ per un certo $i \leq n$ tale che $A^i \neq\vec{0}$).
In particolare, l'operazione di scambio della riga $i$-esima con quella $j$-esima corrisponde alla moltiplicazione a sinistra per la matrice $S_{i,j}$, detta matrice
In particolare, la stessa matrice $S_{i,j}$ si ottiene scambiando la riga $i$-esima e la $j$-esima. Per esempio, scambiare due righe in una matrice $2\times2$ corrisponde a
All'operazione di moltiplicazione della riga $i$-esima per uno scalare $\lambda\neq0$ corrisponde invece la matrice $M_{i, \lambda}$, detta elementare di dilatazione, dove:
All'operazione di somma della riga $j$-esima moltiplicata per $\lambda\neq0$ alla riga $i$-esima corrisponde invece la matrice $M_{i,j,\lambda}$, detta elementare di trasvezione (o di tosatura, dall'inglese \textit{shear matrix}), dove:
\item le matrici elementari generano il gruppo delle matrici invertibili $\GL(n, \KK)$, ossia ogni matrice
invertibile si scrive come prodotto di matrici elementari (è sufficiente
applicare l'algoritmo di eliminazione di Gauss per righe su $A \in\GL(n, \KK)$ e
osservare che ne deve risultare obbligatoriamente una matrice diagonale che,
normalizzata sugli elementi, restituisce esattamente $I_n$; allora poiché applicare l'algoritmo
equivale a moltiplicare a sinistra per delle matrici elementari $\mathcal{E}_1$, ..., $\mathcal{E}_k$, si verifica che $\mathcal{E}_1\cdots\mathcal{E}_k A = I_n \implies A =\mathcal{E}_k \inv\cdots\mathcal{E}_1\inv$, dove si
conclude la dimostrazione osservando che l'inversa di una matrice elementare
Queste operazioni non variano né $\Ker A$ né $\rg(A)$. Permettendo di variare $\Ker A$ si possono effettuare le stesse medesime operazioni
sulle colonne (lasciando però
invariato $\Im A$, e quindi $\rg(A)$): tali operazioni corrispondono a moltiplicare a destra per una matrice invertibile, analogamente a come accade per le righe. \\
Le matrici per cui si moltiplica a destra per operare sulle colonne sono esattamente le stesse matrici impiegate
per le operazioni di riga, sebbene trasposte (e quindi sono ancora matrici elementari). In particolare le matrici elementari di permutazione (per scambiare le righe) e di dilatazione (per moltiplicare una riga per uno scalare non nullo) coincidono. Pertanto, se $A$ è una matrice simmetrica (i.e.~se $A \in\Sym(n, \KK)$), operare mediante le stesse
Si definisce matrice di Vandermonde una matrice $A \in M(n, \KK)$ della
forma:
\[ A =\begin{pmatrix}
1 & x_1 & x_1^2 &\dots& x_1^{n-1}\\
1 & x_2 & x_2^2 &\dots& x_2^{n-1}\\
\vdots&\vdots&\vdots&\ddots&\vdots\\
1 & x_n & x_n^2 &\dots& x_n^{n-1}.
\end{pmatrix}\]
Vale allora che:
\[\det(A)=\prod_{1\leq i < j \leq n}(x_j - x_i), \]
verificabile notando che $\det(A)$ è di grado $\frac{n(n-1)}{2}$ e
che ponendo $x_i = x_j$ per una coppia $(i, j)$, tale matrice
ha due righe uguali, e quindi determinante nullo $\implies(x_j - x_i)\mid\det(A)\overbrace{\implies}^{\text{UFD}}\det(A)=\prod_{1\leq i < j \leq n}(x_j - x_i)$.
Pertanto una matrice di Vandermonde è invertibile se e solo se la sua
seconda colonna contiene tutti scalari distinti nelle coordinate. Tale
matrice risulta utile nello studio dell'interpolazione di Lagrange
(ossia nella dimostrazione dell'unicità del polinomio di $n-1$ grado
tale che $p(\alpha_i)=\beta_i$ per $i$ coppie ($\alpha_i$, $\beta_i$) con
\subsubsection{Rango tramite il determinante degli orlati}
Si dicono \textit{sottomatrici} della matrice $A \in M(m, n, \KK)$ tutte
le matrici contenute in $A$, ossia le matrici $B$ che sono ottenibili da $A$
mantenendo solo alcune sue righe e colonne. In generale, si scrive $A^{j_1, \ldots, j_s}_{i_1, \ldots, i_t}$ per indicare la sottomatrice ottenuta
da $A$ mantenendo le colonne di indice $j_1$, ..., $j_s$ e le righe di
indice $i_1$, ..., $i_t$. Quando è omesso l'indice delle colonne o l'indice
delle righe, si sottintende di aver mantenuto o tutte le colonne o tutte le righe
(e.g.~$A_{1,2}$ è la sottomatrice di $A$ ottenuta mantenendo tutte le colonne e
le prime due righe). Si dice che $M$ è \textit{minore} di $A$ una sua sottomatrice quadrata. Si chiamano \textit{orlati} di un minore $M$ di taglia $k$ i minori di taglia $k+1$ di $A$ aventi $M$ come minore.
di $B$ e mostrare che le relative colonne in $A$ sono ancora linearmente indipendenti),
\item$\rg(A)=\max\{\rg(B)\mid B \text{ sottomatrice di }\! A\}$ (è sufficiente utilizzare il precedente risultato; infatti $A$ è una sottomatrice di $A$),
\item$\rg(A)=\max\{\rg(B)\mid B \text{ minore invertibile di }\! A\}=\max\{n \mid\text{esiste un minore di $A$ di taglia $n$ invertibile}\}$ (è sufficiente utilizzare la prima disuguaglianza e considerare un minore di $A$ composto dalle righe e le colonne linearmente indipendenti di $A$, che sono
dello stesso numero, dal momento che il rango per righe è uguale al rango per colonne),
\item$\rg(A)$ è il più piccolo naturale $n$ tale per cui, per ogni minore
$M$ di $A$ di taglia maggiore di $n$, $\det(M)=0$ (ossia $M$ è singolare; segue direttamente dal precedente risultato),
\item$\rg(A)$ è il più piccolo naturale $n$ tale per cui, per ogni minore
$M$ di $A$ di taglia $n+1$, $\det(M)=0$ (ossia $M$ è singolare; segue dal precedente risultato a cui si combina lo sviluppo di Laplace del determinante -- se ogni minore di taglia $k$ ha determinante nullo, anche tutti i minori di
taglia maggiore di $k$ hanno determinante nullo).
\item esiste un minore $M$ di taglia $k$ di $A$ con $\det(M)\neq0$$\implies\rg(A)\geq k$ (deriva direttamente dall'ultimo risultato sul rango),
\item per ogni minore $M$ di taglia $k$ di $A$ vale che $\det(M)=0$
$\implies\rg(A) < k$ (come sopra).
\end{itemize}
Si può facilitare lo studio del rango tramite il teorema di Kronecker (o degli orlati): $\rg(A)$ è il più piccolo naturale $n$ tale per cui esista un minore
$M$ di taglia $k$ con $\det(M)\neq0$ e per cui ogni suo orlato $O$ è tale
per cui $\det(O)=0$.
Sia infatti, senza perdità di generalità, $M = A^{1,\ldots, k}_{1,\ldots,k}$ tale minore (altrimenti è sufficiente considerare una permutazione delle righe e
delle colonne per ricadere in questo caso; tale permutazione è ammessa dall'algoritmo di Gauss). Si mostra che $A^j \in\Span(A^1, \ldots, A^k)$$\forall j > k$. Si consideri ogni orlato $M_j$ di $M$ ottenuto scegliendo
la $j$-esima colonna di $A$: per ipotesi $\det(M_j)=0$, ed il rango è almeno
$k$. Quindi $\rg(M_j)= k$; poiché le prime $k$ righe sono linearmente indipendenti, l'ultima riga aggiunta deve certamente appartenere al loro
sottospazio generato. Quindi ogni riga di $A^{1,\ldots, k, j}$ appartiene
al sottospazio $\Span(A_1, \ldots, A_k)$, da cui si deduce che $\rg(A^{1,\ldots, k, j})= k$, e quindi che $\rg(A^{1,\ldots,k,j})= k \implies A^j \in\Span(A^1, \ldots, A^k)\implies\rg(A)= k$.
\item il termine noto di $p_f(\lambda)$ è $\det(f -0\cdot\Idv)=\det(f)$,
\item$p_f(\lambda)=\sum_{i=0}^{n}(-\lambda)^i(\sum\det(M_{n-i}))$ dove i $M_j$ sono i minori principali di taglia $j$, % TODO: sistemare e aggiungere spiegazione
Se $f$ è diagonalizzabile, anche $f^k$ lo è, per ogni $k \in\NN$. Se
ogni vettore di $V$ è un autovettore di $f$, allora $f =\lambda\Id$,
con $\lambda\in\KK$ (è sufficiente considerare l'eventuale esistenza di più
autospazi e due vettori $\v$ e $\w$ di due autospazi distinti e considerare
le due scritture possibili di $f(\v+\w)$).
Si dice infine che $f$ è triangolabile (o triangolarizzabile) se $V$
ammette una base per cui la matrice associata di $f$ è triangolare superiore
(o inferiore, dal momento che è sufficiente riordinare dal basso la base
per ottenere una matrice associata triangolare superiore). Vale in particolare
che $f$ è triangolabile se e soltanto se $p_f(\lambda)$ è completamente
riducibile in fattori lineari in $\KK$ (dunque, nel caso di $\KK$ algebricamente
chiuso, $f$ è sempre triangolabile). Infatti, se $f$ è triangolabile, il polinomio
caratteristico ha come radici esattamente gli elementi sulla diagonale della
matrice associata di $f$ nella base $\basis$ in cui tale matrice è triangolare
superiore (e dunque $p_f(\lambda)$ è riducibile in fattori lineari). Se invece $p_f(\lambda)$ è riducibile in fattori lineari, si può applicare il seguente
algoritmo (su cui si fonda induttivamente la dimostrazione della proposizione):
\begin{enumerate}
\itemsep 0pt
\item Si calcolino le basi degli autospazi di $f$,
\item Si estenda l'unione $\basis_A$ di queste basi a una base $\basis$ di $V$,
\item Si consideri la matrice associata di $f$ nella base $\basis$, della forma: \setlength{\extrarowheight}{1.3pt}
\[M_\basis(f)=\begin{pmatrix}
A
&\rvline& B \\
\hline
0 &\rvline&
C
\end{pmatrix}, \]\setlength{\extrarowheight}{0pt}dove $A$ è una matrice diagonale contenente gli autovalori di $\Sp(f)$,
\item Se $M_\basis(f)$ è triangolare superiore, l'algoritmo termina. Altrimenti si ripeta l'algoritmo su $C$ (ossia sull'endomorfismo $p_W \circ\restr{f}{W}\in\End(W)$, dove $W$ è il sottospazio generato dai vettori aggiunti alla base $\basis_A$ per costruire la base $\basis$).
\end{enumerate}
Inoltre, se $W$ è un sottospazio $f$-invariante di $V$,
e $f$ è triangolabile, anche $\restr{f}{W}$ lo è (infatti,
in tal caso, il polinomio caratteristico di $f$ si riduce
simultaneamente triangolabili se esiste una base $\basis$
in cui $M_\basis(f)$ e $M_\basis(g)$ sono due matrici
triangolari superiori. Non è generalmente vero che
due endomorfismi simultaneamente triangolabili
commutano; è tuttavia vero il viceversa. Se infatti $f$
e $g$ sono due endomorfismi triangolabili tali che $f \circ g = g \circ f$, allora si può riapplicare, con le dovute modifiche, il precedente algoritmo di triangolarizzazione (anche questa volta dimostrabile per induzione):
\begin{enumerate}
\itemsep 0pt
\item Si calcolino le basi degli autospazi di $f$ e si consideri $\restr{f}{U}$, dove $U =\eigsp1\oplus\cdots\oplus\eigsp k$,
\item Si cerchi una base $\basis_U$ in cui $\restr{f}{U}$ e $\restr{g}{U}$ sono simultaneamente diagonalizzabili (osservando che $g$ è $U$-invariante),
\item Si estenda tale base $\basis_U$ ad una base $\basis$ di $V$ e si chiami $W$ il sottospazio $\Span(\basis_W)$, dove $\basis_W :=\basis\setminus\basis_U$,
\item Si considerino la matrice associata di $f$ e di $g$ nella base $\basis$, della forma: \setlength{\extrarowheight}{1.3pt}
\begin{gather*}
M_\basis(f) = \begin{pmatrix}
A
&\rvline& B \\
\hline
0 &\rvline&
C
\end{pmatrix}, \\
M_\basis(g) = \begin{pmatrix}
A'
&\rvline& B' \\
\hline
0 &\rvline&
C'
\end{pmatrix},
\end{gather*}
\setlength{\extrarowheight}{0pt}dove $A$ e $A'$ sono matrici diagonali contenente gli autovalori dei rispettivi endomorfismi,
\item Se le due matrici sono triangolari superiori, l'algoritmo termina. Altrimenti si ripeta l'algoritmo su $C$ e $C'$ (ossia sugli endomorfismi $p_W \circ\restr{f}{W}$, $p_W \circ\restr{g}{W}\in\End(W)$, i
quali commutano, dal momento che vale l'identità $C C' = C' C$, dedotta moltiplicando le due matrici associate di sopra).
\end{enumerate}
\subsubsection{Polinomio minimo}
Sia $f \in\End(V)$. Si può allora definire l'applicazione $\sigma_f : \KK[x]\to\End(V)$
tale per cui $\sigma_f(p)= p(f)$, dove per $p(f)$ s'intende
la riscrittura di $p$ a cui si sostituisce all'usuale
somma e all'usuale prodotto, la somma di applicazioni
e la composizione (intendendo, in particolare, i termini
noti come multipli dell'identità $f^0 :=\Idv$). In particolare $\sigma_f$ è un omomorfismo di anelli,
ed è dunque anche un'applicazione lineare. $\sigma_f$ non
è mai iniettiva, ed esiste dunque sempre un polinomio $p$
tale per cui $\sigma_f(p)=0$, l'applicazione nulla (è
sufficiente prendere $n^2+1$ potenze di $f$ e osservare
che devono essere linearmente indipendenti). Poiché
$\KK[x]$ è un PID, $\Ker\sigma_f$ è un ideale principale,
e quindi esiste un polinomio monico $\varphi_f$, detto
polinomio minimo di $f$, tale per cui
$\Ker\sigma_f =(\varphi_f)$.
\begin{itemize}
\item$\varphi_f \mid p_f$ (teorema di Hamilton-Cayley),
\item$\deg\varphi_f = d$ se e solo se $\Idv$, $f$, ...,
$f^{d-1}$ sono linearmente indipendenti e $f^d \in\Span(\Idv, f, \ldots, f^{d-1})$,
\item$\dim\KK[f]=\deg\varphi_f$ (infatti, per
il primo teorema di omomorfismo $\KK[f]\cong\KK[x]\quot(\varphi_f)$, da cui si ricava
facilmente la dimensione dello spazio),
\item$\Idv$, $f$, ..., $f^{d-1}$ formano una base
di $\KK[f]$ (per i precedenti risultati), se $d =\deg\varphi_f$,
\item$\varphi_f$ e $p_f$ condividono gli stessi fattori
primi (se infatti non comparisse un autovalore come radice di $\varphi_f$, $\varphi_f(f)$ non sarebbe nullo),
\item gli esponenti dei fattori lineari di $\varphi_f$
sono esattamente gli indici di Fitting degli autospazi
\item gli autovalori hanno moltiplicità algebrica $1$ in $\varphi_f$ se e solo se $f$ è diagonalizzabile (è sufficiente utilizzare il precedente risultato, o considerare la forma canonica di Jordan),
\item se $f$ è nilpotente, $\varphi_f(t)= t^k$, dove $k$ è l'indice di Fitting
di $\Ker f$ (discende direttamente dalla forma di $p_f$ se $f$ è nilpotente),
\item se $p \in\KK[x]$ è tale per cui $p = p_1\cdots p_k$ con $p_1$, ..., $p_k \in\KK[x]$ coprimi, allora $\Ker p(f)=\Ker p_1(f)\oplus\cdots\oplus\Ker p_k(f)$ (teorema di decomposizione primaria; si dimostra facilmente attraverso il teorema di Bezout),
\item$V =\gensp1\oplus\cdots\oplus\gensp k$, se $\lambda_1$, ..., $\lambda_k$ sono tutti gli autovalori di $f$ (deriva direttamente dal teorema
di Hamilton-Cayley e dal teorema di decomposizione primaria, o, alternativamente,
Se $\KK$ è infinito, $V$ ammette una base ciclica se e solo se $p_f =\pm\varphi_f$ (infatti esiste sempre un vettore $\v$ tale per cui $\varphi_f =\varphi_{f, \v}$). In
Si definisce blocco di Jordan di taglia $k$ relativo
all'autovalore $\lambda$ la seguente matrice:
\[J_{\lambda, k} :=\begin{pmatrix}
\lambda&1&0&\cdots&0 \\
0&\ddots&\ddots&&\vdots\\
\vdots&\ddots&\ddots&\ddots&0\\
\vdots&&\ddots&\ddots&1 \\
0&\cdots&\cdots&0&\lambda
\end{pmatrix},\]
ossia la matrice che ha solo $\lambda$ sulla diagonale, $1$ sulla
sopradiagonale e $0$ nelle altre posizioni. Si può
sempre restringere un blocco di Jordan a un blocco nilpotente
considerando $J = J_{\lambda, k}-\lambda I_k$. Tale blocco
ha come polinomio minimo $\varphi_J(t)= t^k$, e dunque
$\varphi_{J_{\lambda, k}}(t)=(t-\lambda)^k$. Allo stesso
modo si calcola $p_{J_{\lambda, k}}(t)=(t-\lambda)^k$. Si osserva dunque
che $\mu_{a, J_{\lambda, k}}(\lambda)=\mu_{a, J}(0)$.
Poiché il polinomio caratteristico ed il polinomio minimo coincidono a meno
del segno, esiste sempre una base ciclica per la quale $J_{\lambda, k}$
si scrive come matrice compagna di $\varphi_{J_{\lambda, k}}$.
Si definisce forma canonica di Jordan di un endomorfismo $f$
una sua matrice associata in una base $\basis$ tale per cui:
\[M_\basis(f)=\begin{pmatrix}
J_1 && 0 \\
&\ddots&\\
0 && J_s \end{pmatrix}, \]
dove $J_1$, ..., $J_s$ sono blocchi di Jordan. La forma canonica
di Jordan esiste sempre ed è unica a meno di permutazione dei blocchi,
se tutti gli autovalori di $f$ sono in $\KK$ (teorema di Jordan; se
gli autovalori di $f$ non sono tutti in $\KK$, si può sempre considerare
un'estensione di campo in cui esistono).
Si definisce autospazio generalizzato relativo all'autovalore $\lambda$ di
$f \in\End(V)$ lo spazio:
\[\Gensp=\Ker(f -\lambda\Idv)^n. \]
Una definizione alternativa, ma equivalente di $\Gensp$ è la seguente:
\[\Gensp=\{\v\in V \mid\exists k \in\NN\mid(f-\lambda\Idv)^k =\vec0\}, \]
ossia $\Gensp$ è lo spazio dei vettori $\v\in V$ tali per cui, applicando ripetutamente $f-\lambda\Idv$, si ottiene un autovettore relativo a $\lambda$ (per
dimostrare l'equivalenza delle due dimostrazioni è sufficiente considerare la
decomposizione di Fitting). In generale, dalla catena della decomposizione
dove $k$ è la molteplicità algebrica di $\lambda$ in $\varphi_f$ (in particolare
si ottiene sempre l'autospazio generalizzato sostituendo $\mu_a(\lambda)$ a $q$,
dacché $\mu_a(\lambda)\geq k$).
In generale vale che:
\[ V =\gensp1\oplus\cdots\oplus\gensp k, \]
se $\lambda_1$, ..., $\lambda_k$ sono tutti gli autovalori di $f$ (vd.~polinomio minimo). Inoltre, $\restr{f}{\Gensp}$ ammette come autovalore soltanto $\lambda$
(pertanto $\dim\Gensp=\mu_{a, f}(\lambda)$, confrontando i polinomi caratteristici). Si osserva inoltre che $\Gensp$ è sempre $f$-invariante. Infatti ogni $f$ induce due catene di inclusione:
&\Ker B = B^{k-1}(U_1) \oplus B^{k-2}(U_2) \oplus\cdots\oplus U_k;
\end{flalign*}
\item Si scelgano da queste basi i vettori che generano ogni blocco
relativo a $\lambda$ (in particolare ogni vettore di base di $U_i$ genera
un blocco di taglia $k-1+i$),
\item Per ogni blocco, generato dal vettore $\v$, si costruisca una base ordinata nel seguente modo:
\[\basis' =\{B^{t-1}\v ,\ldots , B \v, \v\}, \]
dove $t$ è l'indice minimo per cui $B^t \v=0$;
\end{enumerate}
\item Si uniscano ordinatamente a catena le basi ottenute in una base $\basis_J$. La base $[]_\basis\inv\basis_J$ è allora base di Jordan. In particolare, se
$P =\Matrix{\v_1\cdots\v_n}$, dove $\basis_J=\{\v_1, \ldots, \v_n\}$, vale
che $J = P\inv A P$ è esattamente la forma canonica di Jordan individuata
da tale base.
\end{enumerate}
Se $f$ è nilpotente, l'algoritmo può essere velocizzato notevolmente considerando
solamente $B := A$. Se $f$ ha un solo autovalore $\lambda$ e ammette una base ciclica (ossia esiste un solo blocco di Jordan), considerando $B := A -\lambda I_n$,
quasi ogni vettore è un vettore ciclico (è pertanto consigliato cercare un vettore
in modo casuale, piuttosto che estendere tutte le basi dei kernel).
\subsubsection{La forma canonica di Jordan reale}
Sia $A \in M(n, \RR)$. Allora
la forma canonica di Jordan reale è una variante reale della forma canonica di
Jordan che esiste sempre (infatti gli autovalori di $A$ non sono forzatamente
in $\RR$, e potrebbero dunque essere in $\CC\setminus\RR$). La forma canonica di
Jordan reale si costruisce a partire da una forma canonica di Jordan $J$
e una sua base di Jordan $\basis$ associata. Tale forma canonica
si costruisce mediante il seguente algoritmo:
\begin{enumerate}
\item Si scelga un autovalore $z$, se non si è già considerato il
suo coniugato $\conj z$:
\begin{enumerate}[a.]
\item Si prenda la base $\basis_z =\{\vv1, \ldots, \vv k, \conj{\vv1}, \ldots, \conj{\vv k}\}$ che
genera i blocchi di $z$ e $\conj z$ e si consideri la nuova
base $\basis_z' =\{\Re(\vv1), \imm(\vv1), \ldots, \Re(\vv k), \imm(\vv1k)\}$,
\item In tale base la forma canonica di Jordan varia eliminando i blocchi
di $\conj z$, sostituendo all'autovalore $z = a + bi$ il seguente blocco:
\[\Matrix{
a & -b \\ b & a
}, \]
ed ingrandendo gli eventuali $1$ mediante l'identità $I_2$ (tale processo prende
il nome di complessificazione).
\end{enumerate}
\item La matrice ottenuta dopo aver considerato tutti gli eventuali autovalori complessi è una forma canonica di Jordan reale, e la base ottenuta mediante
tutti i processi di complessificazione è una base di Jordan reale.
Si consideri una mappa $\varphi : V \times V \to\KK$. Si dice che
$\varphi$ è un prodotto scalare (e quindi che $\varphi\in\PS(V)$, lo spazio dei prodotti scalari) se è una forma bilineare simmetrica.
In particolare vale la seguente identità:
\[\varphi\left(\sum_{i=1}^s a_i \vv i, \sum_{j=1}^t b_j \ww j \right)=
\sum_{i=1}^s \sum_{j=1}^t a_i b_j \varphi(\vv i, \ww j). \]
Se $\basis=\{\vv1, \ldots ,\vv n \}$ è una base di $V$, si definisce $M_\basis(\varphi)=(\varphi(\vv i, \vv j))_{i,j=1\mbox{--}n}$ come la matrice associata al prodotto scalare $\varphi$. In particolare,
se $a_\varphi : V \to V^*$ è la mappa lineare che associa a $\v$ il funzionale $\varphi(\v, \cdot)\in V^*$
Si definisce prodotto scalare \textit{standard} il prodotto $\varphi$ tale che
$\varphi(\v, \w)=[\v]_\basis^\top[\w]_\basis$.
Si dice che due vettori $\v$, $\w\in V$ sono ortogonali tra loro, scritto come $\v\perp\w$, se
$\varphi(\v, \w)=0$. Dato $W$ sottospazio di $V$, si definisce $W^\perp$ come il sottospazio di $V$ dei vettori ortogonali a tutti i vettori di $W$. Si dice che $\varphi$ è non degenere se $V^\perp=\zerovecset$.
Si scrive in particolare che $V^\perp=\Rad(\varphi)$.
Si dice che $V = U \oplus^\perp W$ (ossia che $U$ e $W$ sono in somma diretta ortogonale) se $V = U \oplus W$ e $U \subseteq W^\perp$. Sia $i : W \to V$ tale che $\w\mapsto\w$. Si scrive $\restr{\varphi}{W}$ intendendo $\restr{\varphi}{W \times W}$.
Ad ogni prodotto scalare si può associare una forma quadratica (e viceversa) $q : V \to\KK$ tale che
$q(\v)=\varphi(\v, \v)$. Un vettore $\v\in V$ si dice isotropo se $q(\v)=0$ (altrimenti si dice
anisotropo). Si definisce il cono isotropo $\CI(\varphi)$ come l'insieme dei vettori isotropi di $V$.
Se $\KK=\RR$, si dice che $\varphi$ è semidefinito positivo ($\varphi\geq0$) se $q(\v)\geq0$$\forall\v\in V$, e che è semidefinito negativo ($\varphi\leq0$) se $q(\v)\leq0$$\forall\v\in V$. Si dice
che $\varphi$ è definito positivo ($\varphi > 0$) se $\varphi\geq0$ e se $q(\v)=0\iff\v=\vec0$,
e che è definito negativo ($\varphi < 0$) se $\varphi\leq0$ e se $q(\v)=0\iff\v=\vec0$.
Si dice che $\varphi$ è definito se è definito positivo o definito negativo. Analogamente $\varphi$
è semidefinito se è semidefinito positivo o semidefinito negativo.
Se $U$ è un sottospazio di $V$, $\varphi$ induce un prodotto scalare $\hat\varphi : V/U \times V/U \to\KK$ tale che $\hat\varphi([\vv1]_U, [\vv2]_U)=\varphi(\vv1, \vv2)$ se e solo se $U \subseteq V^\perp$. In particolare, se $U = V^\perp$,
l'esistenza di un vettore anisotropo $\w\in V$ ed osservare che $V = W \oplus^\perp W^\perp$, dove $W =\Span(\w)$, concludendo per induzione; o in caso di non esistenza di tale $\w$, concludere per il
Inoltre $\sigma$ è un invariante completo per la congruenza, e vale che, su una qualsiasi base ortogonale $\basis'$ di $V$, $\iota_+$ è esattamente il numero
di vettori anisotropi di base con forma quadratica positiva, che $\iota_-$ è il numero di vettori con forma
negativa e che $\iota_0$ è il numero di vettori isotropi (teorema di Sylvester, caso reale; si consideri
una base ortogonale e se ne normalizzino i vettori anisotropi, facendo infine eventuali considerazioni
dimensionali per dimostrare la seconda parte dell'enunciato),
Sia $V$ un $\CC$-spazio. Allora una mappa $\varphi : V \times V \to\CC$ si
dice prodotto hermitiano (e quindi si dice che $\varphi\in\PH(V)$, l'$\RR$-spazio dei
prodotti hermitiani\footnote{Infatti, se $\lambda\in\CC\setminus\RR$ e $\varphi\in\PH(V)$, $\lambda\varphi$\underline{non} è un prodotto hermitiano, mancando della proprietà del coniugio.}) se è una forma sesquilineare, ossia se è antilineare
nel primo argomento ed è lineare nel secondo\footnote{In realtà questa convenzione è spesso e volentieri implementata nelle ricerche di Fisica, mentre in Matematica si tende in realtà a mettere l'antilinearità nel secondo argomento. Il corso ha comunque implementato la prima delle due convenzioni, e così si è riportato in queste schede la convenzione scelta.}, e se il coniugio applicato a $\varphi$ ne inverte gli argomenti. In particolare $\varphi$ è un prodotto hermitiano se:
scalare su $\RR$ (le definizioni principali sono infatti le medesime). Se $\basis$ è una base di $V$, la matrice associata $M_\basis(\varphi)$ è definita in
modo tale che $M_\basis(\varphi)_{ij}=\varphi(\vv i, \vv j)$. Infatti tale prodotto soddisfa le seguenti proprietà:
Esiste un unico modo per complessificare un prodotto scalare $\varphi$, ossia
esiste un unico prodotto hermitiano $\varphi_\CC$ tale per cui $\varphi_\CC(\v, \w)=\varphi(\v, \w)$ se $\v$, $\w$ sono vettori della parte reale dello spazio complessificato. In particolare $\varphi_\CC$ è determinato dalla seguente
Dal momento che $\Im(\alpha_\varphi)=\Ann(V^\perp)$ (l'inclusione verso destra è facile da dimostrare e l'uguaglianza è data dall'uguaglianza dimensione), $f$ è rappresentabile
segue che $(\Ker f)^\perp=\v^\dperp=\Span(\v)+ V^\perp$. Se $f$ non è
l'applicazione nulla, $\vec v \notin V^\perp$, e quindi $\Span(\v)\cap V^\perp=\zerovecset\implies(\Ker f)^\perp=\Span(\v)\oplus^\perp V^\perp$. Quindi,
per computare un vettore $\vv0$ che rappresenti $f$ è sufficiente prendere
un supplementare $\Span(\U)$ di $V^\perp$ in $(\Ker f)^\perp$ (infatti l'aggiunta
di un vettore di $V^\perp$ non varierebbe l'immagine secondo $\alpha_\varphi$) e
computare $\lambda\in\KK\mid\vv0=\lambda\U$ nel seguente
\subsubsection{Metodo di Jacobi per il calcolo della segnatura}
Sia $A = M_\basis(\varphi)$ una matrice associata a $\varphi$ nella base $\basis$.
Sia $d_0 :=1$. Se $d_i =\det(A_{1, \ldots, i}^{1, \ldots, i})$ (è possibile anche
prendere un'altra sequenza di minori, a patto che essi siano principali e che siano
crescenti per inclusione) è diverso da zero
per ogni $1\leq i \leq n-1$, allora $\iota_+$ è il numero di permanenze di segno
di $d_i$ (zero escluso), $\iota_-$ è il numero di variazioni di segno (zero escluso), e $\iota_0$ è $1$ se
$d_n =0$ o $0$ altrimenti.
In generale, se $W$ è un sottospazio di $W'$, $W$ ha codimensione $1$ rispetto a $W'$ e $\det(M_{\basis_W}(\restr{\varphi}{W}))\neq0$ per una base $\basis_W$ di $W$, allora la segnatura
di $\restr{\varphi}{W'}$ è la stessa di $\restr{\varphi}{W}$, dove si aggiunge
$1$ a $\iota_+$, se i determinanti $\det(M_{\basis_W}(\restr{\varphi}{W}))$ e $\det(M_{\basis_{W'}}(\restr{\varphi}{W}))$ (dove $\basis_{W'}$ è una base di $W'$) concordano di segno, $1$ a $\iota_-$, se
sono discordi, o $1$ a $\iota_0$ se l'ultimo di questi due determinanti è nullo.
Dal metodo di Jacobi si deduce il criterio di definitezza di Sylvester: $A$ è
definita positiva se e solo se $d_i > 0$$\forall1\leq i \leq n$; $A$ è
definita negativa se e solo se $(-1)^i d_i > 0$$\forall1\leq i \leq n$.
\subsubsection{Sottospazi isotropi e indice di Witt}
Si dice che un sottospazio $W$ di $V$ è isotropo se $\restr{\varphi}{W}=0$, o
equivalentemente se $W \subseteq W^\perp$ (i.e.~se $W \cap W^\perp= W$, e quindi
se $\Rad(\restr{\varphi}{W})= W$). Si definisce allora l'indice di Witt $W(\varphi)$ come
la dimensione massima di un sottospazio isotropo di $V$.
una base di Sylvester e costruire un nuovo insieme linearmente indipendente $\basis_W$ i cui i vettori sono o isotropi o della forma $\vv i -\ww i$, dove $q(\vv i)=1$ e $q(\ww i)=1$, mostrando che $W =\Span(\basis_W)$ è isotropo, concludendo con discussioni dimensionali),
\item Se $\KK=\CC$, allora $W(\varphi)=\lfloor\frac{\dim V +\dim V^\perp}{2}\rfloor$ (è sufficiente considerare una base di Sylvester per $\varphi$, costruire un nuovo insieme linearmente indipendente $\basis_W$ prendendo quante più coppie $(\vv i, \vv j)$ possibili di vettori della base non isotropi poi associate al vettore $\vv i + i \vv j$, mostrando infine che $W =\Span(\basis_W)$ è isotropo e che è sicuramente massimale perché realizza la dimensione massima possibile secondo le precedenti proposizioni),
\item Se $\KK=\RR$ e $\varphi$ è definito, allora $W(\varphi)=0$,
\item Se $\KK=\RR$ e $\varphi$ è semidefinito, allora $W(\varphi)= i_0$ (e $W = V^\perp$ è un sottospazio
Due spazi vettoriali $(V, \varphi)$ e $(W, \psi)$ su $\KK$ si dicono isometrici tra loro se
esiste un isomorfismo $f : V \to W$ tale che $\varphi(\vv1, \vv2)=\psi(f(\vv1), f(\vv2))$.
Se $f$ è un isomorfismo tra $V$ e $W$, sono equivalenti le seguenti affermazioni:
\begin{enumerate}[(i)]
\item$(V, \varphi)$ e $(W, \psi)$ sono isometrici tra loro tramite $f$,
\item$\forall\basis$ base di $V$, $M_\basis(\varphi)= M_{f(\basis)}(\psi)$,
\item$\exists\basis$ base di $V$, $M_\basis(\varphi)= M_{f(\basis)}(\psi)$.
\end{enumerate}
Inoltre, $V$ e $W$ sono isometrici se e solo se hanno la stessa dimensione e le matrici associate
a $\varphi$ e $\psi$ in due basi di $V$ e di $W$ sono congruenti (infatti, in tal caso, esistono due
basi di $V$ e di $W$ che condividono la stessa matrice associata, ed è possibile associare ad uno
ad uno gli elementi di queste basi).
Pertanto, se $\basis_V$ e $\basis_W$ sono due basi di $V$ e di $W$, $\KK=\RR$ e $M_{\basis_V}(\varphi)$ e $M_{\basis_W}(\psi)$ condividono la stessa segnatura, allora $V$ e $W$ sono
isometrici tra loro (come conseguenza del teorema di Sylvester reale).
Analogamente, se $\KK=\CC$ e $M_{\basis_V}(\varphi)$ e $M_{\basis_W}(\psi)$ condividono lo stesso
rango, allora $V$ e $W$ sono isometrici tra loro (come conseguenza stavolta del teorema di Sylvester
\subsection{Operatori simmetrici, ortogonali, hermitiani e unitari}
[TODO]
\subsection{Spazi euclidei reali e complessi}
Si dice che $(V, \varphi)$ è uno spazio euclideo reale se $V$ è un $\RR$-spazio e se
$\varphi$ è un prodotto scalare definito positivo. Si dice che $(V_\CC, \varphi_\CC)$ è uno spazio euclideo complesso se $V_\CC$ è un $\CC$-spazio e se $\varphi_\CC$ è un
prodotto hermitiano definito positivo.
Questi due tipi di spazi hanno in comune alcune proprietà particolari. Si definisce
innanzitutto la norma euclidea per uno spazio euclideo $(V, \varphi)$ come:
Su questi due spazi possono essere definiti due particolare operatori: la
proiezione ortogonale e l'inversione ortogonale.
Si definisce proiezione ortogonale su un sottospazio $W \neq\zerovecset$ l'operatore $\pr_W \in\End(V)$ tale
che $\pr_W(\v)=\w$, dove $\v=\w+\w^\perp$, con $\w\in W$ e $\w^\perp\in W^\perp$. Tale decomposizione è ben definita e unica dacché $V = W \oplus^\perp W^\perp$ (infatti $\varphi$ è definita positiva). Una proiezione ortogonale
soddisfa la relazione $\pr_W^2=\pr_W$, da cui si ricava che $\varphi_{\pr_W}\mid x(x-1)$ (implicandone la diagonalizzabilità). Infatti $V_1=\Ker(\pr_W -\Idv)= W$ e $V_0=\Ker(\pr_W)= W^\perp$ (per cui $\varphi_{\pr_W}(x)= x(x-1)$). La
proiezione ortogonale è un operatore simmetrico (se lo spazio è euclideo reale)
o hermitiano (se lo spazio è euclideo complesso); infatti vale che
Si definisce inversione ortogonale su un sottospazio $W \neq\zerovecset$ l'operatore $\rho_W \in\End(V)$ tale
che $\rho_W(\v)=\w-\w^\perp$, dove $\v=\w+\w^\perp$, con $\w\in W$ e $\w^\perp\in W^\perp$. Come prima, tale decomposizione è unica e ben definita. Un'inversione ortogonale
soddisfa la relazione $\rho_W^2=\Idv$, da cui si ricava che $\varphi_{\rho_W}\mid(x+1)(x-1)$ (implicandone la diagonalizzabilità). Infatti $V_1=\Ker(\rho_W -\Idv)= W$ e $V_{-1}=\Ker(\rho_W +\Idv)= W^\perp$ (per cui $\varphi_{\rho_W}(x)=(x+1)(x-1)$). Se $\dim W =\dim V -1$, allora si dice che l'inversione ortogonale
è una riflessione ortogonale. L'inversione ortogonale è sempre un operatore
ortogonale (se lo spazio è euclideo reale) o unitario (se lo spazio è euclideo
complesso); infatti vale che $\varphi(\v, \w)=\varphi(\pr_W(\v)+\pr_{W^\perp}(\v), \pr_W(\w)+\pr_{W^\perp}(\w))=\varphi(\pr_W(\v), \pr_W(\w))+\varphi(\pr_{W^\perp}(\v), \pr_{W^\perp}(\w))=\varphi(\pr_W(\v), \pr_W(\w))+\varphi(-\pr_{W^\perp}(\v), -\pr_{W^\perp}(\w))=\varphi(\pr_W(\v)-\pr_{W^\perp}(\v), \pr_W(\w)-\pr_{W^\perp}(\w))=\varphi(\rho_W(\v), \rho_W(\w))$.
Se $f$ è simmetrico o hermitiano, esiste sempre una base ortonormale di autovettori
per $f$. $f$ è normale se e solo se è diagonalizzabile. Esiste sempre $S \in\Sym(n, \RR)$ tale per cui $S^2= A$, con $A \in\Sym(n, \RR)$. Se $S$ è definita positiva,
tale $S$ è unica. Se $A \in\GL(n, \RR)$, esistono e sono unici $P \in O(n)$,
$S \in\Sym(n, \RR)$ tali per cui $A = PS$ (in particolare $S =\sqrt{A A^\top}$).
Se $\varphi$ è definito positivo e $\psi$ è un altro prodotto scalare, allora
i due prodotti sono simultaneamente ortogonalizzabili. È sufficiente prendere
una base $\basis$ ortonormale di $\varphi$, e trovare la base ortonormale $\basis'$ di autovettori
che rende $M_\basis(\psi)$ diagonale. In tale base $\basis'$, $M_{\basis'}(\varphi)$
è l'identità e $M_\basis(\psi)$ è diagonale: dunque la base è ortogonale per ambo
Sia $G$ un gruppo e $X$ un insieme. Un'azione sinistra\footnote{Un'azione sinistra induce sempre anche un'azione destra, ponendo $x \cdot g=g^{-1}\cdot x$.} di $G$ su $X$ a sinistra un'applicazione $\cdot : G \times X \rightarrow X$, per la quale si pone $g \cdot x :=\cdot(g, x)$, tale che:
\begin{enumerate}[(i)]
\item$e \cdot x=x$, $\forall x \in X$, dove $e$ è l'identità di $G$,
\item$g \cdot(h \cdot x)=(gh)\cdot x$, $\forall g, h \in G$, $\forall x \in X$.
\end{enumerate}
Si definisce l'applicazione $f_g:X\rightarrow X$ indotta dalla relazione $f_g(x)=g \cdot x$; tale applicazione è bigettiva. Se $\cdot$ è un'azione sinistra di $G$ su $X$, si dice che $G$ opera a sinistra su $X$ e che $X$ è un $G$-insieme. \\
\vskip 0.05in
Si definisce \textit{stabilizzatore} di $x \in X$ il sottogruppo di $G$$\Stab_G(x)$
dove si scrive $\Stab(x)$ per indicare $\Stab_G(x)$ qualora non fosse ambigua
l'azione a cui ci si riferisce. \\
Si può costruire un omomorfismo $\tau : G \rightarrow S_X$, dove $(S_x, \circ)$ è il gruppo delle bigezioni di $X$, dove $\tau(g)= f_g$. Si dice che l'azione di $G$ su $X$ è \textit{fedele} se l'omomorfismo $g \rightarrow f_g$ è iniettivo, ossia
se e solo se:
\[ f_g =\IdV{X}\implies g = e, \]
ossia se e solo se:
\[\bigcap_{x \in X}\Stab(x)=\{e\}. \]
Per esempio, $S_X$ opera fedelmente su $X$ tramite l'azione indotta dalla relazione $g \cdot x=g(x)$ (ed è in realtà anche un'azione transitiva). $G$ stesso opera su $G$
tramite l'azione banale indotta dalla relazione $g \cdot g'=gg'$.
Si definisce su $X$ la relazione $x \sim_G y \iff\exists g \in G$ t.c.~$y=g \cdot x$.
La relazione $\sim_G$ è una relazione d'equivalenza: due elementi equivalenti tramite $\sim_G$ si dicono coniugati tramite $G$. Le classi di equivalenza si dicono orbite di $G$. In particolare si definisce $\Orb(x)= O_x$, con $x \in X$, come $[x]_{\sim_G}$,
ossia come la classe di equivalenza di $x$ rispetto a $\sim_G$.
Si presentano alcuni esempi di orbite:
\begin{enumerate}
\item$\GL(n,\KK)$ opera su $M(n,\KK)$ tramite la similitudine e le orbite sono le classi di matrici simili, rappresentate dalle forme canoniche di Jordan,
\item$\GL(n,\KK)$ opera su $\Sym(n,\KK)$ tramite la congruenza e le orbite sono le classi di matrici congruenti, rappresentate in $\RR$ dalle matrici diagonali con $1$, $-1$ e $0$ come elementi, e in $\CC$ dalle stesse matrici rappresentanti delle classi
\item$O_n$ agisce naturalmente su $\RR^n$ e l'orbita di $\vec x \in\RR^n$ è la sfera di raggio $\norm{\vec x}$ secondo il prodotto scalare standard di $\RR^n$.
\end{enumerate}
Vale il teorema di orbita-stabilizzare: l'applicazione $f:G/\Stab_G(x)\rightarrow\Orb(x)$ tale che $g \Stab_G(x)\mapsto g \cdot x$ è una bigezione tra
$G/\Stab_G(x)$ e $\Orb(x)$ (tale teorema è un analogo del primo teorema di
omomorfismo per i gruppi). Se $G$ è finito, vale allora che $\abs{G}=\abs{\Stab_G(x)}\cdot\abs{\Orb(x)}$.
Si dice che $G$ opera \textit{liberamente} su $X$ se $\forall x \in X$ l'applicazione
da $G$ in $X$ tale che $g \mapsto g \cdot x$ è iniettiva, ossia se e solo se $\Stab_G(x)=\{e\}$, $\forall x \in X$. Se $G$ opera liberamente su $X$,
$G$ opera anche fedelmente su $X$.
Si dice che $G$ opera \textit{transitivamente }su $X$ se $x \sim_G y$, $\forall x,y \in X$, cioè se esiste un'unica orbita, che coincide dunque con $G$. In tal caso
si dice che $X$ è \textit{omogeneo} per l'azione di $G$, oppure che
$X$ è $G$-omogeneo.
Si presentano alcuni esempi di azioni transitive:
\begin{enumerate}
\item$O_n$ opera transitivamente sulla sfera $n$-dimensionale di $\RR^n$,
\item Sia $\Gr_k(\RR^n)=\{W \text{ sottospazio di }\RR^n | \dim W=k\}$ la Grassmanniana di ordine $k$ su $\RR^n$. Allora $O_n$ opera transitivamente su $\Gr_k(\RR^n)$.
\end{enumerate}
Si dice che $G$ opera in maniera \textit{semplicemente transitiva} su $X$ se opera transitivamente e liberamente su $X$; in tal caso si dice che $X$ è un insieme $G$-omogeneo principale. Equivalentemente $G$ opera in maniera semplicemente transitiva se $\exists x\in X$ t.c.~$g\rightarrow g \cdot x$ è una bigezione.
Se $X$ è un insieme $G$-omogeneo e $G$ è abeliano, allora $G$ agisce fedelmente su $X$$\iff$$X$ è $G$-insieme omogeneo principale (per dimostrare l'implicazione a destra è sufficiente mostrare che, se $x \in X$, $g \in\Stab(x)\implies f_g =\IdV{X}$, da cui si conclude
\subsection{Proprietà generali di uno spazio affine}
Si dice spazio affine $E$ un qualcune insieme $V$-omogeneo principale, dove
$V$ è uno spazio vettoriale, inteso in tal senso come il gruppo abeliano
$(V, +)$. Si scrive in tal caso l'azione $\v\cdot P$ come $P +\v$. Equivalentemente $E$ è uno spazio affine se $\forall P$, $Q \in E$, $\exists!\,\v\in V$ t.c. $P +\v= Q$. In particolar modo, ci si riferisce a $\v\mid P +\v= Q$ come $Q - P$ o
$\overrightarrow{PQ}$.
Valgono le seguenti proprietà generali:
\begin{itemize}
\item fissato $\v\in V$, l'applicazione da $E$ in $E$ tale che $P \mapsto P+\v$ è una bigezione,
\item fissato $O \in E$, l'applicazione da $V$ in $E$ tale che $\v\mapsto O+\v$ è una bigezione,
\item fissato $O \in E$, l'applicazione da $E$ in $V$ tale che $P \rightarrow P-O$ è una bigezione ed è l'inversa della bigezione presentata nello scorso punto.
\end{itemize}
Siano $P_1$, ..., $P_k \in E$ e $\lambda_1$, ..., $\lambda_k \in\KK$. Siano inoltre
$O$, $O' \in E$. Allora se si pone $P=O+\sum_{i=1}^{k}\lambda_i (P_i-O)$ e $P'=O'+\sum_{i=1}^{k}\lambda_i (P_i-O')$, vale che:
\[P=P'\iff\sum_{i=1}^{k}\lambda_i=1\]
Pertanto un punto $P\in E$ si dice \textit{combinazione affine} dei punti $P_1$, ..., $P_k$ se $\exists\lambda_1$, ..., $\lambda_k \in\KK$ tali che $\sum_{i=1}^{k}\lambda_i=1$ e che $\forall O \in E$,
$P=O+\sum_{i=1}^{k}\lambda_i (P_i-O)$. Si scrive in tal caso $P=\sum_{i=1}^{k}\lambda_i P_i$ (la notazione è ben definita dal momento che
non dipende da $O$ per l'asserzione precedente).
Un sottoinsieme $D\subseteq E$ si dice \textit{sottospazio affine} se è chiuso per combinazioni affini. Il sottospazio affine $D \subseteq E$ generato da un sottoinsieme $S \subseteq E$ è l'insieme delle combinazioni affini (finite) dei punti di $S$;
si denota tale sottospazio affine $D$ come $\Aff(S)$. Vale inoltre che $\Aff(S)$ è il