l'applicazione lineare $p_V$ tale che $p_V(\vec{v}, \vec{w})=\vec{v}$.
l'applicazione lineare $p_V$ tale che $p_V(\vec{v}, \vec{w})=\vec{v}$.
Analogamente si può fare con gli altri spazi del prodotto cartesiano.
Analogamente si può fare con gli altri spazi del prodotto cartesiano.
Si dice che $B$ è un supplementare di $A$ se $V = A \oplus B\iff
Si dice che $B$ è un supplementare di $A$ se $V = A \oplus B$(ossia $\iff
\dim A + \dim B = \dim V \land A \cap B = \zerovecset$. Il supplementare
\dim A + \dim B = \dim V \, \land\, A \cap B = \zerovecset$). Il supplementare
non è per forza unico. Per trovare un supplementare di $A$ è sufficiente
non è per forza unico. Per trovare un supplementare di $A$ è sufficiente
completare $\basis_A$ ad una base $\basis$ di $V$ e considerare
completare $\basis_A$ ad una base $\basis$ di $V$ e considerare
$\Span(\basis\setminus\basis_A)$.
$B :=\Span(\basis\setminus\basis_A)$.
\subsubsection{Somma diretta di più sottospazi}
Si dice che i sottospazi $W_1$, ..., $W_k$ di $V$ sono in somma
diretta, e si scrive $W_1+\ldots+ W_k = W_1\oplus\ldots\oplus W_k$,
se la rappresentazione di un vettore della somma di questi sottospazi
è unica, ossia se esistono unici $\ww1\in W_1$, ..., $\ww k \in W_k$ tali
per cui $\w\in W_1+\ldots+ W_k$ si scrive come $\w=\ww1+\ldots+\ww k$. \\
In generale, sono equivalenti i seguenti fatti:
\begin{enumerate}[(i)]
\itemsep0em
\item$W_1$, ..., $W_k$ sono in somma diretta,
\item Se esistono $\ww1\in W_1$, ..., $\ww k \in W_k$ tali per cui
$\ww1+\ldots+\ww k =\vec0$, allora $\ww1=\cdots=\ww k =\vec0$ (è sufficiente considerare due scritture alternative e poi farne la differenza per dimostrare un'implicazione),
\item Se $\basis_{W_1}$, ..., $\basis_{W_k}$ sono basi di $W_1$, ..., $W_k$,
allora $\bigcup_{i=1}^k \basis_{W_i}$ è base di $W_1+\ldots+ W_k$ (è sufficiente considerare l'indipendenza lineare per dimostrare un'implicazione),
\item$\dim(W_1+\ldots+ W_k)=\dim W_1+\ldots+\dim W_k$ (si dimostra facilmente che è equivalente a (iii), e quindi che lo è alle altre proposizioni),
\item$W_i \cap(W_1+\ldots+ W_{i-1})=\zerovecset$$\forall2\leq i \leq k$ (è sufficiente spezzare la somma in $(W_1+\ldots+ W_{i-1})+ W_i$ e ricondursi al caso di due sottospazi, mostrando in particolare, per induzione, l'equivalenza con (iv), da cui seguono le altre equivalenze),
\item$W_i \cap(W_1+\ldots+ W_{i-1}+\widehat{W_i}+ W_{i+1}+ W_k)=\zerovecset$$\forall1\leq i \leq k$, ossia $W_i$, intersecato con la somma
dei restanti sottospazi, è di dimensione nulla (è facile ricondursi alla proposizione (v) per induzione).
\end{enumerate}
\subsection{Proprietà generali delle matrici}
\subsection{Proprietà generali delle matrici}
@ -442,7 +467,7 @@
indipendenti di $A$. Siano $A$, $B \in M(m, n, \KK)$.
indipendenti di $A$. Siano $A$, $B \in M(m, n, \KK)$.
\begin{itemize}
\begin{itemize}
\item$\rg(A)=\rg(A^\top)$ (i.e.il rango è lo stesso se calcolato
\item$\rg(A)=\rg(A^\top)$ (i.e.~il rango è lo stesso se calcolato
Si definisce matrice di Vandermonde una matrice $A \in M(n, \KK)$ della
Si definisce matrice di Vandermonde una matrice $A \in M(n, \KK)$ della
@ -1040,6 +1075,46 @@
tale che $p(\alpha_i)=\beta_i$ per $i$ coppie ($\alpha_i$, $\beta_i$) con
tale che $p(\alpha_i)=\beta_i$ per $i$ coppie ($\alpha_i$, $\beta_i$) con
$\alpha_i$ tutti distinti).
$\alpha_i$ tutti distinti).
\subsubsection{Rango tramite il determinante degli orlati}
Si dicono \textit{sottomatrici} della matrice $A \in M(m, n, \KK)$ tutte
le matrici contenute in $A$, ossia le matrici $B$ che sono ottenibili da $A$
mantenendo solo alcune sue righe e colonne. In generale, si scrive $A^{j_1, \ldots, j_s}_{i_1, \ldots, i_t}$ per indicare la sottomatrice ottenuta
da $A$ mantenendo le colonne di indice $j_1$, ..., $j_s$ e le righe di
indice $i_1$, ..., $i_t$. Quando è omesso l'indice delle colonne o l'indice
delle righe, si sottintende di aver mantenuto o tutte le colonne o tutte le righe
(e.g.~$A_{1,2}$ è la sottomatrice di $A$ ottenuta mantenendo tutte le colonne e
le prime due righe). Si dice che $M$ è \textit{minore} di $A$ una sua sottomatrice quadrata. Si chiamano \textit{orlati} di un minore $M$ di taglia $k$ i minori di taglia $k+1$ di $A$ aventi $M$ come minore.
\begin{itemize}
\item Se $B$ è una sottomatrice di $A$, allora $\rg(B)\leq\rg(A)$ (è sufficiente prendere un numero massimo di colonne linearmente indipendenti
di $B$ e mostrare che le relative colonne in $A$ sono ancora linearmente indipendenti),
\item$\rg(A)=\max\{\rg(B)\mid B \text{ sottomatrice di }\! A\}$ (è sufficiente utilizzare il precedente risultato; infatti $A$ è una sottomatrice di $A$),
\item$\rg(A)=\max\{\rg(B)\mid B \text{ minore invertibile di }\! A\}=\max\{n \mid\text{esiste un minore di $A$ di taglia $n$ invertibile}\}$ (è sufficiente utilizzare la prima disuguaglianza e considerare un minore di $A$ composto dalle righe e le colonne linearmente indipendenti di $A$, che sono
dello stesso numero, dal momento che il rango per righe è uguale al rango per colonne),
\item$\rg(A)$ è il più piccolo naturale $n$ tale per cui, per ogni minore
$M$ di $A$ di taglia maggiore di $n$, $\det(M)=0$ (ossia $M$ è singolare; segue direttamente dal precedente risultato),
\item$\rg(A)$ è il più piccolo naturale $n$ tale per cui, per ogni minore
$M$ di $A$ di taglia $n+1$, $\det(M)=0$ (ossia $M$ è singolare; segue dal precedente risultato a cui si combina lo sviluppo di Laplace del determinante -- se ogni minore di taglia $k$ ha determinante nullo, anche tutti i minori di
taglia maggiore di $k$ hanno determinante nullo).
\item esiste un minore $M$ di taglia $k$ di $A$ con $\det(M)\neq0$$\implies\rg(A)\geq k$ (deriva direttamente dall'ultimo risultato sul rango),
\item per ogni minore $M$ di taglia $k$ di $A$ vale che $\det(M)=0$
$\implies\rg(A) < k$ (come sopra).
\end{itemize}
Si può facilitare lo studio del rango tramite il teorema di Kronecker (o degli orlati): $\rg(A)$ è il più piccolo naturale $n$ tale per cui esista un minore
$M$ di taglia $k$ con $\det(M)\neq0$ e per cui ogni suo orlato $O$ è tale
per cui $\det(O)=0$.
Sia infatti, senza perdità di generalità, $M = A^{1,\ldots, k}_{1,\ldots,k}$ tale minore (altrimenti è sufficiente considerare una permutazione delle righe e
delle colonne per ricadere in questo caso; tale permutazione è ammessa dall'algoritmo di Gauss). Si mostra che $A^j \in\Span(A^1, \ldots, A^k)$$\forall j > k$. Si consideri ogni orlato $M_j$ di $M$ ottenuto scegliendo
la $j$-esima colonna di $A$: per ipotesi $\det(M_j)=0$, ed il rango è almeno
$k$. Quindi $\rg(M_j)= k$; poiché le prime $k$ righe sono linearmente indipendenti, l'ultima riga aggiunta deve certamente appartenere al loro
sottospazio generato. Quindi ogni riga di $A^{1,\ldots, k, j}$ appartiene
al sottospazio $\Span(A_1, \ldots, A_k)$, da cui si deduce che $\rg(A^{1,\ldots, k, j})= k$, e quindi che $\rg(A^{1,\ldots,k,j})= k \implies A^j \in\Span(A^1, \ldots, A^k)\implies\rg(A)= k$.
\subsection{Autovalori e diagonalizzabilità}
\subsection{Autovalori e diagonalizzabilità}
Sia $f \in\End(V)$. Si dice che $\lambda\in\KK$ è un autovalore
Sia $f \in\End(V)$. Si dice che $\lambda\in\KK$ è un autovalore
@ -1047,7 +1122,6 @@
tale che $f(\vec{v})=\lambda\vec{v}$, e in tal caso si dice
tale che $f(\vec{v})=\lambda\vec{v}$, e in tal caso si dice
che $\vec{v}$ è un autovettore relativo a $\lambda$. Un autovalore
che $\vec{v}$ è un autovettore relativo a $\lambda$. Un autovalore
è tale se esiste una soluzione non nulla a $(f -\lambda\Idv)\vec{v}=\vec{0}$, ossia se e solo se:
è tale se esiste una soluzione non nulla a $(f -\lambda\Idv)\vec{v}=\vec{0}$, ossia se e solo se:
\[\det(f -\lambda\Idv)=0. \]
\[\det(f -\lambda\Idv)=0. \]
Questa relazione è ben definita dacché il determinante è invariante
Questa relazione è ben definita dacché il determinante è invariante
@ -1055,7 +1129,7 @@
di $f$. Si definisce allora $p_f(\lambda)=\det(f -\lambda\Idv)$,
di $f$. Si definisce allora $p_f(\lambda)=\det(f -\lambda\Idv)$,
detto polinomio caratteristico di $f$, ancora invariante per
detto polinomio caratteristico di $f$, ancora invariante per
matrici associate a $f$. Si denota inoltre con
matrici associate a $f$. Si denota inoltre con
spettro di $f$ l'insieme $sp(f)$ degli autovalori di $f$ e con
spettro di $f$ l'insieme $\Sp(f)$ degli autovalori di $f$ e con
$V_\lambda=\Ker(f -\lambda\Idv)$ lo spazio degli autovettori
$V_\lambda=\Ker(f -\lambda\Idv)$ lo spazio degli autovettori
relativo a $\lambda$, detto autospazio di $\lambda$.
relativo a $\lambda$, detto autospazio di $\lambda$.
@ -1075,17 +1149,17 @@
\item il termine noto di $p_f(\lambda)$ è $\det(f -0\cdot\Idv)=\det(f)$,
\item il termine noto di $p_f(\lambda)$ è $\det(f -0\cdot\Idv)=\det(f)$,
\item poiché $p_f(\lambda)$ appartiene all'anello euclideo $\KK[\lambda]$, che è dunque un UFD, esso ammette al più
\item poiché $p_f(\lambda)$ appartiene all'anello euclideo $\KK[\lambda]$, che è dunque un UFD, esso ammette al più
$n$ radici,
$n$ radici,
\item$sp(f)$ ha al più $n$ elementi, ossia esistono al massimo
\item$\Sp(f)$ ha al più $n$ elementi, ossia esistono al massimo
$n$ autovalori (dalla precedente considerazione),
$n$ autovalori (dalla precedente considerazione),
\item se $\KK=\CC$ e $\charpoly{f}\in\RR[\lambda]$, $\lambda\in
\item se $\KK=\CC$ e $\charpoly{f}\in\RR[\lambda]$, $\lambda\in
sp(f) \iff\overline{\lambda}\in sp(f)$(infatti $\lambda$ è
\Sp(f) \iff\overline{\lambda}\in\Sp(f)$(infatti $\lambda$ è
soluzione di $\charpoly{f}$, e quindi anche $\overline{\lambda}$
soluzione di $\charpoly{f}$, e quindi anche $\overline{\lambda}$
deve esserne radice, dacché i coefficienti di $\charpoly{f}$ sono
deve esserne radice, dacché i coefficienti di $\charpoly{f}$ sono
in $\RR$),
in $\RR$),
\item se $\KK$ è un campo algebricamente chiuso, $p_f(\lambda)$
\item se $\KK$ è un campo algebricamente chiuso, $p_f(\lambda)$
ammette sempre almeno un autovalore distinto (o esattamente
ammette sempre almeno un autovalore distinto (o esattamente
$n$ se contati con molteplicità),
$n$ se contati con molteplicità),
\item$0\insp(f)\iff\dim\Ker f > 0\iff\rg f < 0\iff\det(f)=0$,
\item$0\in\Sp(f)\iff\dim\Ker f > 0\iff\rg f < 0\iff\det(f)=0$,
\item autovettori relativi ad autovalori distinti sono sempre
\item autovettori relativi ad autovalori distinti sono sempre
linearmente indipendenti,
linearmente indipendenti,
\item dati $\lambda_1$, ..., $\lambda_k$ autovalori di $f$,
\item dati $\lambda_1$, ..., $\lambda_k$ autovalori di $f$,
@ -1103,8 +1177,8 @@
minore di $\mu_a(\lambda)$),
minore di $\mu_a(\lambda)$),
\item vale sempre la disuguaglianza $n \geq\sum_{i=1}^k \mu_a(\lambda_i)\geq\sum_{i=1}^k \mu_g(\lambda_i)$,
\item vale sempre la disuguaglianza $n \geq\sum_{i=1}^k \mu_a(\lambda_i)\geq\sum_{i=1}^k \mu_g(\lambda_i)$,
\item se $W \subseteq V$ è un sottospazio $f$-invariante,
\item se $W \subseteq V$ è un sottospazio $f$-invariante,
allora $\charpolyrestr{f}{W}\mid p_f(\lambda)$\footnote{lavorando
allora $\charpolyrestr{f}{W}\mid p_f(\lambda)$\footnote{Quando si lavora
su endomorfismi, la notazione $\restr{f}{W}$ è impiegata per
su degli endomorfismi, la notazione $\restr{f}{W}$ è impiegata per
considerare $f$ ristretta a $W$ sia sul dominio che sul codominio.} (è sufficiente
considerare $f$ ristretta a $W$ sia sul dominio che sul codominio.} (è sufficiente
prendere una base di $W$ ed estenderla a base di $V$, considerando
prendere una base di $W$ ed estenderla a base di $V$, considerando
poi la matrice associata in tale base, che è a blocchi),
poi la matrice associata in tale base, che è a blocchi),
@ -1142,7 +1216,10 @@
che $f$ è diagonalizzabile se e solo se per ogni autovalore la
che $f$ è diagonalizzabile se e solo se per ogni autovalore la
massima taglia di un blocco di Jordan è esattamente $1$, ossia
massima taglia di un blocco di Jordan è esattamente $1$, ossia
se il polinomio minimo di $f$ è un prodotto di fattori lineari
se il polinomio minimo di $f$ è un prodotto di fattori lineari
distinti.
distinti. Si può fare la stessa considerazione guardando al
teorema di decomposizione primaria (gli indici di Fitting del
sottospazio generalizzato sono esattamente le moltiplicità algebriche
degli autovalori nel polinomio minimo).
Data $f$ diagonalizzabile, la matrice diagonale $J$ a cui $f$ è
Data $f$ diagonalizzabile, la matrice diagonale $J$ a cui $f$ è
associata è, dati gli autovalori $\lambda_1$, ..., $\lambda_k$,
associata è, dati gli autovalori $\lambda_1$, ..., $\lambda_k$,
@ -1170,11 +1247,10 @@
Se $f$ è diagonalizzabile, allora ogni spazio $W$$f$-invariante di
Se $f$ è diagonalizzabile, allora ogni spazio $W$$f$-invariante di
$V$ è tale che:
$V$ è tale che:
\[ W =(W \cap V_{\lambda_1})\oplus\cdots\oplus(W \cap V_{\lambda_k}), \]
\[ W =(W \cap V_{\lambda_1})\oplus\cdots\oplus(W \cap V_{\lambda_k}), \]
dove $\lambda_1$, ..., $\lambda_k$ sono gli autovalori distinti di
dove $\lambda_1$, ..., $\lambda_k$ sono gli autovalori distinti di
$f$.
$f$, e dunque $\restr{f}{W}$ è sempre diagonalizzabile, se $f$ lo è.
Due endomorfismi $f$, $g \in\End(V)$ diagonalizzabili si dicono simultaneamente diagonalizzabili se esiste una base $\basis$ di $V$
Due endomorfismi $f$, $g \in\End(V)$ diagonalizzabili si dicono simultaneamente diagonalizzabili se esiste una base $\basis$ di $V$
tale per cui sia la matrice associata di $f$ in $\basis$ che quella
tale per cui sia la matrice associata di $f$ in $\basis$ che quella
@ -1191,6 +1267,12 @@
anche base di autovettori di $V_{\lambda_i}$; unendo tutti questi
anche base di autovettori di $V_{\lambda_i}$; unendo tutti questi
autovettori in un'unica base $\basis$ di $V$, si otterrà dunque
autovettori in un'unica base $\basis$ di $V$, si otterrà dunque
che una base in cui le matrici associate di $f$ e $g$ sono diagonali.
che una base in cui le matrici associate di $f$ e $g$ sono diagonali.
Se $f$ è diagonalizzabile, anche $f^k$ lo è, per ogni $k \in\NN$. Se
ogni vettore di $V$ è un autovettore di $f$, allora $f =\lambda\Id$,
con $\lambda\in\KK$ (è sufficiente considerare l'eventuale esistenza di più
autospazi e due vettori $\v$ e $\w$ di due autospazi distinti e considerare
le due scritture possibili di $f(\v+\w)$).
\subsection{Prodotto scalare e congruenza}
\subsection{Prodotto scalare e congruenza}
Si consideri una mappa $\varphi : V \times V \to\KK$. Si dice che
Si consideri una mappa $\varphi : V \times V \to\KK$. Si dice che
@ -1338,7 +1420,6 @@
Data una base $\basis$ di $V$, se $\abs{\CI(\varphi)\cap\basis}\leq1$ (ossia se ogni vettore di
Data una base $\basis$ di $V$, se $\abs{\CI(\varphi)\cap\basis}\leq1$ (ossia se ogni vettore di
$\basis$ è anisotropo o al più vi è un vettore isotropo, posto in fondo come $\vv n$), si può
$\basis$ è anisotropo o al più vi è un vettore isotropo, posto in fondo come $\vv n$), si può
trovare una base ortogonale $\basis' =\{\vv1', \ldots, \vv n' \}$ a partire da $\basis$ tale che ne mantenga la stessa bandiera, ossia tale che:
trovare una base ortogonale $\basis' =\{\vv1', \ldots, \vv n' \}$ a partire da $\basis$ tale che ne mantenga la stessa bandiera, ossia tale che:
\[\Span(\vv1', \ldots, \vv i')=\Span(\vv1, \ldots, \vv i)\forall1\leq i \leq n. \]
\[\Span(\vv1', \ldots, \vv i')=\Span(\vv1, \ldots, \vv i)\forall1\leq i \leq n. \]
Si definisce $C(\w, \v)=\frac{\varphi(\v, \w)}{\varphi(\w, \w)}$ come il coefficiente di Fourier
Si definisce $C(\w, \v)=\frac{\varphi(\v, \w)}{\varphi(\w, \w)}$ come il coefficiente di Fourier