vale che $M(n, \KK)=\Sym(n, \KK)\oplus\Lambda(n, \KK)$,
\item una base naturale di $\KK[x]$ è data da $\basis=\{x^n \mid
n \in\NN\}$, mentre una di $\KK_t[x]$ è data da $\basis\cap
\KK_t[x] = \{x^n \mid n \in\NN\land n \leq t\}$(quindi
$\dim\KK[x]=\infty$ e $\dim\KK_t[x]= t+1$),
\item una base naturale di $\KK$ è $1_\KK=\{1_\KK\}$ (quindi
$\dim\KK=1$),
\item un sottospazio di dimensione $1$ si definisce \textit{retta},
uno di dimensione $2$\textit{piano}, uno di dimensione $3$
\textit{spazio}, e, infine, uno di dimensione $n-1$ un iperpiano,
\item un iperpiano $\Pi$ è sempre rappresentabile da un'equazione cartesiana
nelle coordinate della rappresentazione della base (infatti ogni
iperpiano è il kernel di un funzionale $f \in\dual{V}$, e $M^\basis_{1_\KK}(f)\,[\vec{v}]_\basis=0$ è l'equazione cartesiana; è sufficiente prendere una base di $\Pi$ e completarla
a base di $V$ con un vettore $\vec{t}$, considerando infine
$\Ker\dual{\vec{t}}$).
\end{itemize}
\subsection{Applicazioni lineari, somme dirette, quozienti e
prodotti diretti}
Un'applicazione da $V$ in $W$ si dice applicazione lineare
\item$M^{\basis_V}_{\basis_W}(f)=\begin{pmatrix}\;[f(\vec{v_1})]_{\basis_W}\,\mid\,\cdots\,\mid\,[f(\vec{v_n})]_{\basis_W}\;\end{pmatrix}$ è la matrice
associata a $f$ sulle basi $\basis_V$, $\basis_W$,
\item$M^V_W(f + h)= M^V_W(f)+ M^V_W(h)$,
\item$M^V_Z(g \circ f)= M^W_Z(g) M^V_W(f)$,
\item data $A \in M(m, n, \KK)$, sia $f_A : \KK^n \to\KK^m$ tale
che $f_A(\vec{x})= A \vec{x}$, allora $M^{e}_{e'}(f_A)= A$,
\item$f$ è completamente determinata dai suoi valori in una
qualsiasi base di $V$ ($M^{\basis_V}_{\basis_W}$ è un isomorfismo
tra $\mathcal{L}(V, W)$ e $M(\dim W, \dim V, \mathbb{K})$),
\item$\dim\mathcal{L}(V, W)=\dim V \cdot\dim W$ (dall'isomorfismo
\item$\rg(A+B)=\rg(A)+\rg(B)\implies\Im(A+B)=\Im(A)\oplus\Im(B)$ (è sufficiente applicare la formula di Grassmann),
\item$\rg(A)$ è il minimo numero di matrici di rango uno che
sommate restituiscono $A$ (è sufficiente usare la proposizione
precedente per dimostrare che devono essere almeno $\rg(A)$),
\item$\rg(A)=1\implies\exists B \in M(m, 1, \KK)$, $C \in M(1, n, \KK)\mid A=BC$ (infatti $A$ può scriversi come $\begin{pmatrix}[c|c|c]\alpha_1 A^i &\cdots&\alpha_n A^i \end{pmatrix}$ per un certo $i \leq n$ tale che $A^i \neq\vec{0}$).
\end{itemize}
Siano $A \in M(m, n, \KK)$, $B \in M(n, k, \KK)$ e $C \in M(k, t, \KK)$.
Si definisce matrice di Vandermonde una matrice $A \in M(n, \KK)$ della
forma:
\[ A =\begin{pmatrix}
1 & x_1 & x_1^2 &\dots& x_1^{n-1}\\
1 & x_2 & x_2^2 &\dots& x_2^{n-1}\\
\vdots&\vdots&\vdots&\ddots&\vdots\\
1 & x_n & x_n^2 &\dots& x_n^{n-1}.
\end{pmatrix}\]
Vale allora che:
\[\det(A)=\prod_{1\leq i < j \leq n}(x_j - x_i), \]
verificabile notando che $\det(A)$ è di grado $\frac{n(n-1)}{2}$ e
che ponendo $x_i = x_j$ per una coppia $(i, j)$, tale matrice
ha due righe uguali, e quindi determinante nullo $\implies(x_j - x_i)\mid\det(A)\overbrace{\implies}^{\text{UFD}}\det(A)=\prod_{1\leq i < j \leq n}(x_j - x_i)$.
Pertanto una matrice di Vandermonde è invertibile se e solo se la sua
seconda colonna contiene tutti scalari distinti nelle coordinate. Tale
matrice risulta utile nello studio dell'interpolazione di Lagrange
(ossia nella dimostrazione dell'unicità del polinomio di $n-1$ grado
tale che $p(\alpha_i)=\beta_i$ per $i$ coppie ($\alpha_i$, $\beta_i$) con
$\alpha_i$ tutti distinti).
\subsection{Autovalori e diagonalizzabilità}
Sia $f \in\End(V)$. Si dice che $\lambda\in\KK$ è un autovalore
di $f$ se e solo se $\exists\vec{v}\neq\vec{0}$, $\vec{v}\in V$
tale che $f(\vec{v})=\lambda\vec{v}$, e in tal caso si dice
che $\vec{v}$ è un autovettore relativo a $\lambda$. Un autovalore
è tale se esiste una soluzione non nulla a $(f -\lambda\Idv)\vec{v}=\vec{0}$, ossia se e solo se:
\[\det(f -\lambda\Idv)=0. \]
Questa relazione è ben definita dacché il determinante è invariante
per qualsiasi cambio di base applicato ad una matrice associata
di $f$. Si definisce allora $p_f(\lambda)=\det(f -\lambda\Idv)$,
detto polinomio caratteristico di $f$, ancora invariante per
matrici associate a $f$. Si denota inoltre con
spettro di $f$ l'insieme $sp(f)$ degli autovalori di $f$ e con
$V_\lambda=\Ker(f -\lambda\Idv)$ lo spazio degli autovettori
relativo a $\lambda$, detto autospazio di $\lambda$.
Si definisce la molteplicità algebrica $\mu_{a,f}(\lambda)$ di un autovalore
$\lambda$ come la molteplicità che assume come radice del polinomio
$p_f(\lambda)$. Si definisce la molteplicità geometrica
$\mu_{g,f}(\lambda)$ di un autovalore $\lambda$ come la dimensione
del suo autospazio $V_\lambda$. Quando è noto l'endomorfismo
che si sta considerando si omette la dicitura $f$ nel pedice delle
molteplicità.
\begin{itemize}
\item$p_f(\lambda)$ ha sempre grado $n =\dim V$,
\item$p_f(\lambda)$ è sempre monico a meno del segno,
\item il coefficiente di $\lambda^n$ è sempre $(-1)^n$,
\item il coefficiente di $\lambda^{n-1}$ è $(-1)^{n+1}\tr(f)$,
\item il termine noto di $p_f(\lambda)$ è $\det(f -0\cdot\Idv)=\det(f)$,
\item poiché $p_f(\lambda)$ appartiene all'anello euclideo $\KK[\lambda]$, che è dunque un UFD, esso ammette al più
$n$ radici,
\item$sp(f)$ ha al più $n$ elementi, ossia esistono al massimo
$n$ autovalori (dalla precedente considerazione),
\item se $\KK=\CC$ e $\charpoly{f}\in\RR[\lambda]$, $\lambda\in
sp(f) \iff\overline{\lambda}\in sp(f)$(infatti $\lambda$ è
soluzione di $\charpoly{f}$, e quindi anche $\overline{\lambda}$
deve esserne radice, dacché i coefficienti di $\charpoly{f}$ sono
in $\RR$),
\item se $\KK$ è un campo algebricamente chiuso, $p_f(\lambda)$
ammette sempre almeno un autovalore distinto (o esattamente
$n$ se contati con molteplicità),
\item$0\in sp(f)\iff\dim\Ker f > 0\iff\rg f < 0\iff\det(f)=0$,
\item autovettori relativi ad autovalori distinti sono sempre
linearmente indipendenti,
\item dati $\lambda_1$, ..., $\lambda_k$ autovalori di $f$,
gli spazi $V_{\lambda_1}$, ..., $V_{\lambda_k}$ sono sempre
in somma diretta,
\item$\sum_{i=1}^k \mu_a(\lambda_i)$ corrisponde al numero
di fattori lineari di $p_f(\lambda)$,
\item$\sum_{i=1}^k \mu_a(\lambda_i)= n \iff$$p_f(\lambda)$
è completamente fattorizzabile in $\KK[\lambda]$,
\item vale sempre la disuguaglianza $n \geq\mu_a(\lambda)\geq
\mu_g(\lambda) \geq 1$(è sufficiente considerare una
base di $V_\lambda$ estesa a base di $V$ e calcolarne il
polinomio caratteristico sfruttando i blocchi della matrice
associata, notando che $\mu_g(\lambda)$ deve forzatamente essere
minore di $\mu_a(\lambda)$),
\item vale sempre la disuguaglianza $n \geq\sum_{i=1}^k \mu_a(\lambda_i)\geq\sum_{i=1}^k \mu_g(\lambda_i)$,
\item se $W \subseteq V$ è un sottospazio $f$-invariante,
allora $\charpolyrestr{f}{W}\mid p_f(\lambda)$\footnote{lavorando
su endomorfismi, la notazione $\restr{f}{W}$ è impiegata per
considerare $f$ ristretta a $W$ sia sul dominio che sul codominio.} (è sufficiente
prendere una base di $W$ ed estenderla a base di $V$, considerando
poi la matrice associata in tale base, che è a blocchi),
\item se $W \subseteq V$ è un sottospazio $f$-invariante,
ed estesa una base $\basis_W$ di $W$ ad una $\basis$ di $V$,
detto $U =\Span(\basis\setminus\basis_W)$ il supplementare di $W$ che si ottiene da tale base $\basis$, vale
che $\charpoly{f}=\charpolyrestr{f}{W}\cdot\charpoly{\hat{f}}$,
dove $\hat{f} : V/W \to V/W$ è tale che $\hat{f}(\vec{u}+ W)= f(\vec{u})+ W$ (come prima, è sufficiente considerare una matrice
a blocchi),
\item se $V = W \oplus U$, dove sia $W$ che $U$ sono $f$-invarianti,
allora $\charpoly{f}=\charpolyrestr{f}{W}\cdot\charpolyrestr{f}{U}$ (la matrice associata in un'unione di basi
di $W$ e $U$ è infatti diagonale a blocchi).
\end{itemize}
Si dice che $f$ è diagonalizzabile se $V$ ammette una base per cui
la matrice associata di $f$ è diagonale, o equivalentemente se,
dati $\lambda_1$, ..., $\lambda_k$ autovalori di $f$, si verifica
che:
\[ V = V_{\lambda_1}\oplus\cdots\oplus V_{\lambda_k}. \]
Ancora in modo equivalente si può dire che $f$ è diagonalizzabile
se e solo se:
\[\begin{cases}\sum_{i=1}^k \mu_a(\lambda_i)= n, \\\mu_g(\lambda_i)=\mu_a(\lambda_i)\;\forall1\leq i \leq k, \end{cases}\]
ossia se il polinomio caratteristico è completamente fattorizzabile
in $\KK[\lambda]$ (se non lo fosse, la somma diretta
$V_{\lambda_1}\oplus\cdots\oplus V_{\lambda_k}$ avrebbe
forzatamente dimensione minore di $V$, ed esisterebbero altri
autovalori in un qualsiasi campo di spezzamento di $p_f(\lambda)$) e se $\sum_{i=1}^k \mu_g(\lambda_i)= n$. Tale condizione, in un
campo algebricamente chiuso, si riduce a $\mu_g(\lambda_i)=\mu_a(\lambda_i)$, $\forall1\leq i \leq k$.
Considerando la forma canonica di Jordan di $f$, si osserva anche
che $f$ è diagonalizzabile se e solo se per ogni autovalore la
massima taglia di un blocco di Jordan è esattamente $1$, ossia
se il polinomio minimo di $f$ è un prodotto di fattori lineari
distinti.
Data $f$ diagonalizzabile, la matrice diagonale $J$ a cui $f$ è
associata è, dati gli autovalori $\lambda_1$, ..., $\lambda_k$,
una matrice diagonale dove $\lambda_i$ compare sulla diagonale
esattamente $\mu_g(\lambda_i)$ volte.
Data $A \in M(n, \KK)$, $A$ è diagonalizzabile se e solo se $f_A$,
l'applicazione indotta dalla matrice $A$, è diagonalizzabile,
ossia se $A$ è simile ad una matrice diagonale $J$, computabile
come prima. Si scrive in particolare $p_A(\lambda)$ per indicare
$p_{f_A}(\lambda)$.
Una matrice $P \in\GL(M(n, \KK))$
tale che $A = P J P\inv$, è tale che $AP = PJ$: presa la $i$-esima
colonna, allora, $AP^{(i)}= PJ^{(i)}= P^{(i)}$; ossia è sufficiente
costruire una matrice $P$ dove l'$i$-esima colonna è un autovettore
relativo all'autovalore presente in $J_{ii}$ linearmente indipendente
con gli altri autovettori presenti in $P$ relativi allo stesso
autovalore (esattamente nello stesso modo in cui si costruisce in
generale tale $P$ con la forma canonica di Jordan).
Se $A$ e $B$ sono diagonalizzabili, allora $A \sim B \iff p_A(\lambda)=
p_B(\lambda)$(infatti due matrici diagonali hanno lo stesso polinomio
caratteristico se e solo se compaiono gli stessi identici autovalori).
Se $f$ è diagonalizzabile, allora ogni spazio $W$$f$-invariante di
$V$ è tale che:
\[ W =(W \cap V_{\lambda_1})\oplus\cdots\oplus(W \cap V_{\lambda_k}), \]
dove $\lambda_1$, ..., $\lambda_k$ sono gli autovalori distinti di
$f$.
Due endomorfismi $f$, $g \in\End(V)$ diagonalizzabili si dicono simultaneamente diagonalizzabili se esiste una base $\basis$ di $V$
tale per cui sia la matrice associata di $f$ in $\basis$ che quella
di $g$ sono diagonali. Vale in particolare che $f$ e $g$ sono
simultaneamente diagonalizzabili se e solo se $f \circ g = g \circ f$.
Per trovare tale base è sufficiente, dati $\lambda_1$, ...,
$\lambda_k$ autovalori di $f$, considerare $\restr{g}{V_{\lambda_i}}$
$\forall1\leq i \leq k$ ($V_{\lambda_i}$ è infatti $g$-invariante,
dacché, per $\vec{v}\in V_{\lambda_i}$, $f(g(\vec{v}))=
Si consideri una mappa $\varphi : V \times V \to\KK$. Si dice che
$\varphi$ è un prodotto scalare (e quindi che $\varphi\in\PS(V)$, lo spazio dei prodotti scalari) se è una forma bilineare simmetrica.
In particolare vale la seguente identità:
\[\varphi\left(\sum_{i=1}^s a_i \vv i, \sum_{j=1}^t b_j \ww j \right)=
\sum_{i=1}^s \sum_{j=1}^t a_i b_j \varphi(\vv i, \ww j). \]
Se $\basis=\{\vv1, \ldots ,\vv n \}$ è una base di $V$, si definisce $M_\basis(\varphi)=(\varphi(\vv i, \vv j))_{i,j=1\mbox{--}n}$ come la matrice associata al prodotto scalare $\varphi$. In particolare,
se $a_\varphi : V \to V^*$ è la mappa lineare che associa a $\v$ il funzionale $\varphi(\v, \cdot)\in V^*$
tale che $\varphi(\v, \cdot)(\w)=\varphi(\v, \w)$.
Si definisce prodotto scalare \textit{standard} il prodotto $\varphi$ tale che
$\varphi(\v, \w)=[\v]_\basis^\top[\w]_\basis$.
Si dice che due vettori $\v$, $\w\in V$ sono ortogonali tra loro, scritto come $\v\perp\w$, se
$\varphi(\v, \w)=0$. Dato $W$ sottospazio di $V$, si definisce $W^\perp$ come il sottospazio di $V$ dei vettori ortogonali a tutti i vettori di $W$. Si dice che $\varphi$ è non degenere se $V^\perp=\zerovecset$.
Si scrive in particolare che $V^\perp=\Rad(\varphi)$.
Si dice che $V = U \oplus^\perp W$ (ossia che $U$ e $W$ sono in somma diretta ortogonale) se $V = U \oplus W$ e $U \subseteq W^\perp$. Sia $i : W \to V$ tale che $\w\mapsto\w$. Si scrive $\restr{\varphi}{W}$ intendendo $\restr{\varphi}{W \times W}$.
Ad ogni prodotto scalare si può associare una forma quadratica (e viceversa) $q : V \to\KK$ tale che
$q(\v)=\varphi(\v, \v)$. Un vettore $\v\in V$ si dice isotropo se $q(\v)=0$ (altrimenti si dice
anisotropo). Si definisce il cono isotropo $\CI(\varphi)$ come l'insieme dei vettori isotropi di $V$.
Se $\KK=\RR$, si dice che $\varphi$ è semidefinito positivo ($\varphi\geq0$) se $q(\v)\geq0$$\forall\v\in V$, e che è semidefinito negativo ($\varphi\leq0$) se $q(\v)\leq0$$\forall\v\in V$. Si dice
che $\varphi$ è definito positivo ($\varphi > 0$) se $\varphi\geq0$ e se $q(\v)=0\iff\v=\vec0$,
e che è definito negativo ($\varphi < 0$) se $\varphi\leq0$ e se $q(\v)=0\iff\v=\vec0$.
Si dice che $\varphi$ è definito se è definito positivo o definito negativo. Analogamente $\varphi$
è semidefinito se è semidefinito positivo o semidefinito negativo.
Si definisce relazione di congruenza la relazione di equivalenza $\cong$ (o $\equiv$) definita
su $\Sym(n, \KK)$ nel seguente modo:
\[ A \cong B \iff\exists P \in\GL(n, \KK)\mid A = P^\top B P. \]
\begin{itemize}
\item$A \cong B \implies\rg(A)=\rg(B)$ (il rango è invariante per congruenza; e dunque si può
definire $\rg(\varphi)$ come il rango di una qualsiasi matrice associata a $\varphi$),
\item$A \cong B \implies\det(A)\det(B)\geq0$ (in $\KK=\RR$ il segno del determinante è invariante per congruenza),
\item Due matrici associate a $\varphi$ in basi diverse sono congruenti per la formula
di cambiamento di base.
\end{itemize}
Si definiscono i seguenti tre indici per $\KK=\RR$:
\begin{itemize}
\item$\iota_+=\max\{\dim W \mid W \subseteq V \E\restr{\varphi}{W} > 0\}$,
\item$\iota_-=\max\{\dim W \mid W \subseteq V \E\restr{\varphi}{W} < 0\}$,
\item$\iota_0=\dim V^\perp$,
\end{itemize}
e si definisce segnatura di $\varphi$ la terna $\sigma=(\iota_+, \iota_-, \iota_0)$.
Si dice che una base $\basis$ di $V$ è ortogonale se i suoi vettori sono a due a due ortogonali (e
quindi la matrice associata in tale base è diagonale). Se $\Char\KK\neq2$, valgono i seguenti risultati:
\begin{itemize}
\item$\varphi(\v, \w)=\frac{q(\v+\w)- q(\v)- q(\w)}{2}$ (formula di polarizzazione; $\varphi$ è
completamente determinata dalla sua forma quadratica),
\item Esiste sempre una base ortogonale $\basis$ di $V$ (teorema di Lagrange; è sufficiente considerare
l'esistenza di un vettore anisotropo $\w\in V$ ed osservare che $V = W \oplus^\perp W^\perp$, dove $W =\Span(V)$, concludendo per induzione; o in caso di non esistenza di tale $\w$, concludere per il
risultato precedente),
\item (se $\KK=\CC$) Esiste sempre una base ortogonale $\basis$ di $V$ tale che:
Inoltre $\sigma$ è un invariante completo per la congruenza, e vale che, su una qualsiasi base ortogonale $\basis'$ di $V$, $\iota_+$ è esattamente il numero
di vettori anisotropi di base con forma quadratica positiva, che $\iota_-$ è il numero di vettori con forma
negativa e che $\iota_0$ è il numero di vettori isotropi (teorema di Sylvester, caso reale; si consideri
una base ortogonale e se ne normalizzino i vettori anisotropi, facendo infine eventuali considerazioni
dimensionali per dimostrare la seconda parte dell'enunciato),
\item$\varphi > 0\iff\sigma=(n, 0, 0)$ e $\varphi < 0\iff\sigma=(0, n, 0)$,
\item$\varphi\geq0\iff\sigma=(n - k, 0, k)$ e $\varphi\leq0\iff\sigma=(0, n - k, k)$,
con $0\leq k \leq n$ tale che $k =\dim V^\perp$,
\item I vettori isotropi di una base ortogonale sono una base di $V^\perp$,
\item$\rg(\varphi)=\iota_++\iota_-$,
\item$n =\iota_++\iota_-+\iota_0$,
\item Se $W$ è un sottospazio di $V$, $\iota_+(\varphi)\geq\iota_+(\restr{\varphi}{W})$ e
Si chiama matrice di Sylvester una matrice della forma vista nell'enunciato del teorema di Sylvester
reale, e si dice che una base $\basis$ è una base di Sylvester se la matrice ad essa associata è di
Sylvester. Per il teorema di Sylvester, tale base esiste sempre, e la matrice di Sylvester è unica per
ogni prodotto scalare $\varphi$.
\subsubsection{Algoritmo di ortogonalizzazione di Gram-Schmidt}
Data una base $\basis$ di $V$, se $\abs{\CI(\varphi)\cap\basis}\leq1$ (ossia se ogni vettore di
$\basis$ è anisotropo o al più vi è un vettore isotropo, posto in fondo come $\vv n$), si può
trovare una base ortogonale $\basis' =\{\vv1', \ldots, \vv n' \}$ a partire da $\basis$ tale che ne mantenga la stessa bandiera, ossia tale che:
\[\Span(\vv1', \ldots, \vv i')=\Span(\vv1, \ldots, \vv i)\forall1\leq i \leq n. \]
Si definisce $C(\w, \v)=\frac{\varphi(\v, \w)}{\varphi(\w, \w)}$ come il coefficiente di Fourier
di $\v$ rispetto a $\w$. L'algoritmo allora funziona nel seguente modo:
\begin{enumerate}
\item Si prenda in considerazione $\vv1$ e si sottragga ad ogni altro vettore $\vv i$ della base il
vettore $C(\vv1, \vv i)\,\vv1$,
\item Si ripeta il processo considerando come $\basis$ tutti i vettori di $\basis$ con $\vv1$ escluso,
o si termini l'algoritmo una volta che è rimasto un solo vettore.
\end{enumerate}
\subsubsection{Metodo di Jacobi per il calcolo della segnatura}
Sia $A = M_\basis(\varphi)$ una matrice associata a $\varphi$ nella base $\basis$.
Sia $d_0 :=1$. Se $d_i =\det(A_{1, \ldots, i}^{1, \ldots, i})$ (è possibile anche
prendere un'altra sequenza di minori, a patto che essi siano principali e che siano
crescenti per inclusione) è diverso da zero
per ogni $1\leq i \leq n-1$, allora $\iota_+$ è il numero di permanenze di segno
di $d_i$ (zero escluso), $\iota_-$ è il numero di variazioni di segno (zero escluso), e $\iota_0$ è $1$ se
$d_n =0$ o $0$ altrimenti.
In generale, se $W$ è un sottospazio di $W'$, $W$ ha codimensione $1$ rispetto a $W'$ e $\det(M_{\basis_W}(\restr{\varphi}{W}))\neq0$ per una base $\basis_W$ di $W$, allora la segnatura
di $\restr{\varphi}{W'}$ è la stessa di $\restr{\varphi}{W}$, dove si aggiunge
$1$ a $\iota_+$, se i determinanti $\det(M_{\basis_W}(\restr{\varphi}{W}))$ e $\det(M_{\basis_{W'}}(\restr{\varphi}{W}))$ (dove $\basis_{W'}$ è una base di $W'$) concordano di segno, $1$ a $\iota_-$, se
sono discordi, o $1$ a $\iota_0$ se l'ultimo di questi due determinanti è nullo.
Dal metodo di Jacobi si deduce il criterio di definitezza di Sylvester: $A$ è
definita positiva se e solo se $d_i > 0$$\forall1\leq i \leq n$; $A$ è
definita negativa se e solo se $(-1)^i d_i > 0$$\forall1\leq i \leq n$.
\subsubsection{Sottospazi isotropi e indice di Witt}
Si dice che un sottospazio $W$ di $V$ è isotropo se $\restr{\varphi}{W}=0$, o
equivalentemente se $W \subseteq W^\perp$ (i.e.~se $W \cap W^\perp= W$, e quindi
se $\Rad(\restr{\varphi}{W})= W$). Si definisce allora l'indice di Witt $W(\varphi)$ come
la dimensione massima di un sottospazio isotropo di $V$.
\begin{itemize}
\item$V^\perp$ è un sottospazio isotropo,
\item Se $W$ è isotropo, allora $\dim W \leq\frac{\dim V +\dim\Rad(\varphi)}{2}$,
\item Se $W$ è isotropo e $\varphi$ è non degenere, allora $\dim W \leq\frac{1}{2}\dim V$,
\item Se $\KK=\RR$, allora $W(\varphi)=\min\{ i_+, i_-\}+ i_0$ (è sufficiente considerare
una base di Sylvester e creare una nuova base i cui i vettori sono o isotropi o della forma $\vv i -\ww i$, dove $q(\vv i)=1$ e $q(\ww i)=1$, concludendo con discussioni dimensionali),
\item Se $\varphi$ è definito, allora $W(\varphi)=0$,
\item Se $\varphi$ è semidefinito, allora $W(\varphi)= i_0$ (e $W = V^\perp$ è un sottospazio