You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

324 lines
15 KiB
TeX

\documentclass[12pt]{scrartcl}
\usepackage{notes_2023}
\begin{document}
\title{Il teorema di struttura dei moduli finitamente generati su un PID}
\date{\today}
\maketitle
In questo documento dimostro\footnote{
Il contenuto di questo documento è ispirato a quello
del capitolo \textit{The PID structure theorem} del
\textit{Napkin} di Evan Chen, reperibile su
\url{https://github.com/vEnhance/napkin}.
} un enunciato fondamentale del celebre teorema
di struttura dei moduli finitamente generati su un PID.
Storicamente questo teorema nasce come una generalizzazione
del teorema di struttura dei gruppi abeliani finitamente generati e diventa
poi un potente strumento da cui derivano alcune celebri forme canoniche
dell'algebra lineare, come la forma normale di Jordan o la forma
canonica razionale.
\begin{theorem}[di struttura dei moduli finitamente generati su un PID]
Sia $M$ un modulo finitamente generato su un PID $R$. Allora
esistono unici (a meno di associati) $d_1$, ..., $d_k \in R$
tali per cui $d_1 \mid d_2 \mid \cdots \mid d_k$ e
$M \cong R/(d_1) \times \cdots \times R/(d_k)$.
\end{theorem}
Si osserva sin da subito che il teorema può riscriversi in modo alternativo
utilizzando il teorema cinese del resto. Infatti, se $d_i$ viene
scritto nella sua fattorizzazione in primi\footnote{
Un PID è sempre un UFD e dunque una tale fattorizzazione esiste sempre.
} $p_1^{k_1} \cdots p_{n_i}^{k_{n_i}}$, allora vale che:
\[
R/(d_i) \cong R/\!\left(p_1^{k_1}\right) \times \cdots \times R/\bigl(p_{n_i}^{k_{n_i}}\bigr).
\]
Pertanto il teorema di struttura può riscriversi come:
\begin{theorem}
Sia $M$ un modulo finitamente generato su un PID $R$. Allora
esistono unici (a meno di associati) $p_1$, ..., $p_n \in R$ primi
e $k_1$, ..., $k_n \in \NN$ tali per cui:
\[
M \cong R/\bigl(p_1^{k_1}\bigr) \times \cdots \times R/\bigl(p_n^{k_n}\bigr).
\]
\end{theorem}
\begin{remark}
D'ora in poi, mi riferisco ad $M$ come un modulo finitamente generato
su un PID $R$.
\end{remark}
La forma del primo enunciato è detta \textbf{decomposizione in fattori invarianti},
mentre quella del secondo è detta \textbf{decomposizione primaria}.
\begin{definition}[fattori invarianti]
Si chiamano \textbf{fattori invarianti} i vari $d_i$ che compaiono
nella decomposizione in fattori invarianti di $M$.
\end{definition}
\begin{definition}[divisori elementari]
Si chiamano \textbf{divisori elementari} i vari $p_i^{k_i}$ che
compaiono nella decomposizione primaria di $M$.
\end{definition}
\begin{definition}[rango di un modulo]
Si definisce rango di $M$ il numero di volte in cui compare $0$
tra i fattori invarianti.
\end{definition}
Il documento prosegue con la dimostrazione dell'esistenza\footnote{
La dimostrazione dell'unicità è omessa. Alcuni commenti e risultati al
riguardo sono reperibili su \url{https://math.stackexchange.com/q/4193/769611}.
} dei fattori
invarianti, secondo il seguente schema:
\begin{itemize}
\item Poiché $M$ è finitamente generato, esiste un'applicazione lineare
surgettiva $\psi$ da $R^m$ a $M$, dove $m$ è il numero di generatori di $M$,
\item Poiché $R$ è noetheriano\footnote{
Un modulo è noetheriano se ogni suo sottomodulo è finitamente
generato.
}, anche $R^m$ lo è; allora
$\Ker \psi$ è finitamente generato da $n$ elementi,
\item Si può costruire allora un'altra applicazione lineare surgettiva $\phi$ da
$R^n$ a $\Ker \psi$,
\item Immergendo naturalmente $\Ker \psi$ in $M$ tramite la mappa naturale
$\tau$, si osserva che $\Ker \psi = \Im(\tau \circ \phi)$,
dove $T = \tau \circ \phi$ è una mappa da $R^n$ a $R^m$,
\item Dal momento che $T$ mappa un modulo libero\footnote{
Un modulo è libero se ammette una base, proprio come $R^n$.
} ad un altro, $T$ può identificarsi con una matrice,
\item Si scrive la matrice di $T$ nella forma normale di Smith, dove compaiono
i fattori invarianti $d_1$, ..., $d_k$; allora esistono
$\vv 1$, ..., $\vv n$ base di $R^n$ tale per cui
$R^n = \langle \vv 1 \rangle \oplus \cdots \oplus \langle \vv n \rangle$ e
$\Im T = \langle d_1 \vv 1 \rangle \oplus \cdots \oplus \langle d_k \vv k \rangle \oplus \langle 0 \vv{k+1} \rangle \oplus \cdots \oplus \langle 0 \vv n \rangle$,
\item Si costruisce un applicazione lineare $\iota$ da $R^n$ a
$R/(d_1) \times \cdots \times R/(d_k) \times R \times \cdots \times R$ tale per cui
$\Ker \iota = \Im T$; allora, per il primo teorema di isomorfismo,
vale che:
\[ M \cong R^n/\Ker \psi = R^n/\Im T \cong R/(d_1) \times \cdots \times R/(d_k) \times R \times \cdots \times R, \]
concludendo la dimostrazione.
\end{itemize}
Questo schema è in parte riassunto dal seguente diagramma commutativo:
\[\begin{tikzcd}
& {\Ker \psi} \\
{R^n} && {R^m} & M
\arrow["\phi", two heads, from=2-1, to=1-2]
\arrow["\tau", tail, from=1-2, to=2-3]
\arrow["\psi", two heads, from=2-3, to=2-4]
\arrow["T", from=2-1, to=2-3]
\end{tikzcd}\]
\section*{Dimostrazione}
Dal momento che $M$ è finitamente generato, esistono $\ww 1$, ...,
$\ww m \in M$ tali per cui $\langle \ww 1, \ldots, \ww m \rangle = M$.
Allora si costruisce l'applicazione lineare $\psi : R^m \to M$ univocamente
determinata dalla relazione $\e i \xmapsto{\psi} \ww i$. Si osserva che
$\psi$ è surgettiva: per ogni $\w \in M$, esistono $\alpha_1$, ..., $\alpha_m \in R$
tali per cui $\w = \alpha_1 \ww 1 + \ldots + \alpha_m \ww m$; allora
$(\alpha_1, \ldots, \alpha_m)^\top \xmapsto{\psi} \w$. \medskip
Poiché $\psi$ è surgettiva, $\Im \psi = M$, e quindi per il primo teorema
di isomorfismo vale che:
\begin{equation}
\label{eq:primo_isomorfismo}
M \cong R^m/ \Ker \psi.
\end{equation} \vskip 0.1in
Dal momento che $R$ è un PID, $R$ è in particolare noetheriano (è infatti
monogenerato). Allora anche $R^m$ è noetheriano, come dimostra il seguente lemma\footnote{
Si costruisce infatti $R^m$ come il prodotto di $R$ effettuato $m$ volte.
}:
\begin{lemma}
Siano $M$ ed $N$ due $R$-moduli noetheriani. Allora $M \times N$ è
anch'esso noetheriano.
\end{lemma}
\begin{proof}
Sia $L$ un sottomodulo di $M \times N$. Si considerino i seguenti
sottomoduli:
\[ A = \{ \vec m \in M \mid (\vec m, \vec 0) \in L \} \subseteq M,\]
\[ B = \{ \vec n \in N \mid \exists \vec m \in M \mid (\vec m, \vec n) \in L \} \subseteq N.\]
Si osserva che $A$ e $B$ sono finitamente generati, essendo rispettivamente
sottomoduli degli anelli noetheriani $M$ ed $N$. Allora esistono
$\vec{a_1}$, ..., $\vec{a_s} \in A$ e $\vec{b_1}$, ..., $\vec{b_t} \in B$ tali per cui
$A = \langle \vec{a_1}, \ldots, \vec{a_s} \rangle$ e $B = \langle \vec{b_1}, \ldots, \vec{b_t} \rangle$.
\bigskip
Sia $\vec \ell \in L$. Allora esistono $\vec m \in M$, $\vec n \in N$ tali per cui
$\vec \ell = (\vec m, \vec n)$. Inoltre $\vec n \in B$, e dunque esistono $\beta_1$, ..., $\beta_t$
tali per cui $\vec n = \beta_1 \vec{b_1} + \ldots + \beta_t \vec{b_t}$.
Siano $\vec{x_1}$, ..., $\vec{x_s} \in M$ tali per cui
$(\vec{x_i}), \vec{b_i}) \in L$ e si ponga
$\vec x = \beta_1 \vec{x_1} + \ldots + \beta_t \vec{x_t}$.
Si ottiene dunque che:
\[
(\vec m, \vec n) = \underbrace{(\vec m - \vec x, \vec 0)}_{\in L} + \beta_1 (\vec{x_1}, \vec{b_1}) + \ldots + \beta_t (\vec{x_t}, \vec{b_t}).
\]
Allora $\vec{m'} := \vec m - \vec x \in A$, e dunque esistono $\alpha_1$, ..., $\alpha_s$
tali per cui $\vec{m'} = \alpha_1 \vec{a_1} + \ldots + \alpha_s \vec{a_s}$.
Pertanto vale che:
\[
(\vec m, \vec n) = \sum_{i=1}^s \alpha_i (\vec{a_i}, \vec 0) + \sum_{j=1}^t \beta_j (\vec{x_j}, \vec{b_j}),
\]
da cui si conclude che $L$ è finitamente generato, e dunque che $M \times N$
è noetheriano.
\end{proof}
Poiché allora $R^m$ è noetheriano, $\Ker \psi$ è finitamente generato, e dunque
esistono $\uu 1$, ..., $\uu n \in \Ker \psi$ tali per cui
$\Ker \psi = \langle \uu 1, \ldots, \uu n \rangle$. Allora, analogamente
a prima, si può costruire un'applicazione lineare $\phi : R^n \to \Ker \psi$ tale
per cui $\phi$ sia surgettiva, mappando $\e i$ a $\uu i$. \bigskip
Si considera adesso l'immersione naturale $\tau$ di $\Ker \psi$ in $R^m$,
ossia l'applicazione lineare $\tau : \Ker \psi \to R^m$ tale per cui
$\tau(\U) = \U$ per ogni $\U \in \Ker \psi$. Chiaramente $\tau$ è
iniettiva e $\Im \tau = \Ker \psi$. Detta allora $T = \tau \circ \phi$,
vale che $\Im T = \Im (\tau \circ \phi) = \Im \tau = \Ker \psi$, dove
si è usata la surgettività della mappa $\phi$. Sostituendo allora
$\Im \tau$ nell'identità \eqref{eq:primo_isomorfismo}, si ottiene che:
\begin{equation}
\label{eq:isomorfismo_M_T}
M \cong R^m/\Im T.
\end{equation} \vskip 0.1in
Pertanto adesso è sufficiente studiare l'applicazione $T$ per ricavare
la tesi. Dal momento che $T$ ha come dominio il modulo libero $R^n$ e come codominio
$R^m$, $T$ si può rappresentare come una matrice $S$ a elementi in $R$
dove $S^j$ è la valutazione in $\e j$ di $T$. Adesso il punto cruciale
della dimostrazione dipende dalla seguente proposizione:
\begin{proposition}[forma normale di Smith]
Sia $S = (s_{ij})$ una matrice $m \times n$ a elementi in $R$. Allora esistono
unici (a meno di associati)
$d_1$, ..., $d_k \in R$ con $d_1 \mid d_2 \mid \cdots \mid d_k$ e
$k = \min\{m, n\}$
tali per cui esistano due basi $\basis$, $\basis'$ di $R^n$ e $R^m$
che soddisfano
l'identità\footnote{
La matrice $S'$ mostra in realtà il caso in cui $m > n$. Tuttavia la
struttura di $S'$ si può generalizzare facilmente per $m \leq n$.
}:
\[
S' := M^{\basis}_{\basis'}(f_S) = \begin{pmatrix}
d_1 & 0 & 0 & 0 & \dots & 0 \\
0 & d_2 & 0 & 0 & \dots & 0 \\
\vdots & \vdots & \ddots & \vdots & \dots & \vdots \\
0 & 0 & 0 & d_k & \dots & 0
\end{pmatrix},
\]
dove con $f_S$ si intende l'applicazione lineare indotta dalla matrice $S$.
\end{proposition}
\begin{proof}[Dimostrazione dell'esistenza]
Le uniche operazioni consentite sulla matrice che consentono di
individuare una nuova coppia di basi opportune sono le stesse\footnote{
Si verifica facilmente che ogni tale operazione modifica una delle
due basi tramite le operazioni elementari di riordinamento e di somma
per un multiplo.
}
contemplate dall'algoritmo di eliminazione di Gauss eccetto per quella
di moltiplicazione di una riga (o di una colonna) per un elemento non invertibile
di $R$. Pertanto, si presenta la dimostrazione dell'esistenza della
forma normale di Smith come un algoritmo che permette di alterare la
matrice tramite le uniche operazioni consentite. \medskip
Se $S=0$, la tesi è già dimostrata. Altrimenti, si possono utilizzare le
operazioni consentite per far sì che si verifichi $s_{11} \neq 0$. Si
distinguono ora tre casi:
\begin{enumerate}[(i)]
\item $s_{11}$ non divide almeno un elemento di $S^1$,
\item $s_{11}$ non divide almeno un elemento di $S_1$,
\item $s_{11}$ divide tutti gli elementi di $S^1$ e $S_1$.
\end{enumerate}
Se $s_{11}$ non divide almeno un elemento di $S^1$, detto $s_{i1}$,
si possono effettuare operazioni di riga per spostare $s_{i1}$
in $s_{21}$. Poiché $R$ è un PID, l'ideale $(s_{11}, s_{21})$ è monogenerato,
e dunque esistono $\alpha$, $\beta \in R$ tali per cui
$(s_{11}, s_{21}) = (\alpha s_{11} + \beta s_{21})$. Vale inoltre
che $(\alpha, \beta) = R$\footnote{
Infatti, se $d = \alpha s_{11} + \beta s_{21}$, vale che
$\frac{s_{11}}{d} \alpha + \frac{s_{21}}{d} \beta = 1$.
}, e dunque che esistono $\gamma$, $\delta \in R$
tali per cui $\gamma \alpha + \delta \beta = 1$. Si può
allora moltiplicare la matrice a sinistra per la matrice
invertibile\footnote{
Tale matrice è invertibile poiché unimodulare. Alternativamente, si
può fornire esplicitamente l'inverso $\SMatrix{ \gamma & -\beta \\ \delta & \alpha }$.
}:
\[ \Matrix{\alpha & \beta \\ -\delta & \gamma }, \]
opportunamente inserita al posto del blocco $(I_m)^{1,2}_{1,2}$ in $I_m$.
Si effettua un analogo ragionamento per il caso (ii), moltiplicando a destra
per la stessa matrice, opportunamente trasposta. Si continua a effettuare questo
tipo di moltiplicazioni fino a quando non si ricade nel caso (iii). Il caso
(iii) è sempre raggiungibile, dal momento che ad ogni operazione si sostituisce
$s_{11}$ con un suo divisore, creando una successione ascendente di ideali
$(a_1) \subseteq (a_2) \subseteq (a_3) \subseteq \cdots$ che, per la noetherianità
di $R$, deve stabilizzarsi. \medskip
Giunti nel caso (iii), si annullano i primi elementi di tutte le colonne
di $S$ eccetto per $S^1$, sottraendo un opportuno multiplo di $S^1$. Si
effettua poi la stessa cosa per le righe eccetto che per $S_1$. Se
$m=1$ o $n=1$, l'algoritmo termina.
Altrimenti si ottiene una matrice della forma:
\[ \Matrix{s_{11} & 0 \\ 0 & \tilde{S}}. \]
Se $s_{11}$ divide ora ogni elemento di $\tilde{S}$, si riapplica l'algoritmo
soltanto su $\tilde{S}$ (ogni operazione su $\tilde{S}$ può essere estesa a
un'operazione su $S$ che lascia l'elemento $s_{11}$ invariato. Se invece esiste
un elemento $s_{ij}$ non diviso da $s_{11}$, si somma la riga $S_i$ alla
riga $S_1$ (o la colonna $S^j$ alla colonna $S^1$) e si riapplica l'algoritmo.
Per le stesse motivazioni di prima, ad un passo dell'algoritmo $s_{11}$ dovrà dividere
ogni elemento di $\tilde{S}$. \medskip
Dopo aver impiegato con successo l'algoritmo, si otterrà una matrice nella
forma normale di Smith, dimostrando la tesi.
\end{proof}
Pertanto esistono due basi $\basis$ e $\basis' = \{ \vv 1, \ldots, \vv n \}$
di $R^m$ e $R^n$ tali per cui $M^\basis_{\basis'}(f_S)$ assume la forma normale
di Smith. In particolare, vale che:
\[
\Im T = \langle d_1 \vv 1 \rangle \oplus \cdots \oplus \langle d_k \vv k \rangle \oplus \langle 0 \vv{k+1} \rangle \oplus \cdots \oplus \langle 0 \vv n \rangle.
\]
Sia allora $\iota : R^n \to R/(d_1) \times \cdots \times R/(d_k) \times R \times \cdots \times R$ l'applicazione lineare determinata dalla relazione:
\[
a_1 \vv 1 + \ldots + a_n \vv n \xmapsto{\iota} ([a_1]_{d_1}, \ldots, [a_k]_{d_k}, a_{k+1}, \ldots, a_n).
\]
Chiaramente $\iota$ è surgettiva. Sia adesso $\v = a_1 \vv 1 + \ldots + a_n \vv n$
tale per cui $\iota(\v) = \vec 0$. Allora $d_1$ deve dividere $a_1$,
$d_2$ deve dividere $a_2$, e così fino ad $a_k$. Infine $a_{k+1} = \cdots = a_n = 0$.
Pertanto $\v$ dovrà necessariamente appartenere a $\Im T$; viceversa ogni elemento
di $\Im T$ appartiene a $\Ker \iota$, da cui $\Ker \iota = \Im T$. Allora,
per il primo teorema di isomorfismo, vale che:
\begin{equation}
\label{eq:iota_omomorfismo}
R^n / \Im T \cong R^n / \Ker \iota \cong R/(d_1) \times \cdots \times R/(d_k) \times R \times \cdots \times R.
\end{equation} \vskip 0.1in
Combinando allora le identità \eqref{eq:isomorfismo_M_T} e \eqref{eq:iota_omomorfismo},
si ottiene la tesi\footnote{
Si tiene presente dell'isomorfismo $R/(0) \cong R$.
}:
\[
M \cong R/(d_1) \times \cdots \times R/(d_k) \times R \times \cdots \times R.
\]
\hfill\ensuremath{\blacksquare}
\end{document}