%--------------------------------------------------------------------
\chapter { Probabilità sulla retta reale}
\setlength { \parindent } { 2pt}
\begin { multicols*} { 2}
Discutiamo in questa sezione la teoria della probabilità sulla
retta reale, uscendo dunque dal caso discreto. \smallskip
Per restringere la $ \sigma $ -algebra su cui lavoreremo (ossia l'insieme degli
eventi interessanti), siamo costretti a limitarci a una $ \sigma $ -algebra molto più
piccola di $ \PP ( \RR ) $ , la $ \sigma $ -algebra dei boreliani, che ci permette di escludere
``casi meno interessanti''. \smallskip
\begin { warn}
Eccetto che nella prima sezione, assumeremo se non detto altrimenti
di star lavorando sullo spazio misurabile
$ ( \RR , \BB ( \RR ) ) $ dotato eventualmente della misura di Lebesgue $ m $ . $ \BB ( \RR ) $ ed
$ m $ sono definiti nella sezione seguente.
\end { warn}
\section { Cenni di teoria della misura}
\subsection { La \texorpdfstring { $ \sigma $ } { σ } -algebra di Borel e funzioni boreliane}
\begin { definition} [$ \sigma $ -algebra dei boreliani]
Dato uno spazio metrico separabile\footnote {
Si può generalizzare in modo naturale tale definizione a un qualsiasi spazio topologico.
Dal momento che considereremo solo spazi metrici separabili (in particolare $ X \subseteq \RR ^ d $ ), concentreremo
le proprietà e le definizioni su questa classe di spazi topologici.} $ X \neq \emptyset $
si definisce la \textbf { $ \sigma $ -algebra $ \BB ( X ) $ dei boreliani di $ X $ } (o
$ \sigma $ -algebra di Borel)
come la $ \sigma $ -algebra generata dai suoi aperti, ovverosia:
\[
\BB (X) \defeq \sigma \{ A \subseteq X \mid A \text { aperto} \, \} .
\]
Gli elementi della $ \sigma $ -algebra di Borel sono detti \textit { boreliani} .
\end { definition}
\begin { proposition} [Proprietà di $ \BB ( X ) $ ]
Sia $ X \neq \emptyset $ uno spazio metrico separabile. Allora valgono
le seguenti affermazioni:
\begin { enumerate} [(i.)]
\item $ \BB ( X ) $ contiene tutti gli aperti e i chiusi di $ X $ (infatti
metrico e separabile implica II-numerabile), pertanto se $ \tau ( X ) $ è la
topologia di $ X $ vale che $ \tau ( X ) \subseteq \BB ( X ) $ ,
\item $ \BB ( X ) = \sigma \{ A \subseteq X \mid A \text { chiuso } \, \} $ , ossia
$ \BB ( X ) $ è generata anche dai chiusi di $ X $ (infatti $ \BB ( X ) $ è chiuso per
complementare),
\item se $ Y \subseteq X $ , $ Y \neq \emptyset $ ha metrica indotta da $ X $ , allora
$ \BB ( Y ) = \sigma \{ Y \cap B \mid B \in \BB ( X ) \} \subseteq \BB ( X ) $ (segue dal fatto che
gli aperti di $ Y $ sono tutti e solo gli aperti di $ X $ intersecati a $ Y $ ).
\end { enumerate}
\end { proposition}
\begin { proposition} [Proprietà di $ \BB ( \RR ^ d ) $ ]
Valgono le seguenti affermazioni:
\begin { enumerate} [(i.)]
\item $ \BB ( \RR ) $ contiene tutti gli intervalli e tutte le semirette (infatti si ammettono anche intersezioni infinite di aperti),
\item $ \BB ( \RR ) $ è generato dagli intervalli semiaperti, ovverosia $ \BB ( \RR ) = \sigma \{ ( a, b ] \mid a, b \in \RR , a < b \} $ ,
\item $ \BB ( \RR ) $ è generato dalle semirette, ovverosia $ \BB ( \RR ) = \sigma \{ ( - \infty , a ) \mid a \in \RR \} $ ,
\item $ \BB ( \RR ^ d ) = \sigma \{ ( - \infty , a _ 1 ) \times \ldots \times ( - \infty , a _ n ) \mid a _ 1 , \ldots , a _ n \in \RR \} $ (segue da (iii.)),
\item $ \BB ( \RR ^ d ) \neq \PP ( \RR ^ d ) $ (segue dal controesempio di Vitali, oltre che da considerazioni sulle cardinalità).
\end { enumerate}
\end { proposition}
\begin { definition} [Funzione boreliana]
Data una funzione $ f : X \to Y $ con $ X $ e $ Y $ spazi metrici separabili, si dice che
$ f $ è una \textbf { funzione boreliana} se $ f \inv ( A ) $ è boreliano per ogni
$ A $ boreliano di $ Y $ . Equivalentemente $ f $ è boreliana se la controimmagine di ogni
boreliano è un boreliano. \smallskip
In particolare una funzione è boreliana se e solo se è misurabile rispetto
alle $ \sigma $ -algebre di Borel.
\end { definition}
\begin { proposition}
Sia $ f : X \to Y $ con $ X $ e $ Y $ spazi metrici separabili una funzione continua. Allora
$ f $ è boreliana. \smallskip
Segue dal fatto che $ \BB ( Y ) $ è generato dagli aperti di $ Y $ , le cui controimmagini sono
aperte, e dunque boreliane.
\end { proposition}
\subsection { Definizione e proprietà di misura, \texorpdfstring { $ \pi $ } { π} -sistemi per \texorpdfstring { $ \sigma $ } { σ } -algebre e lemma di Dynkin}
\begin { definition} [Misura]
Dato $ ( \Omega , \FF ) $ spazio misurabile, una misura $ \mu $ su $ ( \Omega , \FF ) $ è una
funzione $ \mu : \FF \to [ 0 , \infty ] $ con $ \mu ( \emptyset ) = 0 $ e per cui valga
la $ \sigma $ -additività, ovverosia:
\[
\mu \left (\bigcupdot _ { i \in \NN } A_ i\right ) = \sum _ { i \in \NN } \mu (A_ i), \quad A_ i \in \FF .
\]
\end { definition}
\begin { remark} [Proprietà basilari di una misura]
Dal momento che si richiede per una misura valga $ \mu ( \emptyset ) = 0 $ , si verifica
facilemente che vale la $ \sigma $ -additività finita. \smallskip
Inoltre, se $ A \subseteq B $ , allora $ \mu ( B ) = \mu ( B \setminus A \cupdot A ) = \mu ( B \setminus A ) + \mu ( A ) $ , e
dunque vale sempre che $ \mu ( A ) \leq \mu ( B ) $ . Vale inoltre ancora la $ \sigma $ -subadditività, con la stessa
dimostrazione data per la probabilità, e dunque:
\[
\mu \left (\bigcup _ { i \in \NN } A_ i\right ) \leq \sum _ { i \in \NN } \mu (A_ i).
\]
\end { remark}
\begin { remark} [Comportamento di $ \mu $ al limite]
Se $ ( A _ i ) _ { i \in \NN } $ è una famiglia numerabile di
insiemi in $ \FF $ , allora, seguendo la stessa dimostrazione
data per le misure di probabilità, che:
\begin { enumerate} [(i.)]
\item $ A _ i \goesup A \implies \mu ( A _ i ) \goesup \mu ( A ) $ ,
\item $ A _ i \goesdown A \implies \mu ( A _ i ) \goesdown \mu ( A ) $ .
\end { enumerate}
\end { remark}
\begin { definition}
Una misura $ \mu $ su $ ( \Omega , \FF ) $ si dice \textbf { misura finita} se $ \mu ( \Omega ) $ è finito.
\end { definition}
\begin { proposition} [Proprietà di una misura finita $ \mu $ ]
Sia $ \mu $ una misura finita su $ ( \Omega , \FF ) $ . Allora valgono le seguenti affermazioni:
\begin { enumerate} [(i.)]
\item $ P ( A ) = \frac { \mu ( A ) } { \mu ( \Omega ) } $ è una misura di probabilità,
\item $ \mu ( A ) $ è sempre finito e $ \mu ( \Omega ) = \mu ( A ) + \mu ( A ^ c ) $ ,
\item $ A \subseteq B \implies \mu ( B ) = \mu ( B \setminus A ) + \mu ( A ) $ ,
\item $ \mu ( B \setminus A ) = \mu ( B ) - \mu ( A \cap B ) $ ,
\item $ \mu ( A \cup B ) = \mu ( A \Delta B \cupdot A \cap B ) = \mu ( A ) + \mu ( B ) - \mu ( A \cap B ) $ ,
\item $ \mu \left ( \bigcup _ { i \in [ n ] } A _ i \right ) = \sum _ { j \in [ n ] } ( - 1 ) ^ { j + 1 } \sum _ { 1 \leq i _ 1 < \cdots < i _ j \leq n } \mu \left ( \bigcap _ { k \in [ j ] } A _ { i _ { k } } \right ) $ (Principio di inclusione-esclusione per le misure finite).
\end { enumerate}
Tutte le affermazioni seguono immediatamente dalla prima.
\end { proposition}
\begin { definition} [Insiemi $ \mu $ -trascurabili e proprietà che accadono $ \mu $ -quasi ovunque]
Un insieme $ A \in \FF $ si dice \textbf { $ \mu $ -trascurabile} se
$ \mu ( A ) = 0 $ . Una proprietà $ M $ si dice che accade
$ \mu $ -quasi ovunque ($ \mu $ -q.o.) se esiste $ A \in \FF $ $ \mu $ -trascurabile per cui
$ M $ accade per $ A ^ c $ .
\end { definition}
\begin { definition} [\texorpdfstring { $ \pi $ } { π} -sistema di una $ \sigma $ -algebra]
Sia $ ( \Omega , \FF ) $ uno spazio misurabile. Allora un sottoinsieme $ \mathcal { C } \subseteq \FF $
si dice \textbf { $ \pi $ -sistema di $ \FF $ } se:
\begin { enumerate} [(i.)]
\item $ A $ , $ B \in \mathcal { C } \implies A \cap B \in \mathcal { C } $ (chiusura per intersezioni),
\item $ \sigma ( C ) = \FF $ (genera $ \FF $ ).
\end { enumerate}
\end { definition}
\begin { remark}
Un $ \pi $ -sistema contenente di una $ \sigma $ -algebra contenente $ \Omega $ svolge lo ``stesso ruolo'' che una
base svolge per una topologia.
\end { remark}
\begin { lemma} [di Dynkin, versione probabilistica]
Sia $ ( \Omega , \FF ) $ uno spazio misurabile e sia $ \mathcal { C } $ un suo $ \pi $ -sistema contenente
$ \Omega $ . Siano
$ P $ e $ Q $ due probabilità sullo spazio misurabile di $ \Omega $ . Se $ P $ e $ Q $ coincidono su
$ \mathcal { C } $ , allora $ P \equiv Q $ .
\end { lemma}
\begin { example}
Alcuni esempi di $ \pi $ -sistemi contenenti $ \RR $ per $ ( \RR , \BB ( \RR ) ) $ sono:
\begin { itemize}
\item gli aperti, ovverosia $ \mathcal { C } = \{ A \in \FF \mid A \text { aperto } \, \} $ (oppure i chiusi),
\item le semirette (a sinistra), ovverosia $ \mathcal { C } = \{ ( - \infty , a ] \mid a \in \RR \cup \{ \infty \} \} $ (oppure le semirette a destra),
\item gli intervalli semiaperti (a sinistra) con aggiunti $ \emptyset $ e $ \RR $ , ovverosia $ \mathcal { C } = \{ ( a, b ] \mid a, b \in \RR , b > a \} \cup \{ \emptyset , \RR \} $ (oppure semiaperti a destra).
\end { itemize}
\end { example}
\subsection { La misura di Lebesgue}
\begin { theorem} [Esistenza e unicità della misura di Lebesgue]
Esiste ed è unica la misura $ m $ su $ ( \RR , \BB ( \RR ) ) $ tale per cui
$ m ( [ a, b ] ) = b - a $ per ogni $ a $ , $ b \in \RR $ con $ b > a $ . Tale misura
è detta \textbf { misura di Lebesgue} e corrisponde al concetto ``primitivo'' di
\textit { lunghezza} . \smallskip
L'unicità segue dall'enunciato generale del lemma di Dynkin.
\end { theorem}
\begin { remark}
Dal momento che $ m ( [ 0 , 1 ] ) = 1 $ ,
la misura $ \restr { m } { [ 0 , 1 ] } $ è una misura di probabilità su $ ( [ 0 , 1 ] , \BB ( [ 0 , 1 ] ) ) $ ,
detta \textit { probabilità uniforme su $ [ 0 , 1 ] $ } . Analogamente per $ a $ , $ b \in \RR $
con $ b > a $ , $ m ( [ a, b ] ) = b - a $ e
dunque $ P = \frac { 1 } { b - a } \restr { m } { [ a,b ] } $ è una misura di probabilità (detta
\textit { probabilità uniforme su $ [ a,b ] $ } ). \smallskip
Assumendo l'assioma della scelta si può dimostrare che \underline { non} si può estendere in modo coerente
$ \restr { m } { [ 0 , 1 ] } $ a $ ( [ 0 , 1 ] , \PP ( [ 0 , 1 ] ) ) $ .
\end { remark}
\begin { remark}
La misura di Lebesgue è nulla su un punto di $ \RR $ . Infatti, se $ a \in \RR $ , $ m ( \{ a \} ) =
m([a-1, a] \cap [a, a+1]) = m([a-1, a]) + m([a, a+1]) - m([a-1, a] \cup [a, a+1]) =
1 + 1 - m([a-1, a+1]) = 1 + 1 - 2 = 0$ . Dunque, $ m$ è in particolare nulla su insiemi
numerabili (dacché si partizionano in modo numerabili sui punti).
\end { remark}
\section { Probabilità reale, funzione di ripartizione (f.d.r.) e proprietà}
\subsection { Definizioni e proprietà della f.d.r.}
\begin { definition}
Si dice \textbf { probabilità reale} una qualsiasi
probabilità $ P $ su $ ( \RR , \BB ( \RR ) ) $ .
\end { definition}
\begin { definition} [Funzione di ripartizione di $ P $ ]
Data una probabilità reale $ P $ si definisce
allora la sua \textbf { funzione di ripartizione (f.d.r.)}
come la funzione $ F : \RR \to [ 0 , 1 ] $ tale per cui:
\[
F(x) = P((-\infty , x]), \quad \forall x \in \RR .
\]
Si definisce inoltre $ F ( \pm \infty ) \defeq \lim _ { x \to \pm \infty } F ( x ) $ .
Indicheremo $ F $ come $ F _ P $ , e quando $ P $ sarà nota dal contesto
ci limiteremo a scrivere $ F $ .
\end { definition}
\begin { proposition} [Proprietà della f.d.r.]
Sia $ P $ una probabilità reale. Allora, se $ F $ è la
sua f.d.r.~vale che:
\begin { enumerate} [(i.)]
\item $ F $ è crescente, ovvero $ F ( x ) \geq F ( y ) \impliedby x \geq y $ (infatti $ ( - \infty , x ] \supseteq ( - \infty , y ] $ ),
\item $ F $ è continua a destra, ovverosia per ogni $ \tilde { x } \in \RR $ vale che $ \lim _ { x \to \tilde { x } ^ + } F ( x ) = F ( \tilde { x } ) $ ,
\item $ F ( - \infty ) = 0 \impliedby ( ( - \infty , - i ] ) _ { i \in \NN } \goesdown \emptyset $ ,
\item $ F ( \infty ) = 1 \impliedby ( ( - \infty , i ] ) _ { i \in \NN } \goesup \RR $ .
\end { enumerate}
L'affermazione (ii.)~segue dal fatto che per ogni successione decrecente da destra $ ( x _ i ) _ { i \in \NN } \goesdown \tilde { x } $ ,
che esclude $ \tilde { x } $ , è
tale per cui $ ( ( - \infty , x _ i ] ) _ { i \in \NN } \goesdown ( - \infty , \tilde { x } ] $ , e dunque
$ ( F ( x _ i ) ) _ { i \in \NN } = ( P ( ( - \infty , x _ i ] ) ) _ { i \in \NN } \goesdown P ( ( - \infty , \tilde { x } ] ) = F ( \tilde { x } ) $ .
\end { proposition}
\subsection { Corrispondenza tra f.d.r.~e probabilità, calcolo di \texorpdfstring { $ P $ } { P} tramite \texorpdfstring { $ F $ } { F} e probabilità continue}
\begin { proposition} [$ P $ è univocamente determinata da $ F $ ]
\label { prop:unicita_ fdr}
Sia $ F : \RR \to \RR $ una funzione tale per cui:
\begin { enumerate} [(i.)]
\item $ F $ è crescente,
\item $ F $ è continua a destra,
\item $ \lim _ { x \to \infty } F ( x ) = 1 $ ,
\item $ \lim _ { x \to - \infty } F ( x ) = 0 $ .
\end { enumerate}
Allora $ 0 \leq F \leq 1 $ ed esiste un'unica probabilità reale $ P $ avente
$ F $ come funzione di ripartizione. \smallskip
L'unicità segue dal lemma di Dynkin.
\end { proposition}
\begin { remark}
La continuità a sinistra della f.d.r.~non è invece garantita dacché per ogni successione da sinistra crescente
$ ( x _ i ) _ { i \in \NN } \goesup \tilde { x } $ , che esclude $ \tilde { x } $ ,
vale che $ ( ( - \infty , x _ i ] ) _ { i \in \NN } \goesup ( - \infty , \tilde { x } ) $ , e non
$ ( - \infty , \tilde { x } ] $ . Dunque $ \lim _ { x \to \tilde { x } ^ - } F ( x ) $ esiste ed è $ P ( ( - \infty , x ) ) $ , indicato
comunemente come $ F ( x ^ - ) $ , che può non coincidere con $ F ( x ) $ . \smallskip
Dal momento che:
\[
P(\{ x\} ) = P((-\infty , x] \setminus (-\infty , x)) = F(x) - F(x^ -),
\]
si deduce che $ F $ è continua se e solo se $ P ( \{ x \} ) = 0 $ (ossia se e solo se
$ F ( x ) = F ( x ^ - ) $ ).
\end { remark}
\begin { remark}
Si deducono immediatamente dalla precedente osservazione le seguenti identità:
\begin { itemize}
\item $ P ( [ a, b ] ) = F ( b ) - F ( a ^ - ) $ ,
\item $ P ( ( a, b ) ) = F ( b ^ - ) - F ( a ) $ ,
\item $ P ( [ a, b ) ) = F ( b ^ - ) - F ( a ^ - ) $ ,
\item $ P ( ( a, b ] ) = F ( b ) - F ( a ) $ .
\end { itemize}
\end { remark}
\begin { definition} [$ P $ continua]
Si dice che una probabilità reale $ P $ è \textbf { continua} se
la sua f.d.r.~$ F $ lo è, ossia se $ P ( \{ a \} ) = 0 $ per ogni $ a \in \RR $
(quest'ultima equivalenza deriva dalla penultima osservazione).
\end { definition}
\begin { remark}
Per una probabilità $ P $ continua la misura di un intervallo con estremi $ a $ e $ b $ è semplificata
a $ F ( b ) - F ( a ) $ in tutti i casi (infatti $ F ( a ^ - ) = F ( a ) $ e $ F ( b ^ - ) = F ( b ) $ ).
\end { remark}
\section { Classi principali di probabilità reale}
Esistono due classi importanti, ma non esaustive, di probabilità reale: le
probabilità discrete e quelle assolutamente
continue, contenute tra quelle continue. Le classi di probabilità reali
si dividono dunque secondo il seguente schema:
\begin { center}
\tikzset { every picture/.style={ line width=0.75pt} } %set default line width to 0.75pt
\begin { tikzpicture} [x=0.75pt,y=0.75pt,yscale=-1,xscale=1,scale=0.8]
%uncomment if require: \path (0,300); %set diagram left start at 0, and has height of 300
%Shape: Rectangle [id:dp7885262489349896]
\draw (220.19,65.28) -- (466.19,65.28) -- (466.19,196.28) -- (220.19,196.28) -- cycle ;
%Shape: Ellipse [id:dp8572353674963273]
\draw (229.69,95.79) .. controls (236.04,78.39) and (264.48,72.78) .. (293.2,83.27) .. controls (321.92,93.76) and (340.05,116.37) .. (333.7,133.77) .. controls (327.34,151.17) and (298.91,156.78) .. (270.19,146.29) .. controls (241.47,135.8) and (223.33,113.19) .. (229.69,95.79) -- cycle ;
%Shape: Ellipse [id:dp3583963732297444]
\draw (342.58,156.41) .. controls (332.85,131.07) and (350.75,100.63) .. (382.58,88.41) .. controls (414.4,76.19) and (448.08,86.82) .. (457.81,112.15) .. controls (467.54,137.48) and (449.63,167.93) .. (417.81,180.15) .. controls (385.99,192.37) and (352.31,181.74) .. (342.58,156.41) -- cycle ;
%Shape: Ellipse [id:dp5413476700533957]
\draw (393.91,107.98) .. controls (397.1,99.22) and (408.98,95.52) .. (420.44,99.7) .. controls (431.9,103.89) and (438.6,114.38) .. (435.4,123.13) .. controls (432.21,131.89) and (420.33,135.59) .. (408.87,131.41) .. controls (397.41,127.22) and (390.71,116.73) .. (393.91,107.98) -- cycle ;
% Text Node
\draw (252,103) node [anchor=north west][inner sep=0.75pt] [align=left] { discrete} ;
% Text Node
\draw (358,145) node [anchor=north west][inner sep=0.75pt] [align=left] { continue} ;
% Text Node
\draw (403,105) node [anchor=north west][inner sep=0.75pt] [align=left] { AC} ;
\end { tikzpicture}
\end { center}
\begin { example} [Esempio di probabilità né discreta né continua]
Sia $ F : \RR \to \RR $ tale per cui:
\[
F(x) = \begin { cases}
0 & \text { se } x < 0, \\
x + \frac { 1} { 2} & \text { se } 0 \leq x \leq \frac { 1} { 2} , \\
1 & \text { altrimenti} .
\end { cases}
\]
Allora $ F $ è crescente, continua a destra e tale per cui
$ \lim _ { x \to - \infty } F ( x ) = 0 $ , $ \lim _ { x \to \infty } F ( x ) = 1 $ .
Pertanto esiste un'unica probabilità $ P $ avente $ F $ come f.d.r.~per la
\textit { Proposizione \ref { prop:unicita_ fdr} } . \smallskip
Dal momento che $ F $ non è continua a sinistra in $ 0 $ , $ F $ non è continua, e dunque
$ P $ non è continua. Inoltre $ F $ non induce una probabilità discreta dacché
non è costante a tratti in $ [ 0 , \nicefrac { 1 } { 2 } ] $ . Pertanto $ P $ non è né
continua né discreta.
\end { example}
\section { Probabilità discreta e rappresentazione della f.d.r.}
Come già discusso nella sezione della \textit { \hyperref [sec:discretizzazione] { Discretizzazione} } ,
una probabilità reale $ P $ si dice \textit { discreta} se esiste $ \Omega _ 0 \subseteq \RR $
discreto per cui $ P $ è concentrata su $ \Omega _ 0 $ . In tal caso, come già visto,
$ P ( A ) = P ( A \cap \Omega _ 0 ) $ per ogni $ A \in \BB ( \RR ) $ , e dunque $ P $ è univocamente determinata
dalla densità discreta di $ \restr { P } { \PP ( \Omega _ 0 ) } $ , che chiameremo $ p $ . \smallskip
In questo caso il range $ R _ P $ è dunque numerabile e, se $ F $ è la f.d.r.~di $ P $ , vale che:
\[
F(x) = P((-\infty , x]) = \sum _ { \substack { y \in R_ P \\ y \leq x} } p(y).
\]
\begin { remark}
Se $ P $ è discreta, come già osservato nella sezione della \textit { \hyperref [remark:identità_discreta_dirac] { Discretizzazione} } ,
allora vale che:
\[
P = \sum _ { x \in R_ P} p(x) \, \delta _ x.
\]
\end { remark}
\begin { remark}
Se $ R _ P $ non ha punti di accumulazione, allora $ F $ è costante a tratti con salti
negli $ y \in R _ P $ di ampiezza $ p ( y ) $ . \smallskip
Al contrario, presa una successione $ ( p _ r ) _ { r \in \QQ } $ con $ \sum _ { r \in \QQ } p _ r = 1 $ ,
la probabilità $ P = \sum _ { r \in \QQ } p _ r \, \delta _ r $ è una probabilità discreta con
f.d.r.~non costante a tratti (infatti tutti i punti di $ \QQ $ sono punti di accumulazione).
\end { remark}
Pertanto, se una probabilità reale è discreta, ci si può effettivamente restringere a tutti
i risultati della \textit { Parte 2} .
\section { Probabilità assolutamente continue (AC)}
\begin { warn}
Si ricorda che con il simbolo $ \int $ si intende l'integrale
secondo Lebesgue e che si assume di star lavorando sempre con la
misura di Lebesgue $ m $ .
\end { warn}
\subsection { Probabilità AC e funzione di densità}
\begin { definition} [Probabilità assolutamente continua (AC) e densità]
Una probabilità $ P $ si dice \textbf { assolutamente continua (AC)}
se esiste una funzione
boreliana $ f : \RR \to \RR $ tale per cui:
\[
P(A) = \int _ A f(x) \dx ,
\]
dove si impiega l'integrale secondo Lebesgue. Tale funzione $ f $ è
detta \textbf { densità} di $ P $ . \smallskip
Si assume implicitamente che $ \int _ \RR \abs { f ( x ) } \dx $ sia finito.
\end { definition}
\begin { remark}
Se $ P $ è AC, allora la sua f.d.r.~$ F $ è in particolare
assolutamente continua, e dunque anche continua.
\end { remark}
\begin { remark}
Nella pratica l'integrale $ \int _ A f ( x ) \dx $ si riduce in molti casi
al più semplice integrale di Riemann, eventualmente improprio.
\end { remark}
\subsection { Proprietà e caratterizzazione della densità}
\begin { proposition} [Unicità della densità a meno di $ m $ -trascurabilità]
Se $ P $ è una probabilità AC con densità $ f $ e $ g $ , allora
$ f = g $ q.o.~(e dunque $ m ( f \neq g ) = 0 $ , ossia l'insieme
$ f \neq g $ è $ m $ -trascurabile).
\end { proposition}
\begin { remark}
Si osserva che se $ P $ è una probabilità AC con densità
$ f $ , allora $ f \geq 0 $ q.o.~per continuità (altrimenti $ P $ potrebbe
assumere valori negativi) e $ \int _ \RR f ( x ) \dx = P ( \RR ) = 1 $ .
\end { remark}
\begin { proposition} [La densità determina univocamente la probabilità]
Sia $ f : \RR \to \RR $ una funzione boreliana tale per cui:
\begin { enumerate} [(i.)]
\item $ f \geq 0 $ ,
\item $ \int _ \RR f ( x ) \dx = 1 $ .
\end { enumerate}
Allora esiste un'unica probabilità reale $ P $ avente $ f $ come densità.
\end { proposition}
\begin { proposition} [Relazioni tra la densità e la f.d.r.]
Sia $ P $ una probabilità reale con f.d.r.~$ F $ . Allora valgono le seguenti affermazioni:
\begin { enumerate} [(i.)]
\item Se $ P $ è AC con densità $ f $ , allora $ F ( x ) = \int _ { - \infty } ^ x f ( y ) \dy $ . Viceversa
se esiste $ f $ per cui $ F ( x ) = \int _ { - \infty } ^ x f ( y ) \dy $ , allora $ P $ è AC con densità
$ f $ .
\item Se $ F $ è continua e $ C ^ 1 $ a tratti (ovverosia si restringe a una funzione $ C ^ 1 $ eccetto che per un insieme di punti isolati),
allora $ P $ è AC con densità $ f $ t.c.~$ f = F' $ dove è definibile $ F' $ e $ f = 0 $ altrimenti (segue dal Teorema fondamentale del calcolo integrale).
\end { enumerate}
\end { proposition}
\begin { remark}
Se $ P $ è AC con densità $ f $ , allora $ P ( f = 0 ) = \int _ { f = 0 } f ( x ) \dx = 0 $ e dunque
l'insieme $ f = 0 $ è trascurabile rispetto a $ P $ . Dunque, ristringendo il range si
ottiene che:
\[
P(A) = P(A \cap (f > 0)).
\]
\end { remark}
\section { Variabili aleatorie in generale}
In questa sezione cerchiamo di generalizzare il concetto di variabile aleatoria
al caso più generale usando il linguaggio delle $ \sigma $ -algebre e delle
funzioni misurabili in modo tale da estendere coerentemente le v.a.~discrete.
\subsection { Definizione e legge di una v.a.}
\begin { definition} [Variabile aleatoria]
Sia $ ( \Omega , \FF , P ) $ uno spazio di probabilità. Allora, se
$ ( S, \cS ) $ è uno spazio misurabile e $ X $ è una funzione misurabile
da $ \Omega $ a $ S $ , allora si dice che $ X $ è una \textbf { variabile aleatoria (v.a.)} .
Se $ S = \RR $ e $ \cS = \BB ( \RR ) $ , si dice che $ X $ è una \textit { v.a.~reale} ,
se $ S = \RR ^ d $ e $ \cS = \BB ( \RR ^ d ) $ , si dice che $ X $ è una \textit { v.a.~vettoriale}
o \textit { vettore aleatorio} .
\end { definition}
\begin { remark}
Se $ \Omega $ è discreto, $ \FF = \PP ( \Omega ) $ , e dunque ogni funzione
$ X : \Omega \to S $ è una variabile aleatoria. Pertanto la definizione
espressa è una perfetta estensione del concetto di v.a.~discreta.
\end { remark}
\begin { definition} [Legge di $ X $ ]
Sia $ ( \Omega , \FF , P ) $ uno spazio di probabilità e sia
$ X : ( \Omega , \FF ) \to ( S, \cS ) $ una v.a. Allora si dice
\textbf { legge di $ X $ } (o \textit { distribuzione} ) la probabilità
su $ P ^ X $ su $ ( S, \cS ) $ tale per cui:
\[
P^ X(A) = P(X \in A) = P(X\inv (A)).
\]
\end { definition}
\subsection { F.d.r.~di una v.a.~reale, v.a.~discrete, continue e AC}
\begin { definition} [F.d.r.~di una v.a.~reale]
Si definisce la \textbf { funzione di ripartizione (f.d.r.) di una
v.a.~$ X $ } come la f.d.r.~$ F ^ X $ associata alla probabilità reale
$ P ^ X $ , ovverosia:
\[
F^ X(x) = P(X\inv ((-\infty , x])) = P(X \leq x).
\]
\end { definition}
\begin { definition} [V.a.~discreta]
Una v.a.~$ X : \Omega \to S $ si dice \textbf { discreta} se
la probabilità $ P ^ X $ è discreta con densità
$ p _ X : S \ni x \mapsto P ( X = x ) $ . \smallskip
Tale definizione coincide con l'analoga definizione
di v.a.~discreta data precedentemente se ci restringiamo
a $ \Omega $ discreto. Non è detto in generale che
$ X $ sia una v.a.~discreta se e solo se $ \Omega $ è discreto.
\end { definition}
\begin { example}
Sia $ P $ una probabilità reale. Allora $ X : \RR \to [ 1 ] $ che
associa a tutti i reali il numero $ 1 $ è una funzione misurabile.
Inoltre $ X $ è discreta dacché $ [ 1 ] $ è discreto, ma $ \RR $ non
lo è.
\end { example}
\begin { definition} [V.a.~continue e AC]
Una v.a.~reale $ X $ si dice \textbf { continua} se $ P ^ X $ è
continua. Analogamente $ X $ si dice \textbf { assolutamente
continua (AC)} se $ P ^ X $ è AC.
\end { definition}
\subsection { Composizione di v.a.}
\begin { definition}
Sia $ X : ( \Omega , \FF ) \to ( S, \cS ) $ una v.a. Allora, se
$ \varphi : ( S, \cS ) \to ( S', \cS ' ) $ è una funzione tale per cui
$ \varphi \circ X $ sia misurabile,
si definisce la v.a.~composta $ \varphi ( X ) = \varphi \circ X $ .
\end { definition}
\begin { remark}
Se $ \varphi $ è anch'essa misurabile, allora $ \varphi \circ X $ è
sicuramente misurabile, e dunque $ \varphi ( X ) $ è una v.a.
\end { remark}
\begin { remark}
Se $ X $ è discreta, anche $ \varphi ( X ) $ lo è, con range
$ \varphi ( R _ X ) $ . Non è detto che se $ X $ è continua (o AC),
$ \varphi ( X ) $ sia continua (o AC).
\end { remark}
\subsection { Costruzione canonica, uguaglianza q.c.~e in legge}
I concetti espressi nel titolo di questa sottosezione si estendono
in modo del tutto naturale dal caso discreto, e pertanto si rimanda
alla \textit { \hyperref [sec:uguaglianza_qc] { Parte 2} } .
\section { Valore atteso come integrale secondo la misura \texorpdfstring { $ P $ } { P} }
Cerchiamo in questa sottosezione di dare una definizione di valore
atteso che estende la particolare nozione di valore atteso discreto
in modo del tutto coerente. Successivamente tutte le disuguaglianze
e tutti i risultati espressi nella sezione riguardante il caso
discreto saranno tutti validi seguendo le stesse dimostrazioni o
idee di dimostrazione.
\subsection { Costruzione dell'integrale secondo la misura \texorpdfstring { $ P $ } { P} }
Questa sezione tornerà familiare per i lettori che avranno già costruito
l'integrale secondo Lebesgue (ovverosia l'integrale secondo la misura
$ m $ ). Infatti le stesse definizioni e le stesse proposizioni si
estendono all'integrale secondo una misura generica $ \mu $ (a patto
che $ \mu $ assuma valori finiti per le funzioni semplici).
\begin { definition} [Funzione semplice]
Data una v.a.~reale $ X $ dello spazio misurabile
$ ( \Omega , \FF ) $ , si dice che $ X $ è una
\textbf { funzione semplice} (o \textit { v.a.~semplice} ) se $ X $ assume un numero
finito di valori, ovverosia se esistono $ A _ 1 $ , ...,
$ A _ n \in \FF $ e $ a _ 1 $ , ..., $ a _ n \in \RR $ tali
per cui:
\[
X = \sum _ { i \in [n]} a_ i 1_ { A_ i} .
\]
\end { definition}
\begin { remark}
Si verifica alquanto agevolmente che si può ridefinire la
semplicità di $ X $ richiedendo che gli $ A _ i $ siano
disgiunti (per esempio, se i $ b _ i $ rappresentano i valori finiti
e distinti assunti da $ X $ , gli insiemi $ X = b _ i $ sono dei possibili
candidati).
\end { remark}
\begin { proposition}
Data $ X $ una v.a.~semplice sullo spazio di probabilità
$ ( \Omega , \FF , P ) $ , allora, per ogni scrittura $ \sum _ { i \in [ n ] } a _ i 1 _ { A _ i } $ di $ X $ ,
il valore $ \sum _ { i \in [ n ] } a _ i P ( A _ i ) $ è lo stesso (ossia non dipende dagli
$ a _ i $ e dagli $ A _ i $ ). \smallskip
Segue dalle proprietà della $ \sigma $ -algebre e delle misure.
\end { proposition}
\begin { definition} [Integrale secondo la misura $ P $ di $ X $ v.a.~semplice]
Data $ X $ una v.a.~semplice sullo spazio di probabilità
$ ( \Omega , \FF , P ) $ , allora si definisce l'\textbf { integrale di $ X $ su
$ \Omega $ secondo la misura $ P $ }
$ \int _ \Omega X \dP $ come il valore $ \sum _ { i \in [ n ] } a _ i P ( A _ i ) $ , dove
$ \sum _ { i \in [ n ] } a _ i 1 _ { A _ i } $ è una scrittura di $ X $ .
\end { definition}
\begin { lemma}
Data $ X $ v.a.~reale con $ X \geq 0 $ , allora esiste una successione $ ( X _ i ) _ { i \in \NN } $ di
v.a.~semplici con $ X _ i \geq 0 $ tale per cui $ X _ i \goesup X $ puntualmente (ovverosia
$ X _ i ( \omega ) \goesup X ( \omega ) $ per ogni $ \omega \in \Omega $ ).
\end { lemma}
\begin { proposition}
Data $ X $ una v.a.~reale con $ X \geq 0 $ e data una successione $ ( X _ i ) _ { i \in \NN } $ di
v.a.~semplici con $ X _ i \geq 0 $ tale per cui $ X _ i \goesup X $ puntualmente (ovverosia
$ X _ i ( \omega ) \goesup X ( \omega ) $ per ogni $ \omega \in \Omega $ ), allora il
valore $ \lim _ { i \to \infty } \int _ \Omega X _ i \dP $ esiste, è finito non negativo o infinito e
non dipende dalla successione $ ( X _ i ) _ { i \in \NN } $ .
\end { proposition}
\begin { definition} [Integrale su $ \Omega $ secondo la misura $ P $ di $ X \geq 0 $ ]
Data $ X $ v.a.~reale con $ X \geq 0 $ , si definisce l'\textbf { integrale di $ X $
su $ \Omega $ secondo la misura $ P $ } ,
$ \int _ \Omega X \dP $ , il valore $ \lim _ { i \to \infty } \int _ \Omega X _ i \dP $ come
ottenuto dal lemma e la proposizione precedente.
\end { definition}
\begin { definition} [V.a.~integrabili e integrale in generale]
Una v.a.~$ X $ si dice \textbf { integrabile (secondo $ P $ )} se
$ \int _ \Omega \abs { X } \dP $ è finito. In tal caso si definisce
l'\textbf { integrale di $ X $ su $ \Omega $ secondo la misura $ P $ } come:
\[
\int _ \Omega X \dP = \int _ \Omega X^ + \dP - \int _ \Omega X^ - \dP ,
\]
dove $ X ^ + $ e $ X ^ - $ sono la parte positiva e negativa di $ X $ ed
entrambi gli addendi del secondo membro sono finiti dacché
$ \int _ \Omega \abs { X } \dP $ lo è (infatti $ \abs { X } = X ^ + + X ^ - $ ).
\end { definition}
\begin { definition} [Integrale su un sottoinsieme $ A \subseteq \Omega $ ]
Data $ X $ v.a.~reale, si definisce l'integrale $ \int _ A X \dP $ come il valore
$ \int _ \Omega 1 _ A \cdot X \dP $ , qualora definito.
\end { definition}
\begin { remark}
Si osserva che $ \int _ A 1 \dP = \int _ \Omega 1 _ A \dP = P ( A ) $ , ossia
$ \int _ \Omega $ misura in questo caso l'insieme $ A $ secondo $ P $ .
\end { remark}
\subsection { Definizione di valore atteso e teoremi correlati}
\begin { definition} [Valore atteso come integrale secondo la misura $ P $ ]
Sia $ X $ una v.a.~integrabile o tale per cui $ X \geq 0 $ .
Allora si definisce il \textbf { valore
atteso di $ X $ } $ \EE [ X ] $ come il valore $ \int _ \Omega X \dP $ .
\end { definition}
\begin { remark}
In questo modo $ X $ è integrabile se e solo se $ \EE [ \abs { X } ] $ è finito.
\end { remark}
\begin { proposition}
I risultati della \textit { Proposizione \ref { prop:prop_ valore_ atteso} } passano
al caso reale.
\end { proposition}
\begin { lemma} [di Fatou]
Sia $ ( X _ i ) _ { i \in \NN } $ una successione di v.a.~reali con $ X _ i \geq 0 $ . Allora vale che:
\[
\EE \left [\liminf_{i \to \infty} X_i\right] \leq \liminf _ { i \to \infty } \; \EE [X_i] .
\]
Segue la stessa idea di dimostrazione per il lemma nella sua forma per l'integrale di Lebesgue.
\end { lemma}
\begin { theorem} [di convergenza monotona, o di Beppo Levi]
\label { th:convergenza_ monotona}
Sia $ ( X _ i ) _ { i \in \NN } $ una successione di v.a.~reali non negative q.c.~con
$ X _ i \goesup X $ q.c.~(cioè la successione è crescente e
$ X _ i ( \omega ) \to X ( \omega ) $ $ P $ -quasi ovunque). Allora $ \EE [ X _ i ] \goesup \EE [ X ] $ . \smallskip
Segue la stessa idea di dimostrazione per il teorema nella sua forma per l'integrale di Lebesgue.
\end { theorem}
\begin { theorem} [di convergenza dominata]
Sia $ ( X _ i ) _ { i \in \NN } $ una successione di v.a.~reali e sia $ X $ una v.a. reale tale per cui
$ X _ i \to X $ q.c. (cioè $ X _ i ( \omega ) \to X ( \omega ) $ $ P $ -quasi ovunque). Se esiste una
v.a.~integrabile $ Y \geq 0 $ con $ \abs { X _ i } \leq Y $ q.c. per ogni $ i \in \NN $ . Allora $ X _ n $ e
$ X $ sono integrabili e $ \EE [ X _ i ] \to \EE [ X ] $ . \smallskip
Segue la stessa idea di dimostrazione per il teorema nella sua forma per l'integrale di Lebesgue.
\end { theorem}
\subsection { Calcolo del valore atteso}
\begin { proposition}
Sia $ X : \Omega \to \RR $ una v.a.~assolutamente continua con densità $ f $
e sia $ \varphi : \RR \to \RR $ una funzione
boreliana. Allora valgono le seguenti affermazioni:
\begin { enumerate} [(i.)]
\item $ \varphi ( X ) $ è integrabile se e solo se $ \int _ \RR \abs { \varphi ( x ) } f ( x ) \dx $ è finito.
\item se $ \varphi ( X ) $ ammette valore atteso, allora $ \EE [ \varphi ( X ) ] = \int _ \RR \varphi ( x ) f ( x ) \dx $ .
\end { enumerate}
Il risultato segue considerando in ordine a) le funzioni indicatrici, b) le funzioni semplici,
c) le funzioni non negative e d) le funzioni integrabili, applicando il
\hyperref [th:convergenza_monotona] { Teorema di convergenza monotona} .
\end { proposition}
\end { multicols*}