@ -87,7 +87,7 @@ Analogamente definiamo per dei dati $y_1$, ..., $y_n \in \RR$ la v.a.~$Y$.
che, per la disuguaglianza di Cauchy-Schwarz, appartiene all'intervallo $ [ - 1 , 1 ] $ .
\end { definition}
\s ubs ection{ Modello statistico}
\s ection{ Modello statistico}
Come già osservato, la statistica inferenziale parametrica studia situazioni in cui
è necessario ricavare o stimare un singolo parametro su un dato modello di probabilità al fine
@ -113,4 +113,160 @@ di ricavare la distribuzione di probabilità dei dati $x_1$, ..., $x_n$.
$ Q _ \theta \sim B ( \theta ) $ , con $ \Theta = [ 0 , 1 ] $ , dove $ 1 $ identifica la testa e $ 0 $ la croce.
\end { example}
\section { Teoria degli stimatori su campioni di taglia \texorpdfstring { $ n $ } { n} }
\subsection { Campione, statistica e stimatore}
D'ora in avanti, sottintenderemo di star lavorando sul modello
statistico $ ( S, \cS , ( Q _ \theta ) _ { \theta \in \Theta } ) $ .
\begin { definition} [Campione i.i.d.~di taglia $ n $ ]
Dato un modello statistico, si dice
che una famiglia di v.a.~$ ( X _ i : \Omega \to S ) _ { i \in [ n ] } $ i.i.d.~è un \textbf { campione i.i.d.~di taglia $ n $ }
se per ogni $ \sigma \in \Sigma $ esiste uno spazio di probabilità $ ( \Omega , \FF , P _ \sigma ) $ tale per cui
$ ( P _ \sigma ) ^ { X _ i } $ è uguale in legge a $ Q _ \theta $ .
\end { definition}
Dato un campione di taglia $ n $ , useremo $ P _ \sigma $ per riferirci alla misura di probabilità
su $ ( \Omega , \FF ) $ appena descritta. Scriveremo
come apice $ \sigma $ per indicare di star lavorando nello spazio
di probabilità $ ( \Omega , \FF , P _ \theta ) $ (e.g.~$ \EE ^ \sigma $ è riferito
a $ P _ \theta $ ).
\begin { definition} [Statistica e stimatore]
Dato un campione i.i.d.~$ ( X _ i ) _ { i \in [ n ] } $ , si dice \textbf { statistica}
una v.a.~dipendente dalle v.a.~$ X _ i $ ed eventualmente dal parametro $ \sigma $ .
Si dice \textbf { stimatore} una statistica non dipendente direttamente da $ \sigma $ .
\end { definition}
\subsection { Correttezza di uno stimatore}
\begin { definition} [Stimatore corretto]
Si dice che uno stimatore $ U $ è \textbf { corretto} (o \textit { non distorto} ) rispetto
a $ h : \Sigma \to \RR $ se per ogni $ \sigma \in \Sigma $ vale che:
\begin { enumerate} [(i.)]
\item $ U $ è $ P _ \sigma $ -integrabile (i.e.~ammette valore atteso),
\item $ \EE ^ \sigma [ U ] = h ( \sigma ) $ .
\end { enumerate}
\end { definition}
\begin { remark}
La media campionaria è uno stimatore corretto del valore atteso ($ h : \sigma \mapsto \EE ^ \sigma [ X _ 1 ] $ ). Infatti:
\[
\EE ^ \sigma \! \left [\overline{X}\right] = \EE ^ \sigma [X_1] .
\]
\end { remark}
\begin { remark}
La varianza campionaria è uno stimatore corretto della varianza ($ h : \sigma \mapsto \Var ^ \sigma ( X _ 1 ) $ ). Infatti:
\[
\EE ^ \sigma [S^2] = \frac { 1} { n-1} \left ( n \EE ^ \sigma [X_1^2] - \EE ^ \sigma [X_1^2] - (n-1) \EE ^ \sigma [X_1] ^ 2 \right ) = \Var ^ \sigma (X_ 1).
\]
Si verifica analogamente che il coeff.~di correlazione campionario è uno stimatore corretto del
coeff.~di correlazione tra $ X _ i $ e $ X _ j $ .
\end { remark}
\subsection { Consistenza e non distorsione di una successione di stimatori}
\begin { definition} [Successione non distorta di stimatori]
Una successione di stimatori $ ( U _ k ) _ { k \in \NN ^ + } $ di $ h ( \sigma ) $ si dice
\textbf { asintoticamente non distorta} se $ U _ k $ è $ P _ \sigma $ -integrabile
(i.e.~ammette valore atteso) e:
\[
\lim _ { k \to \infty } \EE ^ \sigma [U_k] = h(\sigma ).
\]
\end { definition}
\begin { definition} [Successione consistente di stimatori]
Una successione di stimatori $ ( U _ k ) _ { k \in \NN ^ + } $ di $ h ( \sigma ) $ si dice
\textbf { consistente} se:
\[
\lim _ { k \to \infty } P_ \sigma (\abs { U_ k - h(\sigma )} > \eps ) = 0, \quad \forall \eps > 0,
\]
ovverosia se $ U _ k $ converge in $ P _ \sigma $ -probabilità a $ h ( \sigma ) $ .
\end { definition}
\begin { remark}
La successione di stimatori $ ( \overline { X _ n } ) _ { n \in \NN ^ + } $ , corretti per
il valore atteso, è sia consistente che
asintoticamente non distorta, per la LGN.
\end { remark}
\begin { remark}
La successione di stimatori $ ( S ^ 2 _ n ) _ { n \in \NN ^ + } $ , corretti per la
varianza, consistente, sempre per la LGN.
\end { remark}
\subsection { Stimatore di massima verosomiglianza}
D'ora in avanti sottintenderemo di star lavorando sullo
spazio misurabile $ ( \RR , \BB ( \RR ) ) $ .
\begin { notation}
Data la famiglia di probabilità $ ( Q _ \sigma ) _ { \sigma \in \Sigma } ) $ , usiamo
scrivere $ m _ \sigma $ per riferirci alla densità discreta $ q _ \sigma $ (o $ p _ \sigma $ )
di $ Q _ \sigma $ , qualora sia discreta, oppure alla sua funzione di densità
$ f _ \sigma $ , qualora $ Q _ \sigma $ sia assolutamente continua.
\end { notation}
\begin { definition} [Funzione di verosomiglianza]
Dato un campione $ ( X _ i ) _ { i \in [ n ] } $ i.i.d.~, si definisce
\textbf { funzione di verosomiglianza} la funzione $ L : \Sigma \times \RR ^ n $
tale per cui:
\[
(\sigma , (x_ i)_ { i \in [n]} ) \xmapsto { L} L_ \sigma (x_ 1, \ldots , x_ n) \defeq m_ \sigma (x_ 1) \cdots m_ \sigma (x_ n).
\]
Equivalentemente, $ L _ \sigma ( x _ 1 , \ldots , x _ n ) $ rappresenta la densità congiunta su $ Q _ \sigma $
di $ x _ 1 $ , ..., $ x _ n $ .
\end { definition}
\begin { notation}
Scriveremo $ L _ U ( X _ 1 , \ldots , X _ n ) $ con $ U $ v.a. e
$ ( X _ i ) _ { i \in [ n ] } $ famiglia di v.a.~reali sottintendendo
l'insieme $ L _ { U ( \omega ) } ( X _ 1 ( \omega ) , \ldots , X _ n ( \omega ) ) $ ,
assumendo $ U ( \omega ) \in \Sigma $ .
\end { notation}
\begin { definition} [Stimatore di massima verosomiglianza di $ \sigma $ ]
Si dice che uno stimatore $ U $ è di \textbf { massima verosomiglianza di $ \sigma $ }
su un campione i.i.d.~$ ( X _ i ) _ { i \in [ n ] } $ se:
\[
L_ U(X_ 1, \ldots , X_ n) = \sup _ { \theta \in \Theta } L_ \theta (X_ 1, \ldots , X_ n), \quad \forall \omega \in S.
\]
In altre parole, uno stimatore $ U $ è di massima verosomiglianza su un campione se
per dei dati $ x _ 1 $ , ..., $ x _ n $ restituisce il parametro $ \theta $ che massimizza
$ L _ \theta ( x _ 1 , \ldots , x _ n ) $ , ovverosia la densità consiunta dei dati
$ x _ 1 $ , ..., $ x _ n $ (i.e.~la probabilità che si ottenga $ x _ 1 $ , ..., $ x _ n $ ).
\end { definition}
\begin { example} [Prova di Bernoulli]
Sia $ Q _ \theta \sim B ( \theta ) $ . Dati gli esiti $ x _ 1 $ , ..., $ x _ n $ di $ n $ prove,
ricaviamo che:
\[
L_ \theta (x_ 1, \ldots , x_ n) = \theta ^ { \sum _ i x_ i} (1 - \theta )^ { n - \theta ^ { \sum _ i x_ i} } ,
\]
da cui:
\[
\log L_ \theta (x_ 1, \ldots , x_ n) = n \overline { x} \log (\theta ) + n (1 - \overline { x} ) \log (1 - \theta ).
\]
Tale funzione ha massimo per $ \theta = \overline { x } $ , e dunque
$ \overline { X } $ è uno stimatore di massima verosomiglianza di $ \theta $ . \smallskip
In altre parole, la migliore stima di $ \sigma $ data una sequenza di $ n $ prove di Bernoulli è
la frequenza relativa di successi.
\end { example}
\begin { example}
Sia $ Q _ \theta \sim U ( [ 0 , \theta ] ) $ con $ \theta > 0 $ . Dati gli esiti $ x _ 1 $ , ..., $ x _ n $ ricaviamo che:
\[
L_ \theta (x_ 1, \ldots , x_ n) = \frac { 1} { \theta ^ n} \prod _ i 1_ { [0, \theta ]} (x_ i) =
\frac { 1} { \theta ^ n} 1_ { 0 \leq \min _ i x_ i \leq \max _ i x_ i \leq \theta } ,
\]
che ha massimo per $ \theta = \max _ i x _ i $ . Pertanto $ \max \{ X _ 1 , \ldots , X _ n \} $ è uno stimatore
di massima somiglianza di $ \theta $ . \smallskip
In altre parole, dati degli esiti $ x _ 1 $ , ..., $ x _ n $ , una delle migliori stime che possiamo fare
su $ \theta $ è $ \max _ i x _ i $ .
\end { example}
\end { multicols*}