@ -97,7 +97,7 @@ di ricavare la distribuzione di probabilità dei dati $x_1$, ..., $x_n$.
Denotiamo con $ \Theta $ l'insieme dei possibili parametri $ \theta $ per la distribuzione
Denotiamo con $ \Theta $ l'insieme dei possibili parametri $ \theta $ per la distribuzione
di probabilità sui dati $ x _ 1 $ , ..., $ x _ n $ . \smallskip
di probabilità sui dati $ x _ 1 $ , ..., $ x _ n $ . \smallskip
Denotiamo con $ Q _ \theta $ la probabilità che si otterrebbe utilizzando il parametro $ \ sigm a$
Denotiamo con $ Q _ \theta $ la probabilità che si otterrebbe utilizzando il parametro $ \ thet a$
nel modello di probabilità noto a meno di parametro.
nel modello di probabilità noto a meno di parametro.
\end { notation}
\end { notation}
@ -123,44 +123,44 @@ statistico $(S, \cS, (Q_\theta)_{\theta \in \Theta})$.
\begin { definition} [Campione i.i.d.~di taglia $ n $ ]
\begin { definition} [Campione i.i.d.~di taglia $ n $ ]
Dato un modello statistico, si dice
Dato un modello statistico, si dice
che una famiglia di v.a.~$ ( X _ i : \Omega \to S ) _ { i \in [ n ] } $ i.i.d.~è un \textbf { campione i.i.d.~di taglia $ n $ }
che una famiglia di v.a.~$ ( X _ i : \Omega \to S ) _ { i \in [ n ] } $ i.i.d.~è un \textbf { campione i.i.d.~di taglia $ n $ }
se per ogni $ \ sigma \in \Sigm a$ esiste uno spazio di probabilità $ ( \Omega , \FF , P _ \ sigm a) $ tale per cui
se per ogni $ \ theta \in \Thet a$ esiste uno spazio di probabilità $ ( \Omega , \FF , P _ \ thet a) $ tale per cui
$ ( P _ \ sigm a) ^ { X _ i } $ è uguale in legge a $ Q _ \theta $ .
$ ( P _ \ thet a) ^ { X _ i } $ è uguale in legge a $ Q _ \theta $ .
\end { definition}
\end { definition}
Dato un campione di taglia $ n $ , useremo $ P _ \ sigm a$ per riferirci alla misura di probabilità
Dato un campione di taglia $ n $ , useremo $ P _ \ thet a$ per riferirci alla misura di probabilità
su $ ( \Omega , \FF ) $ appena descritta. Scriveremo
su $ ( \Omega , \FF ) $ appena descritta. Scriveremo
come apice $ \ sigm a$ per indicare di star lavorando nello spazio
come apice $ \ thet a$ per indicare di star lavorando nello spazio
di probabilità $ ( \Omega , \FF , P _ \theta ) $ (e.g.~$ \EE ^ \ sigm a$ è riferito
di probabilità $ ( \Omega , \FF , P _ \theta ) $ (e.g.~$ \EE ^ \ thet a$ è riferito
a $ P _ \theta $ ).
a $ P _ \theta $ ).
\begin { definition} [Statistica e stimatore]
\begin { definition} [Statistica e stimatore]
Dato un campione i.i.d.~$ ( X _ i ) _ { i \in [ n ] } $ , si dice \textbf { statistica}
Dato un campione i.i.d.~$ ( X _ i ) _ { i \in [ n ] } $ , si dice \textbf { statistica}
una v.a.~dipendente dalle v.a.~$ X _ i $ ed eventualmente dal parametro $ \ sigm a$ .
una v.a.~dipendente dalle v.a.~$ X _ i $ ed eventualmente dal parametro $ \ thet a$ .
Si dice \textbf { stimatore} una statistica non dipendente direttamente da $ \ sigm a$ .
Si dice \textbf { stimatore} una statistica non dipendente direttamente da $ \ thet a$ .
\end { definition}
\end { definition}
\subsection { Correttezza di uno stimatore}
\subsection { Correttezza di uno stimatore}
\begin { definition} [Stimatore corretto]
\begin { definition} [Stimatore corretto]
Si dice che uno stimatore $ U $ è \textbf { corretto} (o \textit { non distorto} ) rispetto
Si dice che uno stimatore $ U $ è \textbf { corretto} (o \textit { non distorto} ) rispetto
a $ h : \ Sigma \to \RR $ se per ogni $ \sigma \in \Sigm a$ vale che:
a $ h : \ Theta \to \RR $ se per ogni $ \theta \in \Thet a$ vale che:
\begin { enumerate} [(i.)]
\begin { enumerate} [(i.)]
\item $ U $ è $ P _ \ sigm a$ -integrabile (i.e.~ammette valore atteso),
\item $ U $ è $ P _ \ thet a$ -integrabile (i.e.~ammette valore atteso),
\item $ \EE ^ \ sigma[ U ] = h ( \sigm a) $ .
\item $ \EE ^ \ theta[ U ] = h ( \thet a) $ .
\end { enumerate}
\end { enumerate}
\end { definition}
\end { definition}
\begin { remark}
\begin { remark}
La media campionaria è uno stimatore corretto del valore atteso ($ h : \ sigma \mapsto \EE ^ \sigm a[ X _ 1 ] $ ). Infatti:
La media campionaria è uno stimatore corretto del valore atteso ($ h : \ theta \mapsto \EE ^ \thet a[ X _ 1 ] $ ). Infatti:
\[
\[
\EE ^ \ sigma\! \left [\overline{X}\right] = \EE ^ \sigm a[X_1] .
\EE ^ \ theta\! \left [\overline{X}\right] = \EE ^ \thet a[X_1] .
\]
\]
\end { remark}
\end { remark}
\begin { remark}
\begin { remark}
La varianza campionaria è uno stimatore corretto della varianza ($ h : \ sigma \mapsto \Var ^ \sigm a( X _ 1 ) $ ). Infatti:
La varianza campionaria è uno stimatore corretto della varianza ($ h : \ theta \mapsto \Var ^ \thet a( X _ 1 ) $ ). Infatti:
\[
\[
\EE ^ \ sigm a[S^2] = \frac { 1} { n-1} \left ( n \EE ^ \ sigma[X_1^2] - \EE ^ \sigma [X_1^2] - (n-1) \EE ^ \sigma [X_1] ^ 2 \right ) = \Var ^ \sigm a(X_ 1).
\EE ^ \ thet a[S^2] = \frac { 1} { n-1} \left ( n \EE ^ \ theta[X_1^2] - \EE ^ \theta [X_1^2] - (n-1) \EE ^ \theta [X_1] ^ 2 \right ) = \Var ^ \thet a(X_ 1).
\]
\]
Si verifica analogamente che il coeff.~di correlazione campionario è uno stimatore corretto del
Si verifica analogamente che il coeff.~di correlazione campionario è uno stimatore corretto del
coeff.~di correlazione tra $ X _ i $ e $ X _ j $ .
coeff.~di correlazione tra $ X _ i $ e $ X _ j $ .
@ -169,21 +169,21 @@ a $P_\theta$).
\subsection { Consistenza e non distorsione di una successione di stimatori}
\subsection { Consistenza e non distorsione di una successione di stimatori}
\begin { definition} [Successione non distorta di stimatori]
\begin { definition} [Successione non distorta di stimatori]
Una successione di stimatori $ ( U _ k ) _ { k \in \NN ^ + } $ di $ h ( \ sigm a) $ si dice
Una successione di stimatori $ ( U _ k ) _ { k \in \NN ^ + } $ di $ h ( \ thet a) $ si dice
\textbf { asintoticamente non distorta} se $ U _ k $ è $ P _ \ sigm a$ -integrabile
\textbf { asintoticamente non distorta} se $ U _ k $ è $ P _ \ thet a$ -integrabile
(i.e.~ammette valore atteso) e:
(i.e.~ammette valore atteso) e:
\[
\[
\lim _ { k \to \infty } \EE ^ \ sigma[U_k] = h(\sigm a).
\lim _ { k \to \infty } \EE ^ \ theta[U_k] = h(\thet a).
\]
\]
\end { definition}
\end { definition}
\begin { definition} [Successione consistente di stimatori]
\begin { definition} [Successione consistente di stimatori]
Una successione di stimatori $ ( U _ k ) _ { k \in \NN ^ + } $ di $ h ( \ sigm a) $ si dice
Una successione di stimatori $ ( U _ k ) _ { k \in \NN ^ + } $ di $ h ( \ thet a) $ si dice
\textbf { consistente} se:
\textbf { consistente} se:
\[
\[
\lim _ { k \to \infty } P_ \ sigma(\abs { U_ k - h(\sigm a)} > \eps ) = 0, \quad \forall \eps > 0,
\lim _ { k \to \infty } P_ \ theta(\abs { U_ k - h(\thet a)} > \eps ) = 0, \quad \forall \eps > 0,
\]
\]
ovverosia se $ U _ k $ converge in $ P _ \ sigma$ -probabilità a $ h ( \sigm a) $ .
ovverosia se $ U _ k $ converge in $ P _ \ theta$ -probabilità a $ h ( \thet a) $ .
\end { definition}
\end { definition}
\begin { remark}
\begin { remark}
@ -200,22 +200,22 @@ a $P_\theta$).
\subsection { Rischio quadratico e preferibilità}
\subsection { Rischio quadratico e preferibilità}
\begin { definition} [Rischio quadratico di uno stimatore]
\begin { definition} [Rischio quadratico di uno stimatore]
Dato uno stimatore $ U $ di $ h : \ Sigm a \to \RR $ , si definisce
Dato uno stimatore $ U $ di $ h : \ Thet a \to \RR $ , si definisce
\textbf { rischio quadratico} di $ U $ per $ \ sigm a$ il seguente valore:
\textbf { rischio quadratico} di $ U $ per $ \ thet a$ il seguente valore:
\[
\[
R_ \ sigma(U) = \EE [(U - h(\sigm a))^2].
R_ \ theta(U) = \EE [(U - h(\thet a))^2].
\]
\]
\end { definition}
\end { definition}
\begin { remark}
\begin { remark}
Se $ U $ è uno stimatore corretto di $ h $ , allora
Se $ U $ è uno stimatore corretto di $ h $ , allora
$ R _ \ sigma( U ) = \Var ^ \sigm a( U ) $ .
$ R _ \ theta( U ) = \Var ^ \thet a( U ) $ .
\end { remark}
\end { remark}
\begin { definition} [Preferibilità]
\begin { definition} [Preferibilità]
Dati due stimatori $ U $ , $ V $ di $ h : \ Sigm a \to \RR $ , si dice
Dati due stimatori $ U $ , $ V $ di $ h : \ Thet a \to \RR $ , si dice
che $ U $ è \textbf { preferibile} rispetto a $ V $ se
che $ U $ è \textbf { preferibile} rispetto a $ V $ se
$ R _ \ sigma( U ) \leq R _ \sigma ( V ) $ per ogni $ \sigma \in \Sigm a$ .
$ R _ \ theta( U ) \leq R _ \theta ( V ) $ per ogni $ \theta \in \Thet a$ .
\end { definition}
\end { definition}
\subsection { Stimatore di massima verosomiglianza}
\subsection { Stimatore di massima verosomiglianza}
@ -224,20 +224,20 @@ D'ora in avanti sottintenderemo di star lavorando sullo
spazio misurabile $ ( \RR , \BB ( \RR ) ) $ .
spazio misurabile $ ( \RR , \BB ( \RR ) ) $ .
\begin { notation}
\begin { notation}
Data la famiglia di probabilità $ ( Q _ \ sigma) _ { \sigma \in \Sigm a} ) $ , usiamo
Data la famiglia di probabilità $ ( Q _ \ theta) _ { \theta \in \Thet a} ) $ , usiamo
scrivere $ m _ \ sigma$ per riferirci alla densità discreta $ q _ \sigma $ (o $ p _ \sigm a$ )
scrivere $ m _ \ theta$ per riferirci alla densità discreta $ q _ \theta $ (o $ p _ \thet a$ )
di $ Q _ \ sigm a$ , qualora sia discreta, oppure alla sua funzione di densità
di $ Q _ \ thet a$ , qualora sia discreta, oppure alla sua funzione di densità
$ f _ \ sigma$ , qualora $ Q _ \sigm a$ sia assolutamente continua.
$ f _ \ theta$ , qualora $ Q _ \thet a$ sia assolutamente continua.
\end { notation}
\end { notation}
\begin { definition} [Funzione di verosomiglianza]
\begin { definition} [Funzione di verosomiglianza]
Dato un campione $ ( X _ i ) _ { i \in [ n ] } $ i.i.d.~, si definisce
Dato un campione $ ( X _ i ) _ { i \in [ n ] } $ i.i.d.~, si definisce
\textbf { funzione di verosomiglianza} la funzione $ L : \ Sigm a \times \RR ^ n $
\textbf { funzione di verosomiglianza} la funzione $ L : \ Thet a \times \RR ^ n $
tale per cui:
tale per cui:
\[
\[
(\ sigm a, (x_ i)_ { i \in [n]} ) \xmapsto { L} L_ \ sigma(x_ 1, \ldots , x_ n) \defeq m_ \sigma (x_ 1) \cdots m_ \sigm a(x_ n).
(\ thet a, (x_ i)_ { i \in [n]} ) \xmapsto { L} L_ \ theta(x_ 1, \ldots , x_ n) \defeq m_ \theta (x_ 1) \cdots m_ \thet a(x_ n).
\]
\]
Equivalentemente, $ L _ \ sigm a( x _ 1 , \ldots , x _ n ) $ rappresenta la densità congiunta su $ Q _ \ sigm a$
Equivalentemente, $ L _ \ thet a( x _ 1 , \ldots , x _ n ) $ rappresenta la densità congiunta su $ Q _ \ thet a$
di $ x _ 1 $ , ..., $ x _ n $ .
di $ x _ 1 $ , ..., $ x _ n $ .
\end { definition}
\end { definition}
@ -245,11 +245,11 @@ spazio misurabile $(\RR, \BB(\RR))$.
Scriveremo $ L _ U ( X _ 1 , \ldots , X _ n ) $ con $ U $ v.a. e
Scriveremo $ L _ U ( X _ 1 , \ldots , X _ n ) $ con $ U $ v.a. e
$ ( X _ i ) _ { i \in [ n ] } $ famiglia di v.a.~reali sottintendendo
$ ( X _ i ) _ { i \in [ n ] } $ famiglia di v.a.~reali sottintendendo
l'insieme $ L _ { U ( \omega ) } ( X _ 1 ( \omega ) , \ldots , X _ n ( \omega ) ) $ ,
l'insieme $ L _ { U ( \omega ) } ( X _ 1 ( \omega ) , \ldots , X _ n ( \omega ) ) $ ,
assumendo $ U ( \omega ) \in \ Sigm a$ .
assumendo $ U ( \omega ) \in \ Thet a$ .
\end { notation}
\end { notation}
\begin { definition} [Stimatore di massima verosomiglianza di $ \ sigm a$ ]
\begin { definition} [Stimatore di massima verosomiglianza di $ \ thet a$ ]
Si dice che uno stimatore $ U $ è di \textbf { massima verosomiglianza di $ \ sigm a$ }
Si dice che uno stimatore $ U $ è di \textbf { massima verosomiglianza di $ \ thet a$ }
su un campione i.i.d.~$ ( X _ i ) _ { i \in [ n ] } $ se:
su un campione i.i.d.~$ ( X _ i ) _ { i \in [ n ] } $ se:
\[
\[
L_ U(X_ 1, \ldots , X_ n) = \sup _ { \theta \in \Theta } L_ \theta (X_ 1, \ldots , X_ n), \quad \forall \omega \in S.
L_ U(X_ 1, \ldots , X_ n) = \sup _ { \theta \in \Theta } L_ \theta (X_ 1, \ldots , X_ n), \quad \forall \omega \in S.
@ -273,7 +273,7 @@ spazio misurabile $(\RR, \BB(\RR))$.
Tale funzione ha massimo per $ \theta = \overline { x } $ , e dunque
Tale funzione ha massimo per $ \theta = \overline { x } $ , e dunque
$ \overline { X } $ è uno stimatore di massima verosomiglianza di $ \theta $ . \smallskip
$ \overline { X } $ è uno stimatore di massima verosomiglianza di $ \theta $ . \smallskip
In altre parole, la migliore stima di $ \ sigm a$ data una sequenza di $ n $ prove di Bernoulli è
In altre parole, la migliore stima di $ \ thet a$ data una sequenza di $ n $ prove di Bernoulli è
la frequenza relativa di successi.
la frequenza relativa di successi.
\end { example}
\end { example}