fix(eps): aggiorna notazioni

main
parent 0204dc99ab
commit 162850bac2

File diff suppressed because it is too large Load Diff

@ -231,10 +231,41 @@
regressione $y = a^*x + b^*$. regressione $y = a^*x + b^*$.
\item $I(t)$ -- trasformata di Cramer. \item $I(t)$ -- trasformata di Cramer.
\item LGN - Legge dei Grandi Numeri. \item LGN - Legge dei Grandi Numeri.
\item TCL, TLC - Teorema Centrale del Limite. \item TCL, TLC - Teorema Centrale del Limite (o Teorema del Limite Centrale).
\item $\overline{X}$, $\overline{X_n}$ -- media delle v.a.~$X_1$, ..., $X_n$, ovverosia $\frac{1}{n} \sum_{i=1}^n X_i$.
\item $m$, $\sigma$ -- spesso nel contesto \item $m$, $\sigma$ -- spesso nel contesto
della LGN e del TCL si usa $m$ per della LGN e del TCL si usa $m$ per
indicare $\EE[X_1]$ e $\sigma$ per indicare $\EE[X_1]$ e $\sigma$ per
indicare $\sigma(X_1)$. indicare $\sigma(X_1)$.
\item $Z$, $Z_1$ -- normale standard $N(0, 1)$-
\item $Z_\sigma$ -- normale $N(0, \sigma^2)$.
\end{itemize}
\section*{Statistica inferenziale}
\addcontentsline{toc}{section}{Statistica inferenziale}
\begin{itemize}
\item $x_1$, ..., $x_n$ -- dati statistici.
\item $\overline{x}$, $\overline{x_n}$ -- media campionaria dei dati $x_1$, ..., $x_n$, ovverosia $\frac{1}{n} \sum_{i=1}^n x_i$.
\item $\overline{X}$, $\overline{X_n}$ -- media campionaria delle v.a.~$X_1$, ..., $X_n$, ovverosia $\frac{1}{n} \sum_{i=1}^n X_i$.
\item $m_x$ -- mediana campionaria sui dati $x_1$, ..., $x_n$, ovverosia $x_{\nicefrac{n+1}{2}}$ se $n$ è dispari, oppure
$\nicefrac{\left(x_{\nicefrac{n}{2}} + x_{\nicefrac{(n+2)}{2}}\right)}{2}$ se $n$ è pari.
\item $s^2$, $s^2_x$, $\sigma_x^2$ -- varianza campionaria \textit{corretta}, ovverosia $\frac{1}{n-1} \sum_{i=1}^n (x_i - \overline{x})^2$; da
non confondersi con l'usuale varianza, che è invece $\frac{n-1}{n} s^2$.
\item $S^2$ -- varianza campionaria \textit{corretta} nelle v.a. $X_i$, ovverosia $\frac{1}{n-1} \sum_{i=1}^n (X_i - \overline{X})^2$.
\item $r$ -- coefficiente di correlazione campionaria, ovverosia $\frac{\sum_{i=1}^n \left(x_i - \overline{x}\right)\left(y_i - \overline{y}\right)}{\sqrt{\sum_{i=1}^n \left(x_i - \overline{x}\right)^2 \cdot \sum_{i=1}^n \left(y_i - \overline{y}\right)^2}}$.
\item $(S, \cS)$ -- spazio misurabile relativa alla statistica di studio.
\item $\Theta$ -- insieme dei possibili parametri per la distribuzione di probabilità sui dati $x_1$, ..., $x_n$.
\item $Q_\theta$ -- probabilità ottenuta utilizzando il parametro $\theta \in \Theta$.
\item $(S, \cS, (Q_\theta)_{\theta \in \Theta})$ -- modello statistico (parametrico).
\item $\EE^\theta$ -- valore atteso relativo a $Q_\theta$.
\item $\Var^\theta$ -- varianza relativa a $Q_\theta$.
\item $R_\sigma(U)$ -- rischio quadratico dello stimatore $U$ di $h : \Theta \to \RR$ relativamente a $Q_\theta$, ovverosia $\EE[(U - h(\theta))^2]$. Pari a
a $\Var^\theta(U)$ se $U$ è uno stimatore corretto.
\item $m_\theta$ -- se $Q_\theta$ è discreta, densità discreta $q_\theta$ (o $p_\theta$); se $Q_\theta$ è assolutamente continua,
funzione di densità $f_\theta$.
\item $L$, $L_\theta$, $L_\theta(x_1, \ldots, x_n)$ -- funzione di verosomiglianza, ovverosia $L : \Theta \times \RR^n$ che
associa $(\theta, (x_i))$ a $L_\theta(x_1, \ldots, x_n) = \prod_i m_\theta(x_i)$.
\item $L_U$, $L_U(X_1, \ldots, X_n)$ -- si intende $L_{U(\omega)}(X_1(\omega), \ldots, X_n(\omega))$, per un dato $\omega \in S$.
\end{itemize} \end{itemize}
\end{multicols*} \end{multicols*}

@ -97,7 +97,7 @@ di ricavare la distribuzione di probabilità dei dati $x_1$, ..., $x_n$.
Denotiamo con $\Theta$ l'insieme dei possibili parametri $\theta$ per la distribuzione Denotiamo con $\Theta$ l'insieme dei possibili parametri $\theta$ per la distribuzione
di probabilità sui dati $x_1$, ..., $x_n$. \smallskip di probabilità sui dati $x_1$, ..., $x_n$. \smallskip
Denotiamo con $Q_\theta$ la probabilità che si otterrebbe utilizzando il parametro $\sigma$ Denotiamo con $Q_\theta$ la probabilità che si otterrebbe utilizzando il parametro $\theta$
nel modello di probabilità noto a meno di parametro. nel modello di probabilità noto a meno di parametro.
\end{notation} \end{notation}
@ -123,44 +123,44 @@ statistico $(S, \cS, (Q_\theta)_{\theta \in \Theta})$.
\begin{definition}[Campione i.i.d.~di taglia $n$] \begin{definition}[Campione i.i.d.~di taglia $n$]
Dato un modello statistico, si dice Dato un modello statistico, si dice
che una famiglia di v.a.~$(X_i : \Omega \to S)_{i \in [n]}$ i.i.d.~è un \textbf{campione i.i.d.~di taglia $n$} che una famiglia di v.a.~$(X_i : \Omega \to S)_{i \in [n]}$ i.i.d.~è un \textbf{campione i.i.d.~di taglia $n$}
se per ogni $\sigma \in \Sigma$ esiste uno spazio di probabilità $(\Omega, \FF, P_\sigma)$ tale per cui se per ogni $\theta \in \Theta$ esiste uno spazio di probabilità $(\Omega, \FF, P_\theta)$ tale per cui
$(P_\sigma)^{X_i}$ è uguale in legge a $Q_\theta$. $(P_\theta)^{X_i}$ è uguale in legge a $Q_\theta$.
\end{definition} \end{definition}
Dato un campione di taglia $n$, useremo $P_\sigma$ per riferirci alla misura di probabilità Dato un campione di taglia $n$, useremo $P_\theta$ per riferirci alla misura di probabilità
su $(\Omega, \FF)$ appena descritta. Scriveremo su $(\Omega, \FF)$ appena descritta. Scriveremo
come apice $\sigma$ per indicare di star lavorando nello spazio come apice $\theta$ per indicare di star lavorando nello spazio
di probabilità $(\Omega, \FF, P_\theta)$ (e.g.~$\EE^\sigma$ è riferito di probabilità $(\Omega, \FF, P_\theta)$ (e.g.~$\EE^\theta$ è riferito
a $P_\theta$). a $P_\theta$).
\begin{definition}[Statistica e stimatore] \begin{definition}[Statistica e stimatore]
Dato un campione i.i.d.~$(X_i)_{i \in [n]}$, si dice \textbf{statistica} Dato un campione i.i.d.~$(X_i)_{i \in [n]}$, si dice \textbf{statistica}
una v.a.~dipendente dalle v.a.~$X_i$ ed eventualmente dal parametro $\sigma$. una v.a.~dipendente dalle v.a.~$X_i$ ed eventualmente dal parametro $\theta$.
Si dice \textbf{stimatore} una statistica non dipendente direttamente da $\sigma$. Si dice \textbf{stimatore} una statistica non dipendente direttamente da $\theta$.
\end{definition} \end{definition}
\subsection{Correttezza di uno stimatore} \subsection{Correttezza di uno stimatore}
\begin{definition}[Stimatore corretto] \begin{definition}[Stimatore corretto]
Si dice che uno stimatore $U$ è \textbf{corretto} (o \textit{non distorto}) rispetto Si dice che uno stimatore $U$ è \textbf{corretto} (o \textit{non distorto}) rispetto
a $h : \Sigma \to \RR$ se per ogni $\sigma \in \Sigma$ vale che: a $h : \Theta \to \RR$ se per ogni $\theta \in \Theta$ vale che:
\begin{enumerate}[(i.)] \begin{enumerate}[(i.)]
\item $U$ è $P_\sigma$-integrabile (i.e.~ammette valore atteso), \item $U$ è $P_\theta$-integrabile (i.e.~ammette valore atteso),
\item $\EE^\sigma[U] = h(\sigma)$. \item $\EE^\theta[U] = h(\theta)$.
\end{enumerate} \end{enumerate}
\end{definition} \end{definition}
\begin{remark} \begin{remark}
La media campionaria è uno stimatore corretto del valore atteso ($h : \sigma \mapsto \EE^\sigma[X_1]$). Infatti: La media campionaria è uno stimatore corretto del valore atteso ($h : \theta \mapsto \EE^\theta[X_1]$). Infatti:
\[ \[
\EE^\sigma\!\left[\overline{X}\right] = \EE^\sigma[X_1]. \EE^\theta\!\left[\overline{X}\right] = \EE^\theta[X_1].
\] \]
\end{remark} \end{remark}
\begin{remark} \begin{remark}
La varianza campionaria è uno stimatore corretto della varianza ($h : \sigma \mapsto \Var^\sigma(X_1)$). Infatti: La varianza campionaria è uno stimatore corretto della varianza ($h : \theta \mapsto \Var^\theta(X_1)$). Infatti:
\[ \[
\EE^\sigma[S^2] = \frac{1}{n-1} \left( n \EE^\sigma[X_1^2] - \EE^\sigma[X_1^2] - (n-1) \EE^\sigma[X_1]^2 \right) = \Var^\sigma(X_1). \EE^\theta[S^2] = \frac{1}{n-1} \left( n \EE^\theta[X_1^2] - \EE^\theta[X_1^2] - (n-1) \EE^\theta[X_1]^2 \right) = \Var^\theta(X_1).
\] \]
Si verifica analogamente che il coeff.~di correlazione campionario è uno stimatore corretto del Si verifica analogamente che il coeff.~di correlazione campionario è uno stimatore corretto del
coeff.~di correlazione tra $X_i$ e $X_j$. coeff.~di correlazione tra $X_i$ e $X_j$.
@ -169,21 +169,21 @@ a $P_\theta$).
\subsection{Consistenza e non distorsione di una successione di stimatori} \subsection{Consistenza e non distorsione di una successione di stimatori}
\begin{definition}[Successione non distorta di stimatori] \begin{definition}[Successione non distorta di stimatori]
Una successione di stimatori $(U_k)_{k \in \NN^+}$ di $h(\sigma)$ si dice Una successione di stimatori $(U_k)_{k \in \NN^+}$ di $h(\theta)$ si dice
\textbf{asintoticamente non distorta} se $U_k$ è $P_\sigma$-integrabile \textbf{asintoticamente non distorta} se $U_k$ è $P_\theta$-integrabile
(i.e.~ammette valore atteso) e: (i.e.~ammette valore atteso) e:
\[ \[
\lim_{k \to \infty} \EE^\sigma[U_k] = h(\sigma). \lim_{k \to \infty} \EE^\theta[U_k] = h(\theta).
\] \]
\end{definition} \end{definition}
\begin{definition}[Successione consistente di stimatori] \begin{definition}[Successione consistente di stimatori]
Una successione di stimatori $(U_k)_{k \in \NN^+}$ di $h(\sigma)$ si dice Una successione di stimatori $(U_k)_{k \in \NN^+}$ di $h(\theta)$ si dice
\textbf{consistente} se: \textbf{consistente} se:
\[ \[
\lim_{k \to \infty} P_\sigma(\abs{U_k - h(\sigma)} > \eps) = 0, \quad \forall \eps > 0, \lim_{k \to \infty} P_\theta(\abs{U_k - h(\theta)} > \eps) = 0, \quad \forall \eps > 0,
\] \]
ovverosia se $U_k$ converge in $P_\sigma$-probabilità a $h(\sigma)$. ovverosia se $U_k$ converge in $P_\theta$-probabilità a $h(\theta)$.
\end{definition} \end{definition}
\begin{remark} \begin{remark}
@ -200,22 +200,22 @@ a $P_\theta$).
\subsection{Rischio quadratico e preferibilità} \subsection{Rischio quadratico e preferibilità}
\begin{definition}[Rischio quadratico di uno stimatore] \begin{definition}[Rischio quadratico di uno stimatore]
Dato uno stimatore $U$ di $h : \Sigma \to \RR$, si definisce Dato uno stimatore $U$ di $h : \Theta \to \RR$, si definisce
\textbf{rischio quadratico} di $U$ per $\sigma$ il seguente valore: \textbf{rischio quadratico} di $U$ per $\theta$ il seguente valore:
\[ \[
R_\sigma(U) = \EE[(U - h(\sigma))^2]. R_\theta(U) = \EE[(U - h(\theta))^2].
\] \]
\end{definition} \end{definition}
\begin{remark} \begin{remark}
Se $U$ è uno stimatore corretto di $h$, allora Se $U$ è uno stimatore corretto di $h$, allora
$R_\sigma(U) = \Var^\sigma(U)$. $R_\theta(U) = \Var^\theta(U)$.
\end{remark} \end{remark}
\begin{definition}[Preferibilità] \begin{definition}[Preferibilità]
Dati due stimatori $U$, $V$ di $h : \Sigma \to \RR$, si dice Dati due stimatori $U$, $V$ di $h : \Theta \to \RR$, si dice
che $U$ è \textbf{preferibile} rispetto a $V$ se che $U$ è \textbf{preferibile} rispetto a $V$ se
$R_\sigma(U) \leq R_\sigma(V)$ per ogni $\sigma \in \Sigma$. $R_\theta(U) \leq R_\theta(V)$ per ogni $\theta \in \Theta$.
\end{definition} \end{definition}
\subsection{Stimatore di massima verosomiglianza} \subsection{Stimatore di massima verosomiglianza}
@ -224,20 +224,20 @@ D'ora in avanti sottintenderemo di star lavorando sullo
spazio misurabile $(\RR, \BB(\RR))$. spazio misurabile $(\RR, \BB(\RR))$.
\begin{notation} \begin{notation}
Data la famiglia di probabilità $(Q_\sigma)_{\sigma \in \Sigma})$, usiamo Data la famiglia di probabilità $(Q_\theta)_{\theta \in \Theta})$, usiamo
scrivere $m_\sigma$ per riferirci alla densità discreta $q_\sigma$ (o $p_\sigma$) scrivere $m_\theta$ per riferirci alla densità discreta $q_\theta$ (o $p_\theta$)
di $Q_\sigma$, qualora sia discreta, oppure alla sua funzione di densità di $Q_\theta$, qualora sia discreta, oppure alla sua funzione di densità
$f_\sigma$, qualora $Q_\sigma$ sia assolutamente continua. $f_\theta$, qualora $Q_\theta$ sia assolutamente continua.
\end{notation} \end{notation}
\begin{definition}[Funzione di verosomiglianza] \begin{definition}[Funzione di verosomiglianza]
Dato un campione $(X_i)_{i \in [n]}$ i.i.d.~, si definisce Dato un campione $(X_i)_{i \in [n]}$ i.i.d.~, si definisce
\textbf{funzione di verosomiglianza} la funzione $L : \Sigma \times \RR^n$ \textbf{funzione di verosomiglianza} la funzione $L : \Theta \times \RR^n$
tale per cui: tale per cui:
\[ \[
(\sigma, (x_i)_{i \in [n]}) \xmapsto{L} L_\sigma(x_1, \ldots, x_n) \defeq m_\sigma(x_1) \cdots m_\sigma(x_n). (\theta, (x_i)_{i \in [n]}) \xmapsto{L} L_\theta(x_1, \ldots, x_n) \defeq m_\theta(x_1) \cdots m_\theta(x_n).
\] \]
Equivalentemente, $L_\sigma(x_1, \ldots, x_n)$ rappresenta la densità congiunta su $Q_\sigma$ Equivalentemente, $L_\theta(x_1, \ldots, x_n)$ rappresenta la densità congiunta su $Q_\theta$
di $x_1$, ..., $x_n$. di $x_1$, ..., $x_n$.
\end{definition} \end{definition}
@ -245,11 +245,11 @@ spazio misurabile $(\RR, \BB(\RR))$.
Scriveremo $L_U(X_1, \ldots, X_n)$ con $U$ v.a. e Scriveremo $L_U(X_1, \ldots, X_n)$ con $U$ v.a. e
$(X_i)_{i \in [n]}$ famiglia di v.a.~reali sottintendendo $(X_i)_{i \in [n]}$ famiglia di v.a.~reali sottintendendo
l'insieme $L_{U(\omega)}(X_1(\omega), \ldots, X_n(\omega))$, l'insieme $L_{U(\omega)}(X_1(\omega), \ldots, X_n(\omega))$,
assumendo $U(\omega) \in \Sigma$. assumendo $U(\omega) \in \Theta$.
\end{notation} \end{notation}
\begin{definition}[Stimatore di massima verosomiglianza di $\sigma$] \begin{definition}[Stimatore di massima verosomiglianza di $\theta$]
Si dice che uno stimatore $U$ è di \textbf{massima verosomiglianza di $\sigma$} Si dice che uno stimatore $U$ è di \textbf{massima verosomiglianza di $\theta$}
su un campione i.i.d.~$(X_i)_{i \in [n]}$ se: su un campione i.i.d.~$(X_i)_{i \in [n]}$ se:
\[ \[
L_U(X_1, \ldots, X_n) = \sup_{\theta \in \Theta} L_\theta(X_1, \ldots, X_n), \quad \forall \omega \in S. L_U(X_1, \ldots, X_n) = \sup_{\theta \in \Theta} L_\theta(X_1, \ldots, X_n), \quad \forall \omega \in S.
@ -273,7 +273,7 @@ spazio misurabile $(\RR, \BB(\RR))$.
Tale funzione ha massimo per $\theta = \overline{x}$, e dunque Tale funzione ha massimo per $\theta = \overline{x}$, e dunque
$\overline{X}$ è uno stimatore di massima verosomiglianza di $\theta$. \smallskip $\overline{X}$ è uno stimatore di massima verosomiglianza di $\theta$. \smallskip
In altre parole, la migliore stima di $\sigma$ data una sequenza di $n$ prove di Bernoulli è In altre parole, la migliore stima di $\theta$ data una sequenza di $n$ prove di Bernoulli è
la frequenza relativa di successi. la frequenza relativa di successi.
\end{example} \end{example}

Loading…
Cancel
Save