feat(eps): aggiorna le tabelle con le distribuzioni

main
parent 64a638a18f
commit 289804f0c3

File diff suppressed because it is too large Load Diff

@ -683,6 +683,7 @@ che $\mu$ assuma valori finiti per le funzioni semplici).
\end{lemma} \end{lemma}
\begin{theorem}[di convergenza monotona, o di Beppo Levi] \begin{theorem}[di convergenza monotona, o di Beppo Levi]
\label{th:convergenza_monotona}
Sia $(X_i)_{i \in \NN}$ una successione di v.a.~reali non negative q.c.~con Sia $(X_i)_{i \in \NN}$ una successione di v.a.~reali non negative q.c.~con
$X_i \goesup X$ q.c.~(cioè la successione è crescente e $X_i \goesup X$ q.c.~(cioè la successione è crescente e
$X_i(\omega) \to X(\omega)$ $P$-quasi ovunque). Allora $\EE[X_i] \goesup \EE[X]$. \smallskip $X_i(\omega) \to X(\omega)$ $P$-quasi ovunque). Allora $\EE[X_i] \goesup \EE[X]$. \smallskip
@ -701,4 +702,19 @@ che $\mu$ assuma valori finiti per le funzioni semplici).
Segue la stessa idea di dimostrazione per il teorema nella sua forma per l'integrale di Lebesgue. Segue la stessa idea di dimostrazione per il teorema nella sua forma per l'integrale di Lebesgue.
\end{theorem} \end{theorem}
\subsection{Calcolo del valore atteso}
\begin{proposition}
Sia $X : \Omega \to \RR$ una v.a.~assolutamente continua con densità $f$
e sia $\varphi : \RR \to \RR$ una funzione
boreliana. Allora valgono le seguenti affermazioni:
\begin{enumerate}[(i.)]
\item $\varphi(X)$ è integrabile se e solo se $\int_\RR \abs{\varphi(x)} f(x) \dx$ è finito.
\item se $\varphi(X)$ ammette valore atteso, allora $\EE[\varphi(X)] = \int_\RR \varphi(x) f(x) \dx$.
\end{enumerate}
Il risultato segue considerando in ordine a) le funzioni indicatrici, b) le funzioni semplici,
c) le funzioni non negative e d) le funzioni integrabili, applicando il
\hyperref[th:convergenza_monotona]{Teorema di convergenza monotona}.
\end{proposition}
\end{multicols*} \end{multicols*}

@ -4,21 +4,22 @@
\chapter*{Tabella e proprietà delle distribuzioni discrete} \chapter*{Tabella e proprietà delle distribuzioni discrete}
\addcontentsline{toc}{chapter}{Tabella e proprietà delle distribuzioni discrete} \addcontentsline{toc}{chapter}{Tabella e proprietà delle distribuzioni discrete}
\vskip -0.3in \vskip -0.45in
\begin{table}[htb] \begin{table}[htb]
\label{tab:distr_discrete} \label{tab:distr_discrete}
\scalebox{0.74}{ \scalebox{0.85}{
\begin{tabular}{|l|l|l|l|l|l|l|} \begin{tabular}{|l|l|l|l|l|l|}
\hline \hline
Nome distribuzione & Caso di utilizzo & Parametri & Densità discreta & Valore atteso & Momento secondo & Varianza \\ \hline Nome distribuzione & Caso di utilizzo & Parametri & Densità discreta & Valore atteso e momenti & Varianza \\ \hline
\begin{tabular}[c]{@{}l@{}}Distr. di Bernoulli\\ $X \sim B(\pp)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}Esperimento con esito\\ di successo ($1$) o\\ insuccesso ($0$).\end{tabular} & $\pp$ -- probabilità di successo. & $P(X=1) = \pp$, $P(X=0) = 1-\pp$ & $\EE[X] = \pp$ & $\EE[X^2] = \pp$ & $\Var(X) = \pp(1-\pp)$ \\ \hline \begin{tabular}[c]{@{}l@{}}Distr. di Bernoulli\\ $X \sim B(\pp)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}Esperimento con esito\\ di successo ($1$) o\\ insuccesso ($0$).\end{tabular} & $\pp$ -- probabilità di successo. & $P(X=1) = \pp$, $P(X=0) = 1-\pp$ & $\EE[X] = \EE[X^2] = \pp$ & $\Var(X) = \pp(1-\pp)$ \\ \hline
\begin{tabular}[c]{@{}l@{}}Distr. binomiale\\ $X \sim B(n, \pp)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}In una serie di $n$ esperimenti\\ col modello delle prove ripetute,\\ $X$ conta il numero di successi.\\ $X$ è in particolare somma di $n$\\ v.a.~i.i.d.~distribuite come $B(\pp)$.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$n$ -- numero di esperimenti\\ $\pp$ -- probabilità di successo\\ dell'$i$-esimo esperimento\end{tabular} & \begin{tabular}[c]{@{}l@{}}$P(X=k) = \binom{n}{k}{\pp}^k (1-\pp)^{n-k}$\\ per $0 \leq k \leq n$ e $0$ altrimenti.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$\EE[X] = n \pp$\\ (è somma di $n$ Bernoulliane)\end{tabular} & $\EE[X^2] = n \pp + n(n-1)\pp^2$ & \begin{tabular}[c]{@{}l@{}}$\Var(X) = n \pp(1-\pp)$\\ (è somma di $n$\\ Bernoulliane indipendenti)\end{tabular} \\ \hline \begin{tabular}[c]{@{}l@{}}Distr. binomiale\\ $X \sim B(n, \pp)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}In una serie di $n$ esperimenti\\ col modello delle prove ripetute,\\ $X$ conta il numero di successi.\\ $X$ è in particolare somma di $n$\\ v.a.~i.i.d.~distribuite come $B(\pp)$.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$n$ -- numero di esperimenti\\ $\pp$ -- probabilità di successo\\ dell'$i$-esimo esperimento\end{tabular} & \begin{tabular}[c]{@{}l@{}}$P(X=k) = \binom{n}{k}{\pp}^k (1-\pp)^{n-k}$\\ per $0 \leq k \leq n$ e $0$ altrimenti.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$\EE[X] = n \pp$\\ (è somma di $n$ Bernoulliane) \\ $\EE[X^2] = n \pp + n(n-1)\pp^2$ \end{tabular} & \begin{tabular}[c]{@{}l@{}}$\Var(X) = n \pp(1-\pp)$\\ (è somma di $n$\\ Bernoulliane indipendenti)\end{tabular} \\ \hline
\begin{tabular}[c]{@{}l@{}}Distr. binomiale\\ negativa\\ $X \sim \BinNeg(h, \pp)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}In una serie di infiniti esperimenti\\ col modello delle prove ripetute,\\ $X$ conta l'esperimento in cui si\\ ha l'$h$-esimo successo.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$h$ -- numero dei successi da misurare\\ $\pp \in (0, 1)$ -- probabilità di successo\\ dell'$i$-esimo esperimento\end{tabular} & \begin{tabular}[c]{@{}l@{}}$P(X=k) = \binom{k-1}{h-1} \pp^h (1-\pp)^{k-h}$\\ laddove definibile e $0$ altrimenti.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$\EE[X] = \frac{h}{\pp}$\\ (è somma di $h$ Geometriche)\end{tabular} & $\EE[X^2] = \frac{h(1+h-\pp)}{\pp^2}$ & \begin{tabular}[c]{@{}l@{}}$\Var(X) = \frac{h(1-\pp)}{\pp^2}$ \\ (è somma di $h$\\Geometriche indipendenti)\end{tabular} \\ \hline \begin{tabular}[c]{@{}l@{}}Distr. binomiale\\ negativa\\ $X \sim \BinNeg(h, \pp)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}In una serie di infiniti esperimenti\\ col modello delle prove ripetute,\\ $X$ conta l'esperimento in cui si\\ ha l'$h$-esimo successo.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$h$ -- numero dei successi da misurare\\ $\pp \in (0, 1)$ -- probabilità di successo\\ dell'$i$-esimo esperimento\end{tabular} & \begin{tabular}[c]{@{}l@{}}$P(X=k) = \binom{k-1}{h-1} \pp^h (1-\pp)^{k-h}$\\ laddove definibile e $0$ altrimenti.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$\EE[X] = \frac{h}{\pp}$\\ (è somma di $h$ Geometriche) \\ $\EE[X^2] = \frac{h(1+h-\pp)}{\pp^2}$ \end{tabular} & \begin{tabular}[c]{@{}l@{}}$\Var(X) = \frac{h(1-\pp)}{\pp^2}$ \\ (è somma di $h$\\Geometriche indipendenti)\end{tabular} \\ \hline
\begin{tabular}[c]{@{}l@{}}Distr. geometrica\\ $X \sim \Geom(\pp)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}In una serie di infiniti esperimenti\\ col modello delle prove ripetute,\\ $X$ conta l'esperimento in cui si\\ ha il primo successo. È pari a\\ $\BinNeg(1, \pp)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}$\pp \in (0, 1)$ -- probabilità di successo\\ all'$i$-esimo esperimento.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$P(X=k) = \pp (1-\pp)^{k-1}$ per\\ $k \geq 1$ e $0$ per $k=0$.\end{tabular} & $\EE[X] = \frac{1}{\pp}$ & $\EE[X^2] = \frac{2-\pp}{\pp^2}$ & $\Var(X) = \frac{1-\pp}{\pp^2}$ \\ \hline \begin{tabular}[c]{@{}l@{}}Distr. geometrica\\ $X \sim \Geom(\pp)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}In una serie di infiniti esperimenti\\ col modello delle prove ripetute,\\ $X$ conta l'esperimento in cui si\\ ha il primo successo. È pari a\\ $\BinNeg(1, \pp)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}$\pp \in (0, 1)$ -- probabilità di successo\\ all'$i$-esimo esperimento.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$P(X=k) = \pp (1-\pp)^{k-1}$ per\\ $k \geq 1$ e $0$ per $k=0$.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$\EE[X] = \frac{1}{\pp}$\\ $\EE[X^2] = \frac{2-\pp}{\pp^2}$\end{tabular} & $\Var(X) = \frac{1-\pp}{\pp^2}$ \\ \hline
\begin{tabular}[c]{@{}l@{}}Distr. ipergeometrica\\ $X \sim H(N, N_1, n)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}In un'estrazione di $n$ palline in\\ un'urna di $N$ palline, di cui\\ $N_1$ sono rosse, $X$ conta\\ il numero di palline rosse estratte.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$N$ -- numero di palline nell'urna\\ $N_1$ -- numero di palline rosse\\ nell'urna\\ $n$ -- numero di palline estratte\end{tabular} & \begin{tabular}[c]{@{}l@{}}$P(X=k) = \frac{\binom{N_1}{k} \binom{N-N_1}{n-k}}{\binom{N}{n}}$\\ laddove definibile e $0$ altrimenti.\end{tabular} & & & \\ \hline \begin{tabular}[c]{@{}l@{}}Distr. ipergeometrica\\ $X \sim H(N, N_1, n)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}In un'estrazione di $n$ palline in\\ un'urna di $N$ palline, di cui\\ $N_1$ sono rosse, $X$ conta\\ il numero di palline rosse estratte.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$N$ -- numero di palline nell'urna\\ $N_1$ -- numero di palline rosse\\ nell'urna\\ $n$ -- numero di palline estratte\end{tabular} & \begin{tabular}[c]{@{}l@{}}$P(X=k) = \frac{\binom{N_1}{k} \binom{N-N_1}{n-k}}{\binom{N}{n}}$\\ laddove definibile e $0$ altrimenti.\end{tabular} & & \\ \hline
\begin{tabular}[c]{@{}l@{}}Distri.di Poisson\\ (o degli eventi rari)\\ $X \sim \Poisson(\lambda)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}In una sequenza di $n \gg 1$\\ esperimenti di parametro $\pp \ll 1$\\ con $n \pp \approx \lambda$,\\ $X$ misura il numero di successi.\\ Si può studiare come distribuzione\\ limite della distribuzione binomiale.\end{tabular} & $\lambda$ -- tasso di successo. & $P(X=k) = \frac{\lambda^k}{k!} e^{-\lambda}$ & $\EE[X] = \lambda$ & $\EE[X^2] = \lambda(\lambda + 1)$ & $\Var(X) = \lambda$ \\ \hline \begin{tabular}[c]{@{}l@{}}Distri.di Poisson\\ (o degli eventi rari)\\ $X \sim \Poisson(\lambda)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}In una sequenza di $n \gg 1$\\ esperimenti di parametro $\pp \ll 1$\\ con $n \pp \approx \lambda$,\\ $X$ misura il numero di successi.\\ Si può studiare come distribuzione\\ limite della distribuzione binomiale.\end{tabular} & $\lambda$ -- tasso di successo. & $P(X=k) = \frac{\lambda^k}{k!} e^{-\lambda}$ & \begin{tabular}[c]{@{}l@{}}$\EE[X] = \lambda$\\ $\EE[X^2] = \lambda(\lambda + 1)$\end{tabular} & $\Var(X) = \lambda$ \\ \hline
\end{tabular}} \end{tabular}
}
\end{table} \end{table}
Valgono inoltre le seguenti altre proprietà: Valgono inoltre le seguenti altre proprietà:

@ -4,31 +4,31 @@
\chapter*{Tabella e proprietà delle distribuzioni assolutamente continue} \chapter*{Tabella e proprietà delle distribuzioni assolutamente continue}
\addcontentsline{toc}{chapter}{Tabella e proprietà delle distribuzioni assolutamente continue} \addcontentsline{toc}{chapter}{Tabella e proprietà delle distribuzioni assolutamente continue}
\vskip -0.3in \vskip -0.45in
\begin{center} \begin{center}
\begin{table}[htb] \begin{table}[htb]
\scalebox{1.1}{ \scalebox{1}{
\begin{tabular}{|l|l|l|l|l|l|} \begin{tabular}{|l|l|l|l|l|l|l|}
\hline \hline
Nome distribuzione & Caso di utilizzo & Parametri & Densità & Funzione di ripartizione & Probabilità \\ \hline Nome distribuzione & Caso di utilizzo & Parametri & Densità & Funzione di ripartizione & \begin{tabular}[c]{@{}l@{}}Valore atteso \\ e momenti\end{tabular} & Varianza \\ \hline
\begin{tabular}[c]{@{}l@{}}Distr. uniforme\\ $X \sim U(B)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}Estrazione di un\\ punto reale a caso\\ su $B$ senza preferenze.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$B \in \BB(\RR)$ -- insieme\\ da cui estrarre.\end{tabular} & $f(x) = \frac{1}{m(B)} 1_B(x)$ & $F(x) = \frac{m((-\infty, x] \cap B)}{m(B)}$ & $P(X \in A) = \frac{m(A \cap B)}{m(B)}$ \\ \hline \begin{tabular}[c]{@{}l@{}}Distr. uniforme\\ $X \sim U(B)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}Estrazione di un\\ punto reale a caso\\ su $B$ senza preferenze.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$B \in \BB(\RR)$ -- insieme\\ da cui estrarre.\end{tabular} & $f(x) = \frac{1}{m(B)} 1_B(x)$ & $F(x) = \frac{m((-\infty, x] \cap B)}{m(B)}$ & \begin{tabular}[c]{@{}l@{}}$\EE[X] = \frac{a+b}2$ se\\ $B = (a, b)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}$\Var(X) = \frac{(b-a)^2}{12}$\\ se $B = (a,b)$\end{tabular} \\ \hline
\begin{tabular}[c]{@{}l@{}}Distr. esponenz.\\ $X \sim \Exp(\lambda)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}Processo di Poisson\\ in senso continuo.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$\lambda > 0$ -- parametro\\ di Poisson.\end{tabular} & $f(x) = \lambda e^{-\lambda x} 1_{(0, \infty)} (x)$ & \begin{tabular}[c]{@{}l@{}}$F(x) = 1-e^{-\lambda x}$\\ per $x \geq 0$, $0$ altrimenti.\end{tabular} & \\ \hline \begin{tabular}[c]{@{}l@{}}Distr. esponenz.\\ $X \sim \Exp(\lambda)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}Processo di Poisson\\ in senso continuo.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$\lambda > 0$ -- parametro\\ di Poisson.\end{tabular} & $f(x) = \lambda e^{-\lambda x} 1_{(0, \infty)} (x)$ & \begin{tabular}[c]{@{}l@{}}$F(x) = 1-e^{-\lambda x}$\\ per $x \geq 0$, $0$ altrimenti.\end{tabular} & $\EE[X] = \frac{1}{\lambda}$ & $\Var(X) = \frac{1}{\lambda^2}$ \\ \hline
\begin{tabular}[c]{@{}l@{}}Distr. gamma\\ $X \sim \Gamma(r, \lambda)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}Estensione della distr.\\ binomiale in senso\\ continuo.\end{tabular} & $r > 0$, $\lambda > 0$. & $f(x) = \frac{\lambda^r}{\Gamma(r)} x^{r-1} e^{-\lambda x} 1_{(0, \infty)}(x)$ & & \\ \hline \begin{tabular}[c]{@{}l@{}}Distr. gamma\\ $X \sim \Gamma(r, \lambda)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}Estensione della distr.\\ binomiale in senso\\ continuo.\end{tabular} & $r > 0$, $\lambda > 0$. & $f(x) = \frac{\lambda^r}{\Gamma(r)} x^{r-1} e^{-\lambda x} 1_{(0, \infty)}(x)$ & & $\EE[X] = \frac{r}{\lambda}$ & $\Var(X) = \frac{r}{\lambda^2}$ \\ \hline
\begin{tabular}[c]{@{}l@{}}Distr. normale\\ $X \sim N(m, \sigma^2)$\end{tabular} & & \begin{tabular}[c]{@{}l@{}}$m$ -- media.\\ $\sigma^2 > 0$ -- varianza.\end{tabular} & $f(x) = \frac{1}{\sqrt{2\pi \sigma^2}} e^{-\nicefrac{(x-m)^2}{2\sigma^2}}$ & \begin{tabular}[c]{@{}l@{}}$\Phi(x) = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^x e^{-\nicefrac{t^2}{2}} \dt$\\ per $N(0, 1)$ e si standardizza\\ le altre distr. con il cambio\\ di var. $z = \nicefrac{(x-m)}{\sigma}$.\end{tabular} & \\ \hline \begin{tabular}[c]{@{}l@{}}Distr. normale\\ $X \sim N(m, \sigma^2)$\end{tabular} & & \begin{tabular}[c]{@{}l@{}}$m$ -- media.\\ $\sigma^2 > 0$ -- varianza.\end{tabular} & $f(x) = \frac{1}{\sqrt{2\pi \sigma^2}} e^{-\nicefrac{(x-m)^2}{2\sigma^2}}$ & \begin{tabular}[c]{@{}l@{}}$\Phi(x) = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^x e^{-\nicefrac{t^2}{2}} \dt$\\ per $N(0, 1)$ e si standardizza\\ le altre distr. con il cambio\\ di var. $z = \nicefrac{(x-m)}{\sigma}$.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$\EE[X] = m$. Inoltre\\ $\EE[(X-m)^p] = 0$ se\\ $p$ è dispari\\ e $\EE[(X-m)^p] =$ \\ $= \sigma^p(p-1)!!$\\ se $p$ è pari, dove\\ $!!$ indica il\\ \textit{doppio fattoriale}.\end{tabular} & $\Var(X) = \sigma^2$ \\ \hline
\end{tabular} \end{tabular}
} }
\end{table} \end{table}
\end{center} \end{center}
Si ricorda che la funzione $\Gamma$ è definita in modo tale che $\Gamma(x) = \int_0^\infty t^{x-1} e^{-t} \dt$; si tratta Si ricorda che la funzione $\Gamma$ è definita in modo tale che $\Gamma(x) = \int_0^\infty t^{x-1} e^{-t} \dt$; si tratta
di un'estensione della nozione di fattoriale ai valori reali (infatti, $\Gamma(n+1) = n!$ per $n \in \NN$). di un'estensione della nozione di fattoriale ai valori reali (infatti, $\Gamma(n+1) = n!$ per $n \in \NN$). \smallskip
% Valgono inoltre le seguenti altre proprietà: Valgono inoltre le seguenti altre proprietà:
%
% \small \small
% \begin{itemize} \begin{itemize}
% \item \item La distribuzione $\Exp(\lambda)$ coincide con la distribuzione $\Gamma(1, \lambda)$.
% \end{itemize} \end{itemize}
\end{landscape} \end{landscape}

@ -1,6 +1,6 @@
%-------------------------------------------------------------------- %--------------------------------------------------------------------
\chapter*{Tabella e proprietà della f.d.r.~\texorpdfstring{$\Phi(x)$}{Φ(x)} della normale standard \texorpdfstring{$N(0, 1)$}{N(0, 1)}} \chapter*{Tabella e proprietà della f.d.r.~\texorpdfstring{$\Phi(x)$}{Φ(x)} della distr.~normale standard \texorpdfstring{$N(0, 1)$}{N(0, 1)}}
\addcontentsline{toc}{chapter}{Tabella e proprietà della f.d.r.~\texorpdfstring{$\Phi(x)$}{Φ(x)} della normale standard \texorpdfstring{$N(0, 1)$}{N(0, 1)}} \addcontentsline{toc}{chapter}{Tabella e proprietà della f.d.r.~\texorpdfstring{$\Phi(x)$}{Φ(x)} della distr.~normale standard \texorpdfstring{$N(0, 1)$}{N(0, 1)}}
Per $a \in \RR$ si definisce la funzione $\Phi(a) = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^a e^{-\nicefrac{x^2}{2}} \dx$. L'integrale $\Phi(\infty) \defeq \frac{1}{\sqrt{2\pi}} \int_{-\infty}^a e^{-\nicefrac{x^2}{2}} \dx$ vale Per $a \in \RR$ si definisce la funzione $\Phi(a) = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^a e^{-\nicefrac{x^2}{2}} \dx$. L'integrale $\Phi(\infty) \defeq \frac{1}{\sqrt{2\pi}} \int_{-\infty}^a e^{-\nicefrac{x^2}{2}} \dx$ vale
esattamente $1$, mentre $\Phi(-\infty) \defeq 0$. Per la parità di $e^{-\nicefrac{x^2}{2}}$ vale che $\Phi(a) = 1 - \Phi(-a)$ (\textbf{simmetria}). A partire da questa funzione si può calcolare esattamente $1$, mentre $\Phi(-\infty) \defeq 0$. Per la parità di $e^{-\nicefrac{x^2}{2}}$ vale che $\Phi(a) = 1 - \Phi(-a)$ (\textbf{simmetria}). A partire da questa funzione si può calcolare

Loading…
Cancel
Save