feat(eps): aggiunge la scheda riassuntiva

main
parent f3b74ada6f
commit 9f02dedec5

@ -0,0 +1,17 @@
# [Elementi di probabilità e statistica](https://esami.unipi.it/programma.php?c=57989)
- [Programma del corso 📘](https://esami.unipi.it/programma.php?c=57989)
- [Registro del corso 📑](https://unimap.unipi.it/registri/dettregistriNEW.php?re=10338931::::&ri=015863)
Il corso di Elementi di probabilità e statistica (EPS) è ancora in corso, dunque questa cartella vedrà ancora aggiornamenti per il momento.
Questa cartella contiene in particolar modo una *Scheda riassuntiva*, che, come suggerisce il nome, è un recap completo di tutta la
teoria del corso. Tale scheda include inoltre le tabelle numeriche più utili per lo svolgimento degli esercizi.
Questo progetto non sarebbe mai stato realizzabile senza il meraviglioso
aiuto di alcuni miei amici e colleghi, che ora elenco:
- [Avio Baccioli](mailto:aviobac@gmail.com),
- [Federico Volpe](https://poisson.phc.dm.unipi.it/~volpe/),
- [Mario Zito](mailto:m.zito12@studenti.unipi.it).
Il progetto si basa su un layout di [Luca Lombardo](https://lukefleed.xyz/), utilizzato in particolare nelle [Schede riassuntive di Geometria 2](https://github.com/lukefleed/G2-cheat-sheet), basate sulle [dispense-capolavoro](https://www.overleaf.com/read/vsdktbwrgpth) di [Francesco Sorce](mailto:f.sorce@studenti.unipi.it).

File diff suppressed because it is too large Load Diff

@ -0,0 +1,33 @@
\documentclass[10pt]{report}
\input{preamble.tex}
%PER CAMBIARE I MARGINI
%\usepackage[margin=2cm]{geometry}
%----------- Setup stilistico ----------------
\renewcommand\thefootnote{\textcolor{blue}{\arabic{footnote}}}
\renewcommand{\chaptername}{Parte}
\addto\captionsitalian{\renewcommand{\chaptername}{Parte}}
\title{\Huge{Schede riassuntive di \\ \textit{Elementi di Probabilità e Statistica}}}
\date{A.A. 2023-2024 \\[0.6in] Ultimo aggiornamento: \today}
\author{A cura di Gabriel Antonio Videtta\footnote{Basato su un layout di \underline{Luca Lombardo} e di \underline{Francesco Sorce}.} \\ \href{mailto:g.videtta1@studenti.unipi.it}{\texttt{g.videtta1@studenti.unipi.it}}}
\begin{document}
\maketitle
\begin{multicols*}{2}
\tableofcontents
\end{multicols*}
\newpage
\input{sections/0-notazioni.tex}
\input{sections/0-prerequisiti.tex}
\input{sections/0-identità-somme.tex}
\input{sections/1-spazi-in-generale.tex}
\input{sections/2-probabilità-discreta.tex}
\input{sections/tabella-modelli-discreti.tex}
\input{sections/tabella-phi.tex}
\end{document}

@ -0,0 +1,160 @@
\usepackage[top=1.5cm,bottom=1.5cm,left=1.5cm,right=1.5cm]{geometry}
\usepackage[utf8]{inputenc}
\usepackage[italian]{babel}
\usepackage{amsmath,amssymb,amsfonts,amsthm,stmaryrd}
\usepackage{mathrsfs} % per mathscr
\usepackage{graphicx}% ruota freccia per le azioni
\usepackage{marvosym}% per il \Lightning
\usepackage{array}
\usepackage{faktor} % per gli insiemi quoziente
\usepackage[colorlinks=false]{hyperref}
\usepackage{xparse} % Per nuovi comandi con tanti input opzionali
\usepackage{relsize} % per \mathlarger
\usepackage{tikz-cd}
\usepackage{multicol}
\usepackage{multirow}
\usepackage{cancel}
\usepackage{fourier}
\usepackage{enumerate}
\usepackage{soul}
\usepackage{nicefrac}
\usepackage{longtable}
\usepackage{pdflscape}
\newtheorem*{warn}{\warning \; Attenzione}
\newtheoremstyle{customth}
{\topsep}{\topsep}
{\itshape}{}{\bfseries}{.}{\newline}{}
\newtheoremstyle{customdef}
{\topsep}{\topsep}
{\normalfont}{}{\bfseries}{.}{\newline}{}
\newtheoremstyle{customrem}
{\topsep}{\topsep}
{\normalfont}{}{\itshape}{.}{\newline}{}
\usepackage{fourier}
\theoremstyle{customth}
\newtheorem{theorem}{Teorema}[chapter]
\newtheorem{lemma}[theorem]{Lemma}
\newtheorem{corollary}[theorem]{Corollario}
\newtheorem{proposition}[theorem]{Proposizione}
\newtheorem{fact}[theorem]{Fatto}
\newtheorem{application}[theorem]{Applicazione}
\theoremstyle{customrem}
\newtheorem{remark}[theorem]{Osservazione\,}
\theoremstyle{customdef}
\newtheorem{definition}[theorem]{Definizione}
\newtheorem{notation}[theorem]{Notazione}
\newtheorem{example}[theorem]{Esempio}
\DeclareMathOperator{\BinNeg}{BinNeg}
\DeclareMathOperator{\Geom}{Geom}
\DeclareMathOperator{\Poisson}{Poisson}
\makeatletter
\renewenvironment{proof}[1][\proofname]{\par
\pushQED{\qed}%
\normalfont \topsep6\p@\@plus6\p@\relax
\trivlist
\item[\hskip\labelsep
\itshape
#1\@addpunct{.}]\mbox{}\\*
}{%
\popQED\endtrivlist\@endpefalse
}
\makeatother
%============ Simboli standard =================
\newcommand{\FF}{\mathcal{F}}
\newcommand{\PP}{\mathcal{P}}
\newcommand{\NN}{\mathbb{N}}
\newcommand{\RR}{\mathbb{R}}
\newcommand{\pp}{\text{p\hspace{-0.7em}\raisebox{-3.4pt}{--}}\,\,}
\newcommand{\pbern}{\pp}
\newcommand{\defeq}{\overset{\mathrm{def}}{=}}
\newcommand{\deq}{\overset{\mathrm{(d)}}{=}}
\newcommand{\toprob}{\overset{\mathbb{P}}{\to}}
\DeclareMathOperator{\VA}{VA}
\DeclareMathOperator{\im}{im}
\DeclareMathOperator{\supp}{supp}
\DeclareMathOperator{\id}{id}
\DeclareMathOperator{\sgn}{sgn}
\DeclareMathOperator{\CI}{CI}
\newcommand{\eps}{\varepsilon}
\newcommand{\dx}{\mathop{dx}}
%\setcounter{secnumdepth}{1}
\newcommand{\groupto}{\rightrightarrows}
\newcommand{\restr}[2]{
#1\arrowvert_{#2}
}
\makeatletter
\def\moverlay{\mathpalette\mov@rlay}
\def\mov@rlay#1#2{\leavevmode\vtop{%
\baselineskip\z@skip \lineskiplimit-\maxdimen
\ialign{\hfil$\m@th#1##$\hfil\cr#2\crcr}}}
\newcommand{\charfusion}[3][\mathord]{
#1{\ifx#1\mathop\vphantom{#2}\fi
\mathpalette\mov@rlay{#2\cr#3}
}
\ifx#1\mathop\expandafter\displaylimits\fi}
\makeatother
\newcommand{\cupdot}{\charfusion[\mathbin]{\cup}{\cdot}}
\newcommand{\bigcupdot}{\charfusion[\mathop]{\bigcup}{\cdot}}
\newcommand{\goesup}{\nearrow}
\newcommand{\goesdown}{\searrow}
\newcommand{\qc}{q.c.\ \!}
\newcommand{\va}{v.a.\ \!}
\newcommand{\EE}{\mathbb{E}}
\DeclareMathOperator{\Var}{Var}
\DeclareMathOperator{\Cov}{Cov}
\newcommand{\inv}{^{-1}}
\newcommand{\abs}[1]{\left\lvert #1 \right\rvert}
\newcommand{\norm}[1]{\left\lVert #1 \right\rVert}
\NeedsTeXFormat{LaTeX2e}
%\ProvidesPackage{quiver}[2021/01/11 quiver]
% `tikz-cd` is necessary to draw commutative diagrams.
\RequirePackage{tikz-cd}
% `amssymb` is necessary for `\lrcorner` and `\ulcorner`.
\RequirePackage{amssymb}
% `calc` is necessary to draw curved arrows.
\usetikzlibrary{calc}
% `pathmorphing` is necessary to draw squiggly arrows.
\usetikzlibrary{decorations.pathmorphing}
% A TikZ style for curved arrows of a fixed height, due to AndréC.
\tikzset{curve/.style={settings={#1},to path={(\tikztostart)
.. controls ($(\tikztostart)!\pv{pos}!(\tikztotarget)!\pv{height}!270:(\tikztotarget)$)
and ($(\tikztostart)!1-\pv{pos}!(\tikztotarget)!\pv{height}!270:(\tikztotarget)$)
.. (\tikztotarget)\tikztonodes}},
settings/.code={\tikzset{quiver/.cd,#1}
\def\pv##1{\pgfkeysvalueof{/tikz/quiver/##1}}},
quiver/.cd,pos/.initial=0.35,height/.initial=0}
% TikZ arrowhead/tail styles.
\tikzset{tail reversed/.code={\pgfsetarrowsstart{tikzcd to}}}
\tikzset{2tail/.code={\pgfsetarrowsstart{Implies[reversed]}}}
\tikzset{2tail reversed/.code={\pgfsetarrowsstart{Implies}}}
% TikZ arrow styles.
\tikzset{no body/.style={/tikz/dash pattern=on 0 off 1mm}}

@ -0,0 +1,54 @@
%--------------------------------------------------------------------
\chapter*{Lista delle identità sulle sommatorie}
\addcontentsline{toc}{chapter}{Lista delle identità sulle sommatorie}
\setlength{\parindent}{2pt}
\section*{Identità sulle sommatorie}
\begin{itemize}
\item $\binom{n}{k} = \binom{n}{n-k}$ -- ogni scelta di $k$ oggetti corrisponde
a non sceglierne $n-k$, e dunque vi è un principio di ``dualità''.
\item $\binom{n}{k} = \binom{n-1}{k-1} + \binom{n-1}{k}$ -- le combinazioni
di $n$ oggetti in $k$ posizioni si ottengono facendo la somma delle combinazioni
ottenute fissando un oggetto e combinando gli altri $n-1$ oggetti sui $k-1$
posti rimanenti, e delle combinazioni ottenute ignorando lo stesso oggetto,
ossia combinando gli altri $n-1$ oggetti su tutti e $k$ i posti.
\item $(1 + x)^n = \sum_{i = 0}^n \binom{n}{i} x^i$ -- Teorema del binomio di Newton.
\item $2^n = \sum_{i = 0}^n \binom{n}{i}$ -- Segue immediatamente dal Teorema del binomio di Newton; è coerente col fatto che si stanno contando le parti di $[n]$.
\item $\sum_{i = 0}^n (-1)^i \binom{n}{i} = 0$ -- Segue immediatamente dal Teorema del binomio
di Newton (infatti $(1-1)^n = 0$).
\item $\sum_{i = 0}^n i \binom{n}{i} = n 2^{n-1}$ -- Segue derivando rispetto a $x$ l'identità
del Teorema del binomio di Newton.
\item $\sum_{i = 0}^n \binom{n}{i} \pp^i (1 - \pp)^{n-i} = 1$ per $\pp \in [0, 1]$ -- Segue dal Teorema del binomio di Newton.
\item $\sum_{i=0}^n \binom{n}{i}^2 = \sum_{i=0}^n \binom{n}{i} \binom{n}{n-i} = \binom{2n}{n}$ -- Dato un gruppo di $n$ maschi e di $n$ femmine, si vuole
contare quanti team di $n$ persone si possono costruire prendendo persone
da entrambi i gruppi. Chiaramente la risposta è $\binom{2n}{n}$, ma si
può contare lo stesso numero di scelte fissando a ogni passo l'indice
$i$, che conta il numero di maschi nel team, a cui corrispondono
$\binom{n}{i} \binom{n}{n-i}$ scelte. L'identità segue dunque dal Principio
del \textit{double counting}.
\item $\sum_{i=r}^n \binom{i}{r} = \binom{n+1}{r+1}$ -- Dato un gruppo di $r$
persone distinguibili e di $n$ bastoni indistinguibili, per contare le possibili
distribuzioni con cui si possono affidare gli $n$ bastoni è sufficiente applicare
la combinazione con ripetizione, ottenendo $\binom{n+r-1}{r-1}$; un altro modo
di far ciò è fissare $i$ bastoni da affidare a una persona fissata in precedenza
e distribuire gli $n-i$ bastoni rimanenti tra gli altri, che a ogni $i$ si può fare in
$\binom{n-i+k-2}{k-2}$ modi. L'identità segue dunque dal Principio del \textit{double
counting} riparametrizzando la somma ottenuta.
\item $\sum_{i=1}^n i = \frac{n(n+1)}{2}$ -- Somma dei numeri da $1$ a $n$.
\item $\sum_{i=1}^n i^2 = \frac{n(n+1)(2n+1)}{6}$ -- Somma dei quadrati da $1$ a $n$.
\item $\sum_{i=1}^n i^3 = \left[ \sum_{i=1}^n i \right]^2 = \frac{n^2(n+1)^2}{4}$ -- Somma
dei cubi da $1$ a $n$.
\item $\sum_{i=0}^n a^i = \frac{a^{n+1}-1}{a-1}$ per $a \neq 1$, $n$ altrimenti -- Somma
delle potenze di $a$ con esponente da $0$
a $n$.
\item $\sum_{i=0}^n i a^i = \frac{a}{(1-a)^2} \left[1 - (n+1)a^n + na^{n+1} \right]$ -- Segue derivando la somma delle potenze.
\item $\sum_{i=0}^n i^2 a^i = \frac{a}{(1-a)^3} \left[ (1+a) - (n+1)^2 a^n + (2n^2 + 2n-1)a^{n+1} - n^2 a^{n+2} \right]$ -- Segue
derivando due volte la somma delle potenze.
\item $\sum_{i=0}^\infty x^i = \frac{1}{1-x}$ per $\abs{x} < 1$ -- Serie geometrica. Deriva
prendendo il limite per $n \to \infty$ della
somma di potenze.
\item $\sum_{i=0}^\infty i x^i = \frac{x}{(1-x)^2}$ per $\abs{x} < 1$ -- Segue derivando la serie geometrica.
\item $\sum_{i=0}^\infty i^2 x^i = \frac{x(x+1)}{(1-x)^3}$ per $\abs{x} < 1$ -- Segue derivando due volte
la serie geometrica.
\end{itemize}

@ -0,0 +1,198 @@
%--------------------------------------------------------------------
\chapter*{Notazioni impiegate}
\addcontentsline{toc}{chapter}{Notazioni impiegate}
\setlength{\parindent}{2pt}
\begin{multicols*}{2}
\section*{Algebra lineare}
\begin{itemize}
\item $q_\varphi$ -- dato uno spazio vettoriale $V$ equipaggiato con un
prodotto scalare $\varphi$, $q_\varphi$ è la forma quadratica associatogli, ovverosia
$q_\varphi(v) = \varphi(v, v)$.
\item $\norm{v}_{\varphi}$ -- dato uno spazio vettoriale reale $V$ equipaggiato con
un prodotto scalare (semi)definito positivo $\varphi$, $\norm{\cdot}_{\varphi}$ è
la (semi)norma indotta da $\varphi$, ovverosia $\norm{v}_{\varphi} = \sqrt{q_{\varphi}(v)} = \sqrt{\varphi(v, v)}$.
\item vettore isotropo --
vettore che annulla la forma quadratica.
\item vettore anisotropo -- vettore non isotropo, vettore che non annulla la forma quadratica.
\item $\cos_\varphi(v, w)$, $\cos(v, w)$ -- dati due vettori anisotropi $v$, $w$ su uno spazio vettoriale reale $V$ equipaggiato
di un prodotto scalare semidefinito positivo $\varphi$, si definisce
$\cos_\varphi(v, w)$ (o $\cos(v, w)$ se $\varphi$ è noto dal contesto) in modo tale che:
\[
\cos_\varphi(v, w) = \frac{\varphi(v, w)}{\norm{v}_\varphi \cdot \norm{w}_\varphi}.
\]
\item vettore $v$ ortogonale a $w$ per $\varphi$ -- Due vettori $v$, $w$ tali
per cui $\varphi(v, w) = 0$.
\item $V^\perp_{\varphi}$ -- Radicale del prodotto scalare (o hermitiano) $\varphi$
sullo spazio $V$, ovverosia sottospazio dei vettori ortogonali ai vettori di tutto
lo spazio.
\item $\CI(\varphi)$ -- Sottoinsieme dei vettori di $V$ che annullano $q_{\varphi}$, ossia
sottoinsieme dei vettori isotropi.
\item $C_{\varphi}(v, w)$ -- coefficiente di Fourier di
$v$ rispetto a $w$, ossia $C(v, w) \defeq \frac{\varphi(v, w)}{\varphi(v, v)}$.
\end{itemize}
\section*{Analisi matematica}
\begin{itemize}
\item $f(A_i) \goesup x$ -- la successione $(f(A_i))_{i \in \NN}$ a valori
in $\RR$ è crescente al crescere di $i$ e ha come limite $x$.
\item $f(A_i) \goesdown x$ -- la successione $(f(A_i))_{i \in \NN}$ a valori
in $\RR$ è decrescente al crescere di $i$ e ha come limite $x$.
\item esponente coniugato di $p$ -- per $p > 1$, l'esponente coniugato
$p'$ di $p$ è un numero reale $p' > 1$ tale per cui:
\[
\frac{1}{p} + \frac{1}{p'} = 1.
\]
\item $\norm{x}_p$ -- norma $p$-esima del vettore $x \in \RR^n$, ovverosia:
\[
\norm{x}_p = \left(\sum_{i \in [n]} \abs{x_i}^p\right)^\frac{1}{p}.
\]
Per $p = 2$, si scrive semplicemente $\norm{x}$, e coincide con la norma
indotta dal prodotto scalare canonico di $\RR^n$.
\item $f > g$ -- Per una funzione $f$ a valori reali, come affermazione
corrisponde a dire che per un qualsiasi punto del dominio $x$, $f(x) > g(x)$. Si estende naturalmente a $<$, $\geq$, $\leq$ (eventualmente con
catene di disuguaglianze). Da non
confondersi con l'insieme $f > g$.
\item $a$ -- Per una costante $a \in \RR$ la mappa costante $D \ni d \mapsto a \in \RR$;
la sua interpretazione dipende dal contesto.
\item $f^+$ -- Parte positiva di una mappa $f$ a valori reali, ovverosia
$f^+(a)$ è uguale a $f(a)$ se $f(a) \geq 0$ e $0$ altrimenti.
\item $f^-$ -- Parte negativa di una mappa $f$ a valori reali, ovverosia
$f^-(a)$ è uguale a $-f(a)$ se $f(a) \leq 0$ e $0$ altrimenti. In questo
modo $f = f^+ - f^-$.
\item $\exp$ -- Funzione esponenziale $e^x$.
\item $\log \equiv \ln = \log_e$ -- Logaritmo naturale, ossia logaritmo in base $e$.
\end{itemize}
\section*{Combinatoria}
\begin{itemize}
\item $D_{n,k} = \frac{n!}{(n-k)!}$ -- numero di disposizioni ottenute prendendo
$k$ elementi tra $n$ oggetti.
\item $\binom{n}{k} = C_{n,k}$ -- il coefficiente binomiale $n$ su $k$,
ovverosia il numero di combinazioni possibili prendendo $k$ elementi tra $n$ oggetti; equivale a $\frac{n!}{(n-k)!k!} = D_{n,k}/k!$. Alternativamente,
il numero di sottoinsiemi di $k$ elementi in $[n]$.
\item $S(I)$ -- gruppo simmetrico relativo a $I$, gruppo delle permutazioni
di $I$.
\item $S_n$ -- $n$-esimo gruppo simmetrico, gruppo delle permutazioni
di $[n]$.
\end{itemize}
\section*{Teoria degli insiemi}
\begin{itemize}
\item $\PP(\Omega)$ -- insieme delle parti di $\Omega$, ossia insieme
dei sottoinsiemi di $\Omega$.
\item $A \cupdot B$ -- unione disgiunta di $A$ e $B$, ovverosia $A \cup B$ con
l'ipotesi che $A \cap B = \emptyset$ (la notazione si estende naturalmente a
una famiglia di insiemi a due a due disgiunti).
\item $A \Delta B = A \setminus B \cupdot B \setminus A$ -- differenza simmetrica
tra $A$ e $B$.
\item $[n]$ -- l'insieme $\{1, \ldots, n\}$.
\item $\prod_{i \in I} S_i$ con $S_i$ insieme e $I$ ordinato -- prodotto cartesiano degli $S_i$, ordinato secondo $I$.
\item $[[n]]$ -- l'insieme $\{0, \ldots, n\} = \{0\} \cup [n]$.
\item $\#A$, $\abs{A}$ -- numero di elementi di $A$, o semplicemente la cardinalità di $A$.
\item insieme finito -- insieme in bigezione con $[n]$ per qualche $n \in \NN$.
\item insieme numerabile -- insieme in bigezione con $\NN$.
\item $A_i \goesup A$ -- la famiglia $(A_i)_{i \in \NN}$ è crescente e ha
come limite $A$, ovverosia $A_i \subseteq A_{i+1}$ per ogni $i \in \NN$ e
$\bigcup_{i \in \NN} A_i = A$.
\item $A_i \goesdown A$ -- la famiglia $(A_i)_{i \in \NN}$ è decrescente e ha
come limite $A$, ovverosia $A_i \supseteq A_{i+1}$ per ogni $i \in \NN$ e
$\bigcap_{i \in \NN} A_i = A$.
\item $\omega_i$ -- $i$-esima coordinata di $\omega \in \Omega$, se
$\Omega$ è un prodotto cartesiano di finiti termini o di un numero
numerabile di termini.
\item $A^1 \defeq A$ -- useremo questa notazione per comodità.
\item $A^c$ -- il complementare di $A$ riferito a $\Omega$, quindi $\Omega \setminus A$, in modo tale che $\Omega = A \cupdot A^c$.
\item $X\inv(A)$ -- controimmagine dell'insieme $A \subseteq C$ in riferimento
alla funzione $X : D \to C$, ovverosia $X\inv(A) = \{\omega \in D \mid X(\omega) \in A\}$.
\item $S_X$, $\im X$ -- immagine della funzione $X$.
\item $\supp X$ -- supporto di $X$, ovverosia sottoinsieme del
dominio degli elementi che non annullano $X$.
\item $1_A$, $I_A$ -- funzione indicatrice di $A$, ovverosia la
funzione $1_A : B \to [[1]] \subseteq \RR$ riferita ad $A \subseteq B$
tale per cui:
\[
1_A(b) = \begin{cases}
1 & \text{se } b \in A, \\
0 & \text{altrimenti}.
\end{cases}
\]
\item $\groupto$ -- simbolo utilizzato al posto $\to$ quando si elencano
più funzioni che condividono o lo stesso dominio o lo stesso codominio (e.g.~$f$, $g : A$, $B \groupto C$ elenca una funzione $f : A \to C$ e una $g : B \to C$; $f$, $g : A \groupto B$, $C$ elenca una funzione
$f : A \to B$ e una $g : A \to C$).
\end{itemize}
\section*{Probabilità e teoria della misura}
\begin{itemize}
\item $\Omega$ -- spazio campionario, l'insieme di tutti i possibili esiti dell'esperimento aleatorio considerato.
\item $\sigma(\tau)$ -- $\sigma$-algebra generata dalla famiglia $\tau \subseteq \PP(\Omega)$.
\item $\sigma\{A_1, \ldots, A_n\}$ -- $\sigma$-algebra generata dalla famiglia
$\tau = \{A_1, \ldots, A_n\} \subseteq \PP(\Omega)$.
\item $\FF$ -- $\sigma$-algebra relativa a $\Omega$, ossia l'insieme dei possibili eventi.
\item $(\Omega, \FF)$ -- spazio misurabile.
\item $P$ -- misura di probabilità su uno spazio misurabile.
\item $(\Omega, \FF, P)$ -- spazio di probabilità.
\item \qc -- quasi certo/quasi certamente.
\item $p$ -- per $\Omega$ discreto, funzione di densità discreta.
\item \va -- variabile aleatoria.
\item $P^X$ -- legge della v.a.~$X$ rispetto a $P$.
\item $p_X$ -- densità della legge della v.a.~$X$, rispetto a $P$.
\item $X \in A$ -- per una \va $X : \Omega \to S$,
$X \in A$ è l'insieme $X\inv(A)$. Si estende naturalmente
al caso $\notin$.
\item $X = a$ -- per una \va $X : \Omega \to S$,
$X = a$ è l'insieme $X\inv(a)$. Si estende naturalmente
al caso $\neq$.
\item $X = Y$ -- per due \va $X, Y : \Omega \groupto S$
l'insieme $\{ \omega \in \Omega \mid X(\omega) = Y(\omega) \}$.
Si estende naturalmente al caso $\neq$ e in modo analogo a $>$, $<$, $\leq$, $\geq$.
\item $X > a$ -- per una \va reale $X : \Omega \to \RR$,
$X > a$ è l'insieme $X\inv((a, \infty))$; per una \va discreta
$X : \Omega \to \RR$ è l'insieme $X\inv(\{m \in \NN \mid m > a\})$.
Si estende naturalmente ai casi $<$, $\leq$, $\geq$ (eventualmente
anche con una catena di disuguaglianze). Da non confondersi con
l'affermazione $X > a$ per $X$ a valori reali.
\item $\varphi(X)$ -- per una \va, la composizione $\varphi \circ X$.
\item $\deq$, $\sim$ -- per due v.a.~$X, Y : \Omega_1, \Omega_2 \groupto S$
indica l'uguaglianza di legge, ovverosia $P_{\Omega_1}^X = P_{\Omega_2}^Y$.
\item i.d.~-- identicamente distribuite; utilizzato in relazione a un gruppo
di v.a.~che condividono la stessa legge (spesso rispetto a uno stesso $\Omega$).
\item i.i.d.~-- indipendenti e identicamente distribuite; utilizzato in relazione
a un gruppo di v.a.~indipendenti che condividono la stessa legge (spesso rispetto
a uno stesso $\Omega$).
\item $(X_i)_{i \in I}$ -- famiglia di v.a., oppure v.a.~congiunta.
\item $(X_1, \ldots, X_n)$ -- per una famiglia $(X_i : \Omega \to S_i)_{i \in [n]}$ di
v.a.~indica la v.a.~congiunta (multivariata) $(X_1, \ldots, X_n) : \Omega \to \prod_{i \in [n]} S_i$, $\omega \mapsto (X_1(\omega), \ldots, X_n(\omega))$. Se la
famiglia è composta da due variabili, si dice anche \textit{coppia bivariata}.
\item $P(A, B) \defeq P(A \cap B)$ -- notazione introdotta per scrivere
più comodamente $P(X = x, Y = y)$ in luogo di $P((X = x) \cap (Y = y))$. Si
generalizza in modo naturale a più eventi.
\item $L(A, B) \defeq \frac{P(A \mid B)}{P(A)}$ -- rapporto di influenza tra
$A$ e $B$.
\item $\bigotimes_{i \in [n]} P_i = P_1 \otimes \cdots \otimes P_n$ --
Date $P_i$ probabilità su $S_i$ discreto, $P_1 \otimes \cdots \otimes P_n \defeq P$ è la misura di probabilità naturale su $\prod_{i \in [n]} S_i$ tale per cui
le proiezioni $\pi_i$ siano v.a.~discrete indipendenti e per cui
$P(\pi_i = x_i) = p_i(x_i)$ per ogni $x_i \in S_i$, $i \in [n]$.
\item $\EE[X]$ -- valore atteso di $X$.
\item $\EE[X \mid A] = \defeq \frac{\EE[X \cdot 1_A]}{P(A)}$ -- valore atteso di $X$
condizionato a $A$.
\item $\Cov(X, Y) \defeq \EE[(X - \EE[X])(Y - \EE[Y])]$ -- covarianza di $X$ e $Y$.
\item $\Var(X) \defeq \Cov(X, X)$ -- varianza di $X$.
\item $\sigma(X) \defeq \sqrt{\Var(X)}$ -- deviazione standard di $X$.
\item $\rho(X, Y)$ -- coefficiente
di correlazione di Pearson, ovverosia
$\cos_{\Cov}(X, Y) = \frac{\Cov(X, Y)}{\sigma(X) \cdot \sigma(Y)}$.
\item $a^*$, $b^*$ -- date due
v.a.~$X$, $Y$, $a^*$ e $b^*$ sono
i parametri della retta di
regressione $y = a^*x + b^*$.
\item $I(t)$ -- trasformata di Cramer.
\item LGN - Legge dei Grandi Numeri.
\item TCL, TLC - Teorema Centrale del Limite.
\item $m$, $\sigma$ -- spesso nel contesto
della LGN e del TCL si usa $m$ per
indicare $\EE[X_1]$ e $\sigma$ per
indicare $\sigma(X_1)$.
\end{itemize}
\end{multicols*}

@ -0,0 +1,138 @@
%--------------------------------------------------------------------
\chapter*{Prerequisiti matematici}
\addcontentsline{toc}{chapter}{Prerequisiti matematici}
\setlength{\parindent}{2pt}
\begin{multicols*}{2}
\section*{Algebra lineare}
\begin{itemize}
\item \textbf{Disuguaglianza di Cauchy-Schwarz} -- Se $\varphi(\cdot, \cdot)$
è un prodotto scalare (o hermitiano) definito positivo su uno spazio vettoriale $V$, allora vale la seguente disuguaglianza:
\[
\varphi(v, v) \varphi(w, w) \geq \abs{\varphi(v, w)}^2 , \quad \forall v, w \in V.
\]
Inoltre vale l'uguaglianza se e solo se $v$ è multiplo di $w$, o viceversa. Per
prodotti semidefiniti positivi la disuguaglianza vale ugualmente, ma in
tal caso $v$ si scrive come somma di un vettore del cono isotropo e del prodotto di $w$ per uno scalare.
\item \textbf{Proprietà di $\cos(v, w)$} -- Vale che $\cos(v, w) \in [-1, 1]$ per
ogni $v$, $w \in V$ in spazi vettoriali reali dove $\cos$ è ben definito. Segue
dalla disuguaglianza di Cauchy-Schwarz.
\end{itemize}
\section*{Analisi matematica}
\begin{itemize}
\item \textbf{Limite delle successioni monotone} -- Se una successione
$(a_i)_{i \in \NN}$ è monotona, allora ammette limite. Se $(a_i)_{i \in \NN}$
è crescente, allora $a_i \to \sup\{a_i \mid i \in \NN\}$ per $i \to \infty$ (e
dunque converge se la successione è limitata dall'alto); se
$(a_i)_{i \in \NN}$ è decrescente, allora $a_i \to \inf\{a_i \mid i \in \NN\}$ per $i \to \infty$ (e dunque converge se la successione è limitata dal basso).
\item \textbf{Convergenza delle serie a termini positivi} -- Se una serie è
a termini positivi, allora la successione delle somme parziali è crescente,
e dunque la serie ammette come valore un valore reale o $\infty$.
\item \textbf{Convergenza assoluta} -- Se una serie $\sum_{i \in \NN} \abs{a_i}$ converge
(l'unica altra opzione è che diverga, per la proprietà sopracitata), allora
$\sum_{i \in \NN} a_i$ converge. Non è vero il viceversa in generale.
\item \textbf{Disuguaglianza di Jensen} -- Sia $f : \RR \supseteq S \to \RR$ una funzione convessa a
valori reali. Allora vale che:
\[
f\left(\sum_{i \in [n]} a_i x_i\right) \leq \sum_{i \in [n]} a_i f(x_i), \quad \sum_{i \in [n]} a_i = 1, x_i.
\]
Se invece $f$ è concava, vale la disuguaglianza con $\geq$ al posto di $\leq$.
\item \textbf{Disuguaglianza di Young} -- Sia $p \geq 1$ e sia $p'$ il
suo esponente coniugato. Allora vale che:
\[
ab \leq \frac{a^p}{p} + \frac{b^p}{p}, \forall a, b > 0.
\]
Segue dalla disuguaglianza di Jensen applicata a $e^x$, che è convessa.
\item \textbf{Disuguaglianza di Hölder} -- Sia $p > 1$ e sia $p'$ il
suo esponente coniugato. Allora vale che:
\[
\sum_{i \in [n]} \abs{x_i y_i} \leq \norm{x}_p \norm{y}_p, \quad \forall x, y \in \RR^n, \forall n \in \NN.
\]
Per $p = 2$, è equivalente alla disuguaglianza di Cauchy-Schwarz sul
prodotto scalare canonico di $\RR^n$. Segue dalla disuguaglianza di Young.
\item \textbf{Disuguaglianza sulle potenze} -- Siano $x$, $y \in \RR$ e sia
$p \geq 1$. Allora vale che:
\[
\abs{x+y}^p \leq 2^{p-1} (\abs{x}^p + \abs{y}^p).
\]
Segue dalla disuguaglianza di Jensen applicata a $f(t) = t^p$ per
$\abs{x}$ e $\abs{y}$ ($t^p$ è convessa per $t \geq 0$).
\end{itemize}
\section*{Combinatoria}
\begin{itemize}
\item \textbf{Principio di \textit{double counting}} -- Principio di dimostrazione per il quale
se vi sono due modi diversi, ma equivalenti, di contare lo stesso numero di scelte
di un qualsiasi sistema, allora le formule ricavate dai due modi devono
essere identicamente uguali.
\item \textbf{Principio di inclusione-esclusione} -- Teorema da cui discende che per $(A_i)_{i \in [n]}$ vale che: \[\abs{\bigcup_{i \in [n]} A_i} = \sum_{j \in [n]} (-1)^{j+1} \sum_{1 \leq i_1 < \cdots < i_j \leq n} \abs{\bigcap_{k \in [j]} A_{i_k}}.\]
Inoltre vale che $\abs{\bigcup_{i \in [n]} A_i} = \sum_{i \in [n]} \abs{A_i}$ se e solo se gli $A_i$ sono a due a due disgiunti. Per $n = 2$,
$\abs{A \cup B} = \abs{A} + \abs{B} - \abs{A \cap B}$.
\item \textbf{Principio della piccionaia} (\textit{Pigeonhole principle}) -- Teorema che
asserisce che per ogni funzione $f : [n+1] \to [n]$ esistono $i$, $j \in [n+1]$
tali per cui $f(i) = f(j)$. Più informalmente, se si hanno $n+1$ oggetti da
posizionare in $n$ buchi, esiste per forza un buco con due oggetti.
\item \textbf{Principio della piccionaia generalizzato} -- Teorema che asserisce che
per ogni funzione $f : [kn+1] \to [n]$ esistono $k+1$ elementi di $[kn+1]$ che
condividono la stessa immagine. Più informalmente, se si hanno $kn+1$ oggetti
da posizionare in $n$ buchi, esiste per forza un buco con $k+1$ oggetti. Segue per
induzione dal Principio della piccionaia.
\item \textbf{Principio moltiplicativo} -- Se una scelta può essere fatta in $N$
passi e all'$i$-esimo passo corrispondono $n_i$ scelte, allora la scelta globale
può essere fatta in $\prod_{i \in [N]} n_i$ modi.
\item \textbf{Permutazioni di $n$ oggetti} -- Dati $n$ oggetti, esistono
$n!$ modi di permutarli. Segue dal Principio moltiplicativo.
\item \textbf{Disposizioni semplici di $n$ oggetti in $k$ posti} -- Dati $n$ oggetti
e $k$ posti, allora esistono $D_{n,k}$ modi di disporre gli $n$ oggetti nei
$k$ posti se $k \leq n$. Se $k = n$, ci si riduce a contare le permutazioni.
\item \textbf{Disposizioni con ripetizione di $n$ oggetti in $k$ posti} -- Dati
$n$ oggetti e $k$ posti, allora esistono $n^k$ modi di disporre con ripetizione gli $n$ oggetti
nei $k$ posti. Segue dal Principio moltiplicativo.
\item \textbf{Combinazioni di $n$ oggetti in $k$ posti} -- Dati $n$ oggetti
e $k$ posti, allora esistono $C_{n,k} = \binom{n}{k} = \frac{n!}{(n-k)!k!}$ modi di disporre gli $n$ oggetti nei
$k$ posti non facendo contare l'ordine, se $k \leq n$. Segue dal Principio
moltiplicativo.
\item \textbf{Combinazioni con ripetizione di $n$ oggetti in $k$ buchi} -- Data
l'equazione $x_1 + \ldots + x_k = n$ con $x_i \in \NN$, esistono esattamente
$\binom{n+k-1}{k-1}$ soluzioni. Alternativamente, data la disequazione
$x_1 + \ldots + x_k \leq n$ con $x_i \in \NN$, esistono esattamente
$\binom{n+k}{k}$ soluzioni (dacché ha le stesse soluzioni di
$x_1 + \ldots + x_k + y = n$, dove $y \in \NN$). È un'applicazione di una
tecnica combinatorica standard denominata \textit{stars and bars}.
\item \textbf{Numero di scelte possibili per un'estrazione di $n$ palline rosse e nere da un insieme di $N_1$ palline rosse unito a un insieme di $N-N_1$ palline nere} -- Se $k$ è il numero di palline rosse estratte, le scelte possibili sono
$\binom{N_1}{k} \binom{N - N_1}{n-k}$. Si può generalizzare il problema a
un insieme di $N$ palline divise in $m$ gruppi da $N_i$ palline ciascuno
(e dunque $\sum_{i \in [m]} N_i = N$) dove se ne estrae $n$ e $k_i$ è il
numero di palline estratte dall'$i$-esimo gruppo (dunque $\sum_{i \in [m]} k_i = n$;
in tal caso le scelte possibili sono $\prod_{i \in [m]} \binom{N_i}{k_i}$. Segue
dal Principio moltiplicativo.
\item \textbf{Identità sulle cardinalità}
\begin{itemize}
\item $\#\{(a_1, \ldots, a_n) \in [k]^n \mid a_1 < a_2 < \ldots < a_n\} = \binom{n}{k}$ se $k \leq n$ -- Infatti data una classe di disposizione, esiste un unica lista ordinata
in tale classe.
\item $\#\{(a_1, \ldots, a_n) \in [k]^n \mid a_1 \leq a_2 \leq \ldots \leq a_n\} = \binom{n + k - 1}{k - 1}$. -- È sufficiente osservare che si sta
contando esattamente le combinazioni con ripetizione in perfetta analogia con la precedente
cardinalità.
\end{itemize}
\end{itemize}
\section*{Teoria degli insiemi}
\begin{itemize}
\item \textbf{Leggi di De Morgan} -- Se $A$ e $B$ sono insiemi, allora
$(A \cup B)^c = A^c \cap B^c$ e $(A \cap B)^c = A^c \cup B^c$.
\item \textbf{Operazioni con $X\inv$ controimmagine} -- Se $X : D \to C$ è
una funzione e $\FF = (A_i)_{i \in I}$ è una famiglia di sottoinsiemi di $C$, allora vale che $X\inv(\bigcup_{i \in I} A_i) = \bigcup_{i \in I} X\inv(A_i)$,
$X\inv(\bigcap_{i \in I} A_i) = \bigcap_{i \in I} X\inv(A_i)$,
$X\inv(A_i^c) = X\inv(A_i)^c$, ovverosia $X\inv$ commuta con unioni ($\cup$),
intersezioni ($\cap$) e complementare ($^c$). $X\inv(\emptyset) = \emptyset$, e dunque $A_i \cap A_j = \emptyset \implies X\inv(A_i) \cap X\inv(A_j) = \emptyset$.
Inoltre per $Y : C \to C'$ vale che $(Y \circ X)\inv(A) = X\inv(Y\inv(A))$,
per $A \subseteq C'$.
\end{itemize}
\end{multicols*}

@ -0,0 +1,425 @@
%--------------------------------------------------------------------
\chapter{Spazi di probabilità in generale}
\setlength{\parindent}{2pt}
\begin{multicols*}{2}
\section{Definizioni preliminari}
\subsection{Esperimento aleatorio, spazi campionari}
\begin{definition}[Esperimento aleatorio]
Si dice \textbf{esperimento aleatorio} un fenomeno il cui esito
non è determinabile a priori.
\end{definition}
\begin{definition}[Spazio campionario]
Si definisce \textbf{spazio campionario}, spesso indicato con
$\Omega$, un insieme non vuoto che contiene gli
esiti di un esperimento aleatorio.
\end{definition}
\subsection{\texorpdfstring{$\sigma$}{σ}-algebre e spazi misurabili}
\begin{definition}[$\sigma$-algebra]
Una $\sigma$-algebra $\FF$ di $\Omega$ è un sottoinsieme $\FF \subseteq \PP(\Omega)$ tale per cui:
\begin{enumerate}[(i.)]
\item $\Omega \in \FF$,
\item $A \in \FF \implies A^c \in \FF$,
\item per $(A_i)_{i \in \NN}$ famiglia numerabile di insiemi
in $\FF$, $\bigcup_{i \in \NN} A_i \in \FF$ ($\FF$ è chiuso per unioni numerabili).
\end{enumerate}
\end{definition}
Una $\sigma$-algebra $\FF$ di uno spazio campionario $\Omega$ rappresenta l'insieme degli
\textbf{eventi accettabili}. In particolare:
\begin{definition}[Spazio misurabile]
Si definisce \textbf{spazio misurabile} una coppia
$(\Omega, \FF)$, dove $\FF$ è una $\sigma$-algebra
di $\Omega$.
\end{definition}
\subsection{Insiemi discreti e \texorpdfstring{$\sigma$}{σ}-algebra naturale}
In alcuni casi la scelta della $\sigma$-algebra $\FF$ è
naturale, come nel caso in cui si considera uno spazio
campionario discreto:
\begin{definition}[Insieme discreto]
Diciamo che un insieme $\Omega$ è discreto se è finito o numerabile.
Se non viene esplicitato altrimenti, per $\Omega$ si considererà
sempre la $\sigma$-algebra naturale $\PP(\Omega)$.
\end{definition}
\subsection{Proprietà di una \texorpdfstring{$\sigma$}{σ}-algebra e \texorpdfstring{$\sigma$}{σ}-algebra generata}
In casi non discreti, è invece più naturale considerare
$\sigma$-algebre molto meno grandi dell'insieme delle
parti; in particolare, come vedremo nella \textit{Parte 3},
sarà naturale chiedersi qual è la $\sigma$-algebra più
piccola che contiene una certa famiglia di insiemi:
\begin{definition}[$\sigma$-algebra generata da una famiglia di insiemi]
Sia $\tau$ una famiglia di sottoinsiemi di $\PP(\Omega)$. Allora
si definisce la $\sigma$-algebra
generata da $\tau$, detta $\sigma(\tau)$, come la più
piccola $\sigma$-algebra contenente $\tau$. Equivalentemente:
\[
\sigma(\tau) = \bigcap_{\substack{\FF \subseteq \PP(\Omega) \\ \tau \subseteq \FF \\ \FF \; \sigma\text{-alg.}}} \FF.
\]
\end{definition}
\begin{remark}
La definizione data è una buona definizione dal momento che si
verifica facilmente che l'intersezione di $\sigma$-algebre è ancora
una $\sigma$-algebra.
\end{remark}
\begin{proposition}[Proprietà di $\FF$] Se $\FF$ è una $\sigma$-algebra
di $\Omega$, allora:
\begin{enumerate}[(i.)]
\item $\emptyset \in \FF$,
\item per $(A_i)_{i \in \NN}$ famiglia numerabile di insiemi
in $\FF$, $\bigcap_{i \in \NN} A_i \in \FF$ ($\FF$ è chiuso per intersezioni numerabili),
\item $A \setminus B = A \cap B^c \in \FF \impliedby A$, $B \in \FF$.
\end{enumerate}
\end{proposition}
\section{Corrispondenze logiche e relazionali tra eventi}
\begin{remark}[Corrispondenze affermazioni ed eventi]
Ad alcune affermazioni logiche su $A$ e $B$ eventi di $\FF$ corrispondono degli eventi ben precisi o delle
relazioni:
\begin{itemize}
\item ``Si verificano $A$ e $B$'' corrisponde a $A \cap B$,
\item ``Si verifica $A$ o $B$'' corrisponde a $A \cup B$,
\item ``Si verifica esattamente uno tra $A$ e $B$'' corrisponde a $A \setminus B \cupdot B \setminus A = A \Delta B$ (differenza simmetrica),
\item ``Non si verifica $A$'' corrisponde a $A^c$,
\item ``Si verifica qualcosa'' corrisponde a $\Omega$,
\item ``Non si verifica niente'' corrisponde a $\emptyset$,
\item ``Se succede $A$, allora succede $B$'' corrisponde a $A \subseteq B$,
\item ``Non succedono $A$ e $B$ contemporaneamente'' corrisponde a
$A \cap B = \emptyset$.
\end{itemize}
\end{remark}
\section{Misure di probabilità}
\subsection{La probabilità \texorpdfstring{$P$}{P} su \texorpdfstring{$\Omega$}{Ω} e spazi di probabilità}
\begin{definition}[Probabilità \texorpdfstring{$P$}{P} su $(\Omega, \FF)$ secondo Kolmogorov]
Dato $(\Omega, \FF)$ spazio misurabile, una \textbf{misura
di probabilità} $P$, detta semplicemente \textit{probabilità},
è una funzione $P : \FF \to \RR$ tale per cui:
\begin{enumerate}[(i.)]
\item $P(\Omega) = 1$,
\item $0 \leq P(A) \leq 1$ per ogni $A \in \FF$ (ossia $P$ può restringersi su $[0, 1]$ al codominio),
\item $P(\bigcupdot_{i \in \NN} A_i) = \sum_{i \in \NN} P(A_i)$ ($\sigma$-additività).
\end{enumerate}
In particolare $P$ è una misura.
\end{definition}
\begin{definition}[Spazio di probabilità]
Si dice \textbf{spazio di probabilità} una tripla
($\Omega$, $\FF$, $P$) dove ($\Omega$, $\FF$) è
uno spazio misurabile e $P$ è una
probabilità su ($\Omega$, $\FF$).
\end{definition}
\subsection{Proprietà della probabilità \texorpdfstring{$P$}{P}}
\begin{proposition}[Proprietà di $P$]
Se $P$ è una probabilità su ($\Omega$, $\FF$), allora:
\begin{enumerate}[(i.)]
\item $P(\emptyset) = 0$,
\item $P(\bigcupdot_{i \in [n]} A_i) = \sum_{i \in [n]} P(A_i)$ ($\sigma$-additività finita),
\item $P(A) + P(A^c) = 1$,
\item $A \subseteq B \implies P(A) \leq P(B)$ e $P(B \setminus A) = P(B) - P(A)$ (segue da (iii)),
\item $P(B \setminus A) = P(B) - P(A \cap B)$ (segue da (iv) considerando che $B \setminus A = B \setminus (A \cap B)$),
\item $P(A \cup B) = P(A \Delta B \cupdot A \cap B) = P(A) + P(B) - P(A \cap B)$ (segue da (v)),
\item $P(\bigcup_{i \in [n]} A_i) = \sum_{j \in [n]} (-1)^{j+1} \sum_{1 \leq i_1 < \cdots < i_j \leq n} P(\bigcap_{k \in [j]} A_{i_{k}})$ (segue da (vi) per induzione, Principio di inclusione-esclusione ``probabilistico''),
\item $P(\bigcup_{i \in \NN} A_i) \leq \sum_{i \in \NN} P(A_i)$ ($\sigma$-subadditività).
\end{enumerate}
\end{proposition}
\begin{remark}
Per $\Omega$ finito, la $\sigma$-additività finita implica la $\sigma$-additività per il Principio della piccionaia.
\end{remark}
\begin{proposition}[Comportamento di $P$ al limite]
Sia $(A_i)_{i \in \NN}$ una famiglia numerabile di
eventi in $\FF$ sullo spazio di probabilità
$(\Omega, \FF, P)$. Allora:
\begin{enumerate}[(i.)]
\item $A_i \goesup A \implies P(A_i) \goesup P(A)$,
\item $A_i \goesdown A \implies P(A_i) \goesdown P(A)$.
\end{enumerate}
\end{proposition}
\subsection{Eventi incompatibili, quasi certi e trascurabili, proprietà che accadono q.c.}
\begin{definition}[Eventi trascurabili e quasi certi]
Sia $A \in \FF$. Allora $A$ si dice \textbf{trascurabile} se
$P(A) = 0$; si dice \textbf{quasi certo} se $P(A) = 1$.
\end{definition}
\begin{definition}[Eventi incompatibili]
Due eventi $A$, $B \in \FF$ si dicono \textbf{incompatibili} se
$A \cap B = \emptyset$.
\end{definition}
\begin{definition}[$q$ accade \qc]
Si dice che una proprietà $q$ \textbf{accade quasi certamente (\qc)}
se esiste $A \in \FF$ quasi certo che soddisfa
$q$.
\end{definition}
\begin{remark}
Si osserva che la nozione di proprietà che accade \qc è perfettamente
coerente con la nozione di proprietà che accade \qc riferita a
$P$ come misura (e non specificatamente come misura di probabilità) su $\RR$, ovverosia $q$ accade \qc se esiste
$A \in \FF$ trascurabile tale per cui $A^c$ soddisfi $q$.
\end{remark}
\section{Probabilità condizionata}
\subsection{Definizione di \texorpdfstring{$P(\cdot \mid B)$}{P(•|B)}}
\begin{definition}[Probabilità condizionata su $B$]
Dato $B \in \FF$ evento non trascurabile (i.e.~$P(B) \neq 0$),
la \textbf{probabilità condizionata} su $B$ è la misura
di probabilità $P(\cdot \mid B)$ sullo stesso spazio misurabile
tale per cui:
\[
P(A \mid B) = \frac{P(A \cap B)}{P(B)}, \quad \forall A \in \FF.
\]
\end{definition}
\begin{proposition}
$P(\cdot \mid B)$ è una misura di probabilità su $(\Omega, \FF)$.
\end{proposition}
\begin{remark}
La probabilità condizionata su $\Omega$ coincide con $P$.
\end{remark}
\begin{remark}
In generale $P(A \mid \cdot)$ non è una probabilità, dacché
per $\Omega$ si ricava che $P(A \mid \Omega) = P(A)$, che
potrebbe non essere $1$.
\end{remark}
\subsection{Regola della catena, formula delle probabilità totali e Teorema di Bayes}
\begin{lemma}[Regola della catena, o della torre]
Dati $(A_i)_{i \in [n]}$ con $P(\bigcap_{i \in [n]} A_i) > 0$, allora vale che
$P(\bigcap_{i \in [j]} A_i) > 0$ per ogni $j \leq n$. Inoltre vale che:
\[ P\left(\bigcap_{i \in [n]} A_i\right) = \left(\prod_{j \in [n-1]} P\left(A_j \,\middle\vert\, \bigcap_{i=j+1}^{n} A_i\right)\right) P(A_n), \]
che segue per induzione applicando $P(A \cap B) = P(A \mid B) P(B)$.
\end{lemma}
\begin{remark}
Per esempio, la regola della catena per $A$, $B$ e $C$ si riduce
a:
\[
P(A \cap B \cap C) = P(A \mid B \cap C) P(B \mid C) P(C).
\]
\end{remark}
\begin{definition}[Sistema di alternative]
Una famiglia $(B_i)_{i \in I}$ con $I = \NN$ o
$I = [n]$ si dice \textbf{sistema di alternative}
per $\Omega$ se $\Omega = \bigcupdot_{i \in I} B_i$
e $P(B_i) > 0$ per ogni $i \in I$ (ovverosia
$B_i$ non è mai trascurabile).
\end{definition}
Un sistema di alternative permette di calcolare più agevolmente
la probabilità di un evento riducendosi alle probabilità
condizionate, come mostra il:
\begin{lemma}[Formula delle probabilità totali, o formula della partizione]
Sia $(B_i)_{i \in I}$ un sistema di alternative per $\Omega$. Allora vale
che:
\[
P(A) = \sum_{i \in I} P(A \cap B_i) = \sum_{i \in I} P(A \mid B_i) P(B_i).
\]
\end{lemma}
Nella maggior parte dei casi è possibile ``invertire'' una probabilità
condizionata, ovverosia ricavare una probabilità tra $P(A \mid B)$,
$P(B \mid A)$, $P(A)$ e $P(B)$ conoscendone tre, a patto che
$A$ e $B$ non siano trascurabili, come mostra il:
\begin{theorem}[di Bayes]
Siano $A$ e $B$ due eventi non trascurabili. Allora vale che:
\[
P(A \mid B) = \frac{P(B \mid A) P(A)}{P(B)}.
\]
Segue considerando le due scritture possibili di $P(A \cap B)$.
\end{theorem}
\begin{remark}
Applicando il Teorema di Bayes e la formula delle probabilità totali,
si ricava che per un sistema di alternative $(B_i)_{i \in I}$ e
$A$ non trascurabile vale che:
\[
P(B_i \mid A) = \frac{P(A \mid B_i) P(B_i)}{\sum_{j \in I} P(A \mid B_j) P(B_j)}, \quad \forall i \in I.
\]
\end{remark}
\begin{remark}
Applicando la regola della catena, la formula delle probabilità totali
e il Teorema di Bayes è possibile calcolare agevolmente la probabilità
di un'intersezione di eventi cononoscendone l'albero di sviluppo probabilistico.
In particolare, per calcolare la probabilità di un nodo è sufficiente
moltiplicare le probabilità dei rami facenti parte del percorso dal nodo
alla radice.
\end{remark}
\subsection{Rapporto di influenza, correlazione positiva e negativa}
\begin{definition}[Rapporto di influenza]
Siano $A$ e $B$ due eventi non trascurabili. Allora
il \textbf{rapporto di influenza} di $A$ e $B$
(o più brevemente, la loro \textit{influenza}) è
il parametro:
\[
L(A, B) \defeq \frac{P(A\mid B)}{P(A)},
\]
ed è tale per cui:
\[
P(A \mid B) = L(A, B) P(A).
\]
\end{definition}
\begin{proposition}
$L(\cdot, \cdot)$ è simmetrica, ovverosia $L(A, B) = L(B, A)$ per
ogni evento $A$ e $B$. Segue dal Teorema di Bayes.
\end{proposition}
\begin{definition}[Correlazione positiva e negativa tra $A$ e $B$]
Se $A$ e $B$ sono due eventi non trascurabili, si dice
che $A$ è \textbf{positivamente correlato} a $B$ (o che
si \textit{dilata probabilisticamente} rispetto a $B$) se
$P(A \mid B) \geq P(A)$ (ovverosia se $L(A, B) > 1$). \smallskip
Analogamente
si dice che $A$ è \textbf{negativamente correlato} a $B$
(o che si \textit{contrae probabilisticamente} rispetto a $B$) se
$P(A \mid B) \leq P(A)$ (ovverosia se $L(A, B) < 1$).
\end{definition}
\begin{remark}
Il caso in cui $L(A, B) = 1$ è discusso nella sezione \textit{\nameref{sec:indipendenza}} e corrisponde all'indipendenza
tra $A$ e $B$.
\end{remark}
\begin{remark}
Si può parlare più generalmente di correlazione tra $A$ e $B$
senza scegliere un evento ``rispetto'' a cui analizzarla, dacché
$L(\cdot, \cdot)$ è simmetrica per il Teorema di Bayes. Infatti,
se $P(A \mid B) \leq P(A)$, anche $P(B \mid A) \leq P(B)$, cioè
$A$ è correlato positivamente a $B$ se e solo se $B$ è correlato
positivamente ad $A$. \smallskip
Una correlazione positiva tra $A$ e $B$ indica che, accadendo $B$,
si amplifica la probabilità che accada $A$; viceversa, una correlazione
negativa inficia ridimensionando in contrazione la probabilità che accada $A$
se accade $B$.
\end{remark}
\section{Indipendenza stocastica tra eventi}
\label{sec:indipendenza}
\begin{definition}[Famiglia di eventi indipendenti]
Una famiglia $(A_i)_{i \in I}$ di eventi si dice \textbf{stocasticamente
indipendente}, o più semplicemente indipendente, se
per ogni $J \subseteq I$ finito vale che:
\[
P(\cap_{j \in J} A_j) = \prod_{j \in J} P(A_j).
\]
Nel caso di due eventi questo si riduce a verificare
che $P(A \cap B) = P(A) P(B)$. Si dice che gli $A_i$ sono
\textbf{collettivamente indipendenti}.
\end{definition}
\begin{remark}
Generalmente non è sufficiente verificare che ogni coppia di eventi distinti è
indipendente per verificare che la famiglia è globalmente indipendente.
Infatti, il significato dell'indipendenza in termini puramente probabilistici
è che una famiglia $\FF$ è indipendente se e solo se il ``verificarsi'' di
alcuni eventi della famiglia non influenza il ``verificarsi'' degli altri.
\end{remark}
\begin{remark}
Se $(A_i)_{i \in I}$ è una famiglia di eventi indipendenti, allora
per $J \subseteq I$, $(A_j)_{j \in J}$ è ancora una famiglia di
eventi indipendenti (l'indipendenza si tramanda per restrizione).
\end{remark}
\begin{proposition}
Se $P(B) > 0$, allora $A$ e $B$ sono indipendenti se
e solo se $P(A \mid B) = P(A)$. Inoltre, se
$(A_j)_{j \in J} \cup \{A\}$ è una famiglia finita di eventi
non trascurabili (eccetto eventualmente per $A$)
indipendenti tra loro, allora
$P(\bigcap_{j \in J} A_j) \neq 0$ e
$P(A \mid \bigcap_{j \in J} A_j) = P(A)$.
\end{proposition}
\begin{proposition}
Se $A$ e $B$ sono indipendenti, allora anche
$A^c$ e $B$ sono indipendenti. Analogamente
lo sono $A$ e $B^c$, così come
$A^c$ e $B^c$.
Da ciò segue che se $(A_i)_{i \in I}$ è una famiglia di eventi
indipendenti, allora $(A_i^{\alpha_i})_{i \in I}$ è una famiglia
di eventi indipendenti per qualsiasi scelta di $\alpha_i$ in
$\{1, c\}$.
\end{proposition}
\begin{proposition}
Sia $(A_i)_{i \in I}$ una famiglia di eventi indipendenti. Allora,
se $I$ è partizionato dagli $I_j$, ovverosia $I = \bigcupdot_{j \in J} I_j$,
allora $(\bigcap_{i \in I_j} A_{i})_{j \in J})$ è ancora una famiglia
di eventi indipendenti (ossia intersecando alcuni elementi della famiglia
e lasciandone invariati altri, la famiglia ottenuta è ancora indipendente).
\end{proposition}
\begin{theorem}
Sia $(A_i)_{i \in I}$ una famiglia di eventi indipendenti. Allora,
ogni operazione di unione, intersecazione o complementare di alcuni elementi della famiglia restituisce una famiglia ancora indipendente. \smallskip
Segue dalle due proposizioni precedenti (infatti $A \cup B = (A^c \cap B^c)^c$).
\end{theorem}
\begin{example}
Per esempio, se $A$, $B$ e $C$ sono indipendenti, anche $A \cup B$, $C^c$
è indipendente. Se $A$, $B$, $C$ e $D$ sono indipendenti, anche
$(A \cap B) \cup C^c$ e $D^c$ lo sono.
\end{example}
\begin{remark}
Un'evento $A$ è indipendente da ogni evento $B \in \FF$, incluso
sé stesso, se e solo se $P(A) \in \{0, 1\}$, ovvero se e solo
se $A$ è trascurabile o quasi certo (infatti si avrebbe che
$P(A) = P(A \cap A) = P(A)^2$).
\end{remark}
\begin{remark}
Due eventi incompatibili $A$ e $B$ sono indipendenti se e solo se
uno dei due è trascurabile.
\end{remark}
\end{multicols*}

@ -0,0 +1,43 @@
%--------------------------------------------------------------------
\begin{landscape}
\chapter*{Tabella e proprietà delle distribuzioni discrete}
\addcontentsline{toc}{chapter}{Tabella e proprietà delle distribuzioni discrete}
\vskip -0.3in
\begin{table}[htb]
\scalebox{0.74}{
\begin{tabular}{|l|l|l|l|l|l|l|}
\hline
Nome distribuzione & Caso di utilizzo & Parametri & Densità discreta & Valore atteso & Momento secondo & Varianza \\ \hline
\begin{tabular}[c]{@{}l@{}}Distr. di Bernoulli\\ $X \sim B(\pp)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}Esperimento con esito\\ di successo ($1$) o\\ insuccesso ($0$).\end{tabular} & $\pp$ -- probabilità di successo. & $P(X=1) = \pp$, $P(X=0) = 1-\pp$ & $\EE[X] = \pp$ & $\EE[X^2] = \pp$ & $\Var(X) = \pp(1-\pp)$ \\ \hline
\begin{tabular}[c]{@{}l@{}}Distr. binomiale\\ $X \sim B(n, \pp)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}In una serie di $n$ esperimenti\\ col modello delle prove ripetute,\\ $X$ conta il numero di successi.\\ $X$ è in particolare somma di $n$\\ v.a.~i.i.d.~distribuite come $B(\pp)$.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$n$ -- numero di esperimenti\\ $\pp$ -- probabilità di successo\\ dell'$i$-esimo esperimento\end{tabular} & \begin{tabular}[c]{@{}l@{}}$P(X=k) = \binom{n}{k}{\pp}^k (1-\pp)^{n-k}$\\ per $0 \leq k \leq n$ e $0$ altrimenti.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$\EE[X] = n \pp$\\ (è somma di $n$ Bernoulliane)\end{tabular} & $\EE[X^2] = n \pp + n(n-1)\pp^2$ & \begin{tabular}[c]{@{}l@{}}$\Var(X) = n \pp(1-\pp)$\\ (è somma di $n$\\ Bernoulliane indipendenti)\end{tabular} \\ \hline
\begin{tabular}[c]{@{}l@{}}Distr. binomiale\\ negativa\\ $X \sim \BinNeg(h, \pp)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}In una serie di infiniti esperimenti\\ col modello delle prove ripetute,\\ $X$ conta l'esperimento in cui si\\ ha l'$h$-esimo successo.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$h$ -- numero dei successi da misurare\\ $\pp \in (0, 1)$ -- probabilità di successo\\ dell'$i$-esimo esperimento\end{tabular} & \begin{tabular}[c]{@{}l@{}}$P(X=k) = \binom{k-1}{h-1} \pp^h (1-\pp)^{k-h}$\\ laddove definibile e $0$ altrimenti.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$\EE[X] = \frac{h}{\pp}$\\ (è somma di $h$ Geometriche)\end{tabular} & $\EE[X^2] = \frac{h(1+h-\pp)}{\pp^2}$ & \begin{tabular}[c]{@{}l@{}}$\Var(X) = \frac{h(1-\pp)}{\pp^2}$ \\ (è somma di $h$\\Geometriche indipendenti)\end{tabular} \\ \hline
\begin{tabular}[c]{@{}l@{}}Distr. geometrica\\ $X \sim \Geom(\pp)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}In una serie di infiniti esperimenti\\ col modello delle prove ripetute,\\ $X$ conta l'esperimento in cui si\\ ha il primo successo. È pari a\\ $\BinNeg(1, \pp)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}$\pp \in (0, 1)$ -- probabilità di successo\\ all'$i$-esimo esperimento.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$P(X=k) = \pp (1-\pp)^{k-1}$ per\\ $k \geq 1$ e $0$ per $k=0$.\end{tabular} & $\EE[X] = \frac{1}{\pp}$ & $\EE[X^2] = \frac{2-\pp}{\pp^2}$ & $\Var(X) = \frac{1-\pp}{\pp^2}$ \\ \hline
\begin{tabular}[c]{@{}l@{}}Distr. ipergeometrica\\ $X \sim H(N, N_1, n)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}In un'estrazione di $n$ palline in\\ un'urna di $N$ palline, di cui\\ $N_1$ sono rosse, $X$ conta\\ il numero di palline rosse estratte.\end{tabular} & \begin{tabular}[c]{@{}l@{}}$N$ -- numero di palline nell'urna\\ $N_1$ -- numero di palline rosse\\ nell'urna\\ $n$ -- numero di palline estratte\end{tabular} & \begin{tabular}[c]{@{}l@{}}$P(X=k) = \frac{\binom{N_1}{k} \binom{N-N_1}{n-k}}{\binom{N}{n}}$\\ laddove definibile e $0$ altrimenti.\end{tabular} & & & \\ \hline
\begin{tabular}[c]{@{}l@{}}Distri.di Poisson\\ (o degli eventi rari)\\ $X \sim \Poisson(\lambda)$\end{tabular} & \begin{tabular}[c]{@{}l@{}}In una sequenza di $n \gg 1$\\ esperimenti di parametro $\pp \ll 1$\\ con $n \pp \approx \lambda$,\\ $X$ misura il numero di successi.\\ Si può studiare come distribuzione\\ limite della distribuzione binomiale.\end{tabular} & $\lambda$ -- tasso di successo. & $P(X=k) = \frac{\lambda^k}{k!} e^{-\lambda}$ & $\EE[X] = \lambda$ & $\EE[X^2] = 2\lambda$ & $\Var(X) = \lambda$ \\ \hline
\end{tabular}}
\end{table}
Valgono inoltre le seguenti altre proprietà:
\small
\begin{itemize}
\item Una somma di $n$ v.a.~i.i.d.~distribuite come $B(\pp)$ si
distribuisce come $B(n, \pp)$.
\item Se $X \sim B(n, \pp)$ e $Y \sim B(m, \pp)$ sono indipendenti, $X + Y$ si distribuisce come $B(n + m, \pp)$.
\item Se $X \sim \Poisson(\lambda)$ e $Y \sim \Poisson(\mu)$ sono indipendenti,
$X + Y$ si distribuisce come $\Poisson(\lambda + \mu)$.
\item Se $X \sim \Geom(\pp)$, allora $P(X = \infty) = 0$\footnote{
Ovverosia la probabilità che non vi siano mai successi è nulla.
}. Da ciò si deduce che $P(X > k) = (1-\pp)^k$.
\item Una $X \sim \BinNeg(h, \pp)$ è
somma di $h$ v.a.~i.i.d.~distribuite
come $\Geom(\pp)$.
\item Una v.a.~$X$ sui numeri naturali si dice che ha la \textit{proprietà di perdita di memoria} se $P(X > n + k \mid X > k) = P(X > n)$. Una v.a.~ha
la proprietà di perdita della memoria se e solo se è distribuita come
la distribuzione geometrica.
\end{itemize}
\end{landscape}

@ -0,0 +1,56 @@
%--------------------------------------------------------------------
\chapter*{Tabella e proprietà della f.d.r.~\texorpdfstring{$\Phi(x)$}{Φ(x)} di una normale standard}
\addcontentsline{toc}{chapter}{Tabella e proprietà della f.d.r.~\texorpdfstring{$\Phi(x)$}{Φ(x)} di una normale standard}
Per $a \in \RR$ si definisce la funzione $\Phi(a) = \int_{-\infty}^a e^{-\nicefrac{x^2}{2}} \dx$. L'integrale $\Phi(\infty) \defeq \int_{-\infty}^a e^{-\nicefrac{x^2}{2}} \dx$ vale
esattamente $1$, mentre $\Phi(-\infty) \defeq 0$. Per la parità di $e^{-\nicefrac{x^2}{2}}$ vale che $\Phi(a) = 1 - \Phi(-a)$ (\textbf{simmetria}). A partire da questa funzione si può calcolare
$\int_{a}^b e^{-\nicefrac{x^2}{2}} \dx$, che risulta essere $\Phi(b) - \Phi(a)$. Se
$a > 0$, allora $\int_{-a}^a e^{-\nicefrac{x^2}{2}} \dx = \Phi(a) - \Phi(-a) = 2\Phi(a) - 1$.
\begin{longtable}{|l|l|l|l|l|l|l|l|l|l|l|}
\caption{Tabella $z$ di alcuni valori di $\Phi(x)$ per $x$ \textit{non negativo}. Per $x$ \textit{negativo} utilizzare \textbf{simmetria}. Si prendono le cifre fino al decimo e si legge la riga corrispondente, in base al centesimo si individua poi l'approssimazione da usare.} \label{tab:phi} \\
\hline
\endfirsthead
\endhead
\hline \multicolumn{3}{|r|}{{Continued on next page}} \\ \hline
\endfoot
\hline
\endlastfoot
z & 0 & 0,01 & 0,02 & 0,03 & 0,04 & 0,05 & 0,06 & 0,07 & 0,08 & 0,09 \\
0 & 0,5 & 0,50399 & 0,50798 & 0,51197 & 0,51595 & 0,51994 & 0,52392 & 0,5279 & 0,53188 & 0,53586 \\
0,1 & 0,53983 & 0,5438 & 0,54776 & 0,55172 & 0,55567 & 0,55962 & 0,56356 & 0,56749 & 0,57142 & 0,57535 \\
0,2 & 0,57926 & 0,58317 & 0,58706 & 0,59095 & 0,59483 & 0,59871 & 0,60257 & 0,60642 & 0,61026 & 0,61409 \\
0,3 & 0,61791 & 0,62172 & 0,62552 & 0,6293 & 0,63307 & 0,63683 & 0,64058 & 0,64431 & 0,64803 & 0,65173 \\
0,4 & 0,65542 & 0,6591 & 0,66276 & 0,6664 & 0,67003 & 0,67364 & 0,67724 & 0,68082 & 0,68439 & 0,68793 \\
0,5 & 0,69146 & 0,69497 & 0,69847 & 0,70194 & 0,7054 & 0,70884 & 0,71226 & 0,71566 & 0,71904 & 0,7224 \\
0,6 & 0,72575 & 0,72907 & 0,73237 & 0,73565 & 0,73891 & 0,74215 & 0,74537 & 0,74857 & 0,75175 & 0,7549 \\
0,7 & 0,75804 & 0,76115 & 0,76424 & 0,7673 & 0,77035 & 0,77337 & 0,77637 & 0,77935 & 0,7823 & 0,78524 \\
0,8 & 0,78814 & 0,79103 & 0,79389 & 0,79673 & 0,79955 & 0,80234 & 0,80511 & 0,80785 & 0,81057 & 0,81327 \\
0,9 & 0,81594 & 0,81859 & 0,82121 & 0,82381 & 0,82639 & 0,82894 & 0,83147 & 0,83398 & 0,83646 & 0,83891 \\
1 & 0,84134 & 0,84375 & 0,84614 & 0,84849 & 0,85083 & 0,85314 & 0,85543 & 0,85769 & 0,85993 & 0,86214 \\
1,1 & 0,86433 & 0,8665 & 0,86864 & 0,87076 & 0,87286 & 0,87493 & 0,87698 & 0,879 & 0,881 & 0,88298 \\
1,2 & 0,88493 & 0,88686 & 0,88877 & 0,89065 & 0,89251 & 0,89435 & 0,89617 & 0,89796 & 0,89973 & 0,90147 \\
1,3 & 0,9032 & 0,9049 & 0,90658 & 0,90824 & 0,90988 & 0,91149 & 0,91309 & 0,91466 & 0,91621 & 0,91774 \\
1,4 & 0,91924 & 0,92073 & 0,9222 & 0,92364 & 0,92507 & 0,92647 & 0,92785 & 0,92922 & 0,93056 & 0,93189 \\
1,5 & 0,93319 & 0,93448 & 0,93574 & 0,93699 & 0,93822 & 0,93943 & 0,94062 & 0,94179 & 0,94295 & 0,94408 \\
1,6 & 0,9452 & 0,9463 & 0,94738 & 0,94845 & 0,9495 & 0,95053 & 0,95154 & 0,95254 & 0,95352 & 0,95449 \\
1,7 & 0,95543 & 0,95637 & 0,95728 & 0,95818 & 0,95907 & 0,95994 & 0,9608 & 0,96164 & 0,96246 & 0,96327 \\
1,8 & 0,96407 & 0,96485 & 0,96562 & 0,96638 & 0,96712 & 0,96784 & 0,96856 & 0,96926 & 0,96995 & 0,97062 \\
1,9 & 0,97128 & 0,97193 & 0,97257 & 0,9732 & 0,97381 & 0,97441 & 0,975 & 0,97558 & 0,97615 & 0,9767 \\
2 & 0,97725 & 0,97778 & 0,97831 & 0,97882 & 0,97932 & 0,97982 & 0,9803 & 0,98077 & 0,98124 & 0,98169 \\
2,1 & 0,98214 & 0,98257 & 0,983 & 0,98341 & 0,98382 & 0,98422 & 0,98461 & 0,985 & 0,98537 & 0,98574 \\
2,2 & 0,9861 & 0,98645 & 0,98679 & 0,98713 & 0,98745 & 0,98778 & 0,98809 & 0,9884 & 0,9887 & 0,98899 \\
2,3 & 0,98928 & 0,98956 & 0,98983 & 0,9901 & 0,99036 & 0,99061 & 0,99086 & 0,99111 & 0,99134 & 0,99158 \\
2,4 & 0,9918 & 0,99202 & 0,99224 & 0,99245 & 0,99266 & 0,99286 & 0,99305 & 0,99324 & 0,99343 & 0,99361 \\
2,5 & 0,99379 & 0,99396 & 0,99413 & 0,9943 & 0,99446 & 0,99461 & 0,99477 & 0,99492 & 0,99506 & 0,9952 \\
2,6 & 0,99534 & 0,99547 & 0,9956 & 0,99573 & 0,99585 & 0,99598 & 0,99609 & 0,99621 & 0,99632 & 0,99643 \\
2,7 & 0,99653 & 0,99664 & 0,99674 & 0,99683 & 0,99693 & 0,99702 & 0,99711 & 0,9972 & 0,99728 & 0,99736 \\
2,8 & 0,99744 & 0,99752 & 0,9976 & 0,99767 & 0,99774 & 0,99781 & 0,99788 & 0,99795 & 0,99801 & 0,99807 \\
2,9 & 0,99813 & 0,99819 & 0,99825 & 0,99831 & 0,99836 & 0,99841 & 0,99846 & 0,99851 & 0,99856 & 0,99861 \\
3 & 0,99865 & 0,99869 & 0,99874 & 0,99878 & 0,99882 & 0,99886 & 0,99889 & 0,99893 & 0,99896 & 0,999
\end{longtable}
Loading…
Cancel
Save