%--------------------------------------------------------------------
\chapter * { Notazioni impiegate}
\addcontentsline { toc} { chapter} { Notazioni impiegate}
\setlength { \parindent } { 2pt}
\begin { multicols*} { 2}
\section * { Algebra lineare}
\addcontentsline { toc} { section} { Algebra lineare}
\begin { itemize}
\item $ q _ \varphi $ -- dato uno spazio vettoriale $ V $ equipaggiato con un
prodotto scalare $ \varphi $ , $ q _ \varphi $ è la forma quadratica associatogli, ovverosia
$ q _ \varphi ( v ) = \varphi ( v, v ) $ .
\item $ \norm { v } _ { \varphi } $ -- dato uno spazio vettoriale reale $ V $ equipaggiato con
un prodotto scalare (semi)definito positivo $ \varphi $ , $ \norm { \cdot } _ { \varphi } $ è
la (semi)norma indotta da $ \varphi $ , ovverosia $ \norm { v } _ { \varphi } = \sqrt { q _ { \varphi } ( v ) } = \sqrt { \varphi ( v, v ) } $ .
\item vettore isotropo --
vettore che annulla la forma quadratica.
\item vettore anisotropo -- vettore non isotropo, vettore che non annulla la forma quadratica.
\item $ \cos _ \varphi ( v, w ) $ , $ \cos ( v, w ) $ -- dati due vettori anisotropi $ v $ , $ w $ su uno spazio vettoriale reale $ V $ equipaggiato
di un prodotto scalare semidefinito positivo $ \varphi $ , si definisce
$ \cos _ \varphi ( v, w ) $ (o $ \cos ( v, w ) $ se $ \varphi $ è noto dal contesto) in modo tale che:
\[
\cos _ \varphi (v, w) = \frac { \varphi (v, w)} { \norm { v} _ \varphi \cdot \norm { w} _ \varphi } .
\]
\item vettore $ v $ ortogonale a $ w $ per $ \varphi $ -- Due vettori $ v $ , $ w $ tali
per cui $ \varphi ( v, w ) = 0 $ .
\item $ V ^ \perp _ { \varphi } $ -- Radicale del prodotto scalare (o hermitiano) $ \varphi $
sullo spazio $ V $ , ovverosia sottospazio dei vettori ortogonali ai vettori di tutto
lo spazio.
\item $ \CI ( \varphi ) $ -- Sottoinsieme dei vettori di $ V $ che annullano $ q _ { \varphi } $ , ossia
sottoinsieme dei vettori isotropi.
\item $ C _ { \varphi } ( v, w ) $ -- coefficiente di Fourier di
$ v $ rispetto a $ w $ , ossia $ C ( v, w ) \defeq \frac { \varphi ( v, w ) } { \varphi ( v, v ) } $ .
\end { itemize}
\section * { Analisi matematica}
\addcontentsline { toc} { section} { Analisi matematica}
\begin { itemize}
\item $ f ( A _ i ) \goesup x $ -- la successione $ ( f ( A _ i ) ) _ { i \in \NN } $ a valori
in $ \RR $ è crescente al crescere di $ i $ e ha come limite $ x $ .
\item $ f ( A _ i ) \goesdown x $ -- la successione $ ( f ( A _ i ) ) _ { i \in \NN } $ a valori
in $ \RR $ è decrescente al crescere di $ i $ e ha come limite $ x $ .
\item esponente coniugato di $ p $ -- per $ p > 1 $ , l'esponente coniugato
$ p' $ di $ p $ è un numero reale $ p' > 1 $ tale per cui:
\[
\frac { 1} { p} + \frac { 1} { p'} = 1.
\]
\item $ \norm { x } _ p $ -- norma $ p $ -esima del vettore $ x \in \RR ^ n $ , ovverosia:
\[
\norm { x} _ p = \left (\sum _ { i \in [n]} \abs { x_ i} ^ p\right )^ \frac { 1} { p} .
\]
Per $ p = 2 $ , si scrive semplicemente $ \norm { x } $ , e coincide con la norma
indotta dal prodotto scalare canonico di $ \RR ^ n $ .
\item $ f > g $ -- per una funzione $ f $ a valori reali, come affermazione
corrisponde a dire che per un qualsiasi punto del dominio $ x $ , $ f ( x ) > g ( x ) $ . Si estende naturalmente a $ < $ , $ \geq $ , $ \leq $ (eventualmente con
catene di disuguaglianze). Da non
confondersi con l'insieme $ f > g $ .
\item $ a $ -- per una costante $ a \in \RR $ la mappa costante $ D \ni d \mapsto a \in \RR $ ;
la sua interpretazione dipende dal contesto.
\item $ f ^ + $ -- parte positiva di una mappa $ f $ a valori reali, ovverosia
$ f ^ + ( a ) $ è uguale a $ f ( a ) $ se $ f ( a ) \geq 0 $ e $ 0 $ altrimenti.
\item $ f ^ - $ -- parte negativa di una mappa $ f $ a valori reali, ovverosia
$ f ^ - ( a ) $ è uguale a $ - f ( a ) $ se $ f ( a ) \leq 0 $ e $ 0 $ altrimenti. In questo
modo $ f = f ^ + - f ^ - $ .
\item $ \exp $ -- funzione esponenziale $ e ^ x $ .
\item $ \log \equiv \ln = \log _ e $ -- logaritmo naturale, ossia logaritmo in base $ e $ .
\item $ C ^ n $ , $ C ^ n ( \RR ) $ -- classe delle funzioni derivabili $ n $ volte con $ n $ -esima derivata continua. Per $ n = 0 $ , classe di funzioni continue.
\item $ C ^ \infty $ -- classe delle funzioni derivabili un numero illimitato di volte.
\item $ C _ b $ , $ C _ b ( \RR ) $ -- classe delle funzioni reali, continue e limitate.
\item $ \Gamma ( x ) = \int _ 0 ^ \infty t ^ { x - 1 } e ^ { - t } \dt $ -- funzione gamma. È tale per cui $ \Gamma ( n + 1 ) = n ! $ per ogni $ n \in \NN $ .
\item $ f * g $ -- convoluzione di funzioni; tale che $ ( f * g ) ( z ) $ sia pari a $ \int _ \RR f ( x ) g ( z - x ) \dx $ .
\end { itemize}
\section * { Combinatoria}
\addcontentsline { toc} { section} { Combinatoria}
\begin { itemize}
\item $ D _ { n,k } = \frac { n ! } { ( n - k ) ! } $ -- numero di disposizioni ottenute prendendo
$ k $ elementi tra $ n $ oggetti.
\item $ \binom { n } { k } = C _ { n,k } $ -- il coefficiente binomiale $ n $ su $ k $ ,
ovverosia il numero di combinazioni possibili prendendo $ k $ elementi tra $ n $ oggetti; equivale a $ \frac { n ! } { ( n - k ) ! k ! } = D _ { n,k } / k ! $ . Alternativamente,
il numero di sottoinsiemi di $ k $ elementi in $ [ n ] $ .
\item $ S ( I ) $ -- gruppo simmetrico relativo a $ I $ , gruppo delle permutazioni
di $ I $ .
\item $ S _ n $ -- $ n $ -esimo gruppo simmetrico, gruppo delle permutazioni
di $ [ n ] $ .
\end { itemize}
\section * { Teoria degli insiemi}
\addcontentsline { toc} { section} { Teoria degli insiemi}
\begin { itemize}
\item $ \PP ( \Omega ) $ -- insieme delle parti di $ \Omega $ , ossia insieme
dei sottoinsiemi di $ \Omega $ .
\item $ \restr { f } { A } $ -- restrizione della funzione al dominio $ A $ .
\item $ A \cupdot B $ -- unione disgiunta di $ A $ e $ B $ , ovverosia $ A \cup B $ con
l'ipotesi che $ A \cap B = \emptyset $ (la notazione si estende naturalmente a
una famiglia di insiemi a due a due disgiunti).
\item $ A \Delta B = A \setminus B \cupdot B \setminus A $ -- differenza simmetrica
tra $ A $ e $ B $ .
\item $ [ n ] $ -- l'insieme $ \{ 1 , \ldots , n \} $ .
\item $ \prod _ { i \in I } S _ i $ con $ S _ i $ insieme e $ I $ ordinato -- prodotto cartesiano degli $ S _ i $ , ordinato secondo $ I $ .
\item $ [ [ n ] ] $ -- l'insieme $ \{ 0 , \ldots , n \} = \{ 0 \} \cup [ n ] $ .
\item $ \# A $ , $ \abs { A } $ -- numero di elementi di $ A $ , o semplicemente la cardinalità di $ A $ .
\item insieme finito -- insieme in bigezione con $ [ n ] $ per qualche $ n \in \NN $ .
\item insieme numerabile -- insieme in bigezione con $ \NN $ .
\item $ A _ i \goesup A $ -- la famiglia $ ( A _ i ) _ { i \in \NN } $ è crescente e ha
come limite $ A $ , ovverosia $ A _ i \subseteq A _ { i + 1 } $ per ogni $ i \in \NN $ e
$ \bigcup _ { i \in \NN } A _ i = A $ .
\item $ A _ i \goesdown A $ -- la famiglia $ ( A _ i ) _ { i \in \NN } $ è decrescente e ha
come limite $ A $ , ovverosia $ A _ i \supseteq A _ { i + 1 } $ per ogni $ i \in \NN $ e
$ \bigcap _ { i \in \NN } A _ i = A $ .
\item $ \omega _ i $ -- $ i $ -esima coordinata di $ \omega \in \Omega $ , se
$ \Omega $ è un prodotto cartesiano di finiti termini o di un numero
numerabile di termini.
\item $ A ^ 1 \defeq A $ -- useremo questa notazione per comodità.
\item $ A ^ c $ -- il complementare di $ A $ riferito a $ \Omega $ , quindi $ \Omega \setminus A $ , in modo tale che $ \Omega = A \cupdot A ^ c $ .
\item $ X \inv ( A ) $ -- controimmagine dell'insieme $ A \subseteq C $ in riferimento
alla funzione $ X : D \to C $ , ovverosia $ X \inv ( A ) = \{ \omega \in D \mid X ( \omega ) \in A \} $ .
\item $ S _ X $ , $ \im X $ -- immagine della funzione $ X $ .
\item $ \supp X $ -- supporto di $ X $ , ovverosia sottoinsieme del
dominio degli elementi che non annullano $ X $ .
\item $ 1 _ A $ , $ I _ A $ -- funzione indicatrice di $ A $ , ovverosia la
funzione $ 1 _ A : B \to [ [ 1 ] ] \subseteq \RR $ riferita ad $ A \subseteq B $
tale per cui:
\[
1_ A(b) = \begin { cases}
1 & \text { se } b \in A, \\
0 & \text { altrimenti} .
\end { cases}
\]
\item $ 1 _ { \texttt { exp } } $ -- $ 1 $ se $ \texttt { exp } $ è vera, $ 0 $ altrimenti.
\item $ \groupto $ -- simbolo utilizzato al posto $ \to $ quando si elencano
più funzioni che condividono o lo stesso dominio o lo stesso codominio (e.g.~$ f $ , $ g : A $ , $ B \groupto C $ elenca una funzione $ f : A \to C $ e una $ g : B \to C $ ; $ f $ , $ g : A \groupto B $ , $ C $ elenca una funzione
$ f : A \to B $ e una $ g : A \to C $ ).
\end { itemize}
\section * { Topologia generale}
\addcontentsline { toc} { section} { Topologia generale}
\begin { itemize}
\item $ \tau ( X ) $ -- dato $ X $ spazio metrico, insieme degli aperti di $ X $ , ossia topologia di $ X $ .
\item spazio separabile -- spazio topologico contenente un denso, ossia un insieme la cui chiusura è tutto lo spazio (e.g.~$ \QQ $ per $ \RR $ ).
\item spazio II-numerabile -- spazio topologico che ammette una base numerabile.
\end { itemize}
\section * { Probabilità e teoria della misura}
\addcontentsline { toc} { section} { Probabilità e teoria della misura}
\begin { itemize}
\item $ \Omega $ -- spazio campionario, l'insieme di tutti i possibili esiti dell'esperimento aleatorio considerato.
\item $ \sigma ( \tau ) $ -- $ \sigma $ -algebra generata dalla famiglia $ \tau \subseteq \PP ( \Omega ) $ .
\item $ \sigma \{ A _ 1 , \ldots , A _ n \} $ -- $ \sigma $ -algebra generata dalla famiglia
$ \tau = \{ A _ 1 , \ldots , A _ n \} \subseteq \PP ( \Omega ) $ .
\item $ \BB ( X ) $ -- $ \sigma $ -algebra dei boreliani, ossia $ \sigma $ -algebra generata dagli aperti di $ X $ spazio metrico separabile.
\item $ \FF $ -- $ \sigma $ -algebra relativa a $ \Omega $ , ossia l'insieme dei possibili eventi.
\item $ ( \Omega , \FF ) $ -- spazio misurabile.
\item $ \pi $ -sistema -- insieme $ I \subseteq \FF $ , $ I \neq \emptyset $ con $ ( \Omega , \FF ) $ spazio misurabile, $ \sigma ( I ) = \FF $ e $ I $ chiuso per intersezioni.
\item $ \mu $ -- misura su uno spazio misurabile.
\item $ m $ -- misura di Lebesgue sullo spazio misurabile $ ( \RR , \BB ( \RR ) ) $ . È tale per cui $ m ( [ a, b ] ) = b - a $ per $ b > a $ .
\item $ m $ -- misura di Lebesgue sullo spazio misurabile $ \left ( \RR ^ d, \BB \left ( \RR ^ d \right ) \right ) $ con $ d \geq 1 $ . È tale per cui
$ m \left ( [ a _ 1 , b _ 1 ] \times \cdots \times [ a _ d, b _ d ] \right ) = ( b _ 1 - a _ 1 ) \cdots ( b _ d - a _ d ) $ con $ a _ i $ , $ b _ i \in \RR $ e
$ b _ i > a _ i $ per $ 1 \leq i \leq d $ . Non si distingue generalmente la notazione dal caso unidimensionale.
\item $ P $ -- misura di probabilità su uno spazio misurabile.
\item $ ( \Omega , \FF , P ) $ -- spazio di probabilità.
\item \qc -- quasi certo/quasi certamente.
\item \qo -- quasi ovunque.
\item $ p $ -- per $ \Omega $ discreto, funzione di densità discreta; per una probabilità discreta $ P $ , la densità discreta della probabilità
ristretta all'insieme $ \Omega _ 0 $ su cui è concentrata $ P $ o, con abuso di notazione, la mappa $ x \mapsto P ( \{ x \} ) $ (che coincide
sui termini di $ \Omega _ 0 $ con $ p $ e che è $ 0 $ negli altri punti).
\item $ \delta _ a $ -- delta di Dirac; dato uno spazio misurabile $ ( \Omega , \FF ) $ e $ a \in \Omega $ , probabilità tale per cui
$ \delta _ a ( A ) = 1 $ se $ a \in A $ e $ 0 $ altrimenti (tale probabilità è concentrata in $ \{ a \} $ ed è dunque
discreta).
\item f.d.r.~-- funzione di ripartizione, rispetto a una probabilità reale.
\item $ F $ , $ F _ P $ -- per una probabilità reale, funzione di ripartizione.
\item $ f $ -- densità (in senso reale) della probabilità.
\item AC -- assolutamente continua, riferito a una probabilità.
\item \va -- variabile aleatoria.
\item $ P ^ X $ -- legge della v.a.~$ X $ rispetto a $ P $ .
\item $ p _ X $ -- densità della legge della v.a.~$ X $ , rispetto a $ P $ .
\item $ X \in A $ -- per una \va $ X : \Omega \to S $ ,
$ X \in A $ è l'insieme $ X \inv ( A ) $ . Si estende naturalmente
al caso $ \notin $ .
\item $ X = a $ -- per una \va $ X : \Omega \to S $ ,
$ X = a $ è l'insieme $ X \inv ( a ) $ . Si estende naturalmente
al caso $ \neq $ .
\item $ X = Y $ -- per due \va $ X, Y : \Omega \groupto S $
l'insieme $ \{ \omega \in \Omega \mid X ( \omega ) = Y ( \omega ) \} $ .
Si estende naturalmente al caso $ \neq $ e in modo analogo a $ > $ , $ < $ , $ \leq $ , $ \geq $ .
\item $ X > a $ -- per una \va reale $ X : \Omega \to \RR $ ,
$ X > a $ è l'insieme $ X \inv ( ( a, \infty ) ) $ ; per una \va discreta
$ X : \Omega \to \RR $ è l'insieme $ X \inv ( \{ m \in \NN \mid m > a \} ) $ .
Si estende naturalmente ai casi $ < $ , $ \leq $ , $ \geq $ (eventualmente
anche con una catena di disuguaglianze). Da non confondersi con
l'affermazione $ X > a $ per $ X $ a valori reali.
\item $ \varphi ( X ) $ -- per una \va , la composizione $ \varphi \circ X $ .
\item $ \deq $ , $ \sim $ -- per due v.a.~$ X, Y : \Omega _ 1 , \Omega _ 2 \groupto S $
indica l'uguaglianza di legge, ovverosia $ P _ { \Omega _ 1 } ^ X = P _ { \Omega _ 2 } ^ Y $ .
\item i.d.~-- identicamente distribuite; utilizzato in relazione a un gruppo
di v.a.~che condividono la stessa legge (spesso rispetto a uno stesso $ \Omega $ ).
\item i.i.d.~-- indipendenti e identicamente distribuite; utilizzato in relazione
a un gruppo di v.a.~indipendenti che condividono la stessa legge (spesso rispetto
a uno stesso $ \Omega $ ).
\item $ ( X _ i ) _ { i \in I } $ -- famiglia di v.a., oppure v.a.~congiunta.
\item $ ( X _ 1 , \ldots , X _ n ) $ -- per una famiglia $ ( X _ i : \Omega \to S _ i ) _ { i \in [ n ] } $ di
v.a.~indica la v.a.~congiunta (multivariata) $ ( X _ 1 , \ldots , X _ n ) : \Omega \to \prod _ { i \in [ n ] } S _ i $ , $ \omega \mapsto ( X _ 1 ( \omega ) , \ldots , X _ n ( \omega ) ) $ . Se la
famiglia è composta da due variabili, si dice anche \textit { coppia bivariata} .
\item $ P ( A, B ) \defeq P ( A \cap B ) $ -- notazione introdotta per scrivere
più comodamente $ P ( X = x, Y = y ) $ in luogo di $ P ( ( X = x ) \cap ( Y = y ) ) $ . Si
generalizza in modo naturale a più eventi.
\item $ L ( A, B ) \defeq \frac { P ( A \mid B ) } { P ( A ) } $ -- rapporto di influenza tra
$ A $ e $ B $ .
\item $ \bigotimes _ { i \in [ n ] } P _ i = P _ 1 \otimes \cdots \otimes P _ n $ --
Date $ P _ i $ probabilità su $ S _ i $ discreto, $ P _ 1 \otimes \cdots \otimes P _ n \defeq P $ è la misura di probabilità naturale su $ \prod _ { i \in [ n ] } S _ i $ tale per cui
le proiezioni $ \pi _ i $ siano v.a.~discrete indipendenti e per cui
$ P ( \pi _ i = x _ i ) = p _ i ( x _ i ) $ per ogni $ x _ i \in S _ i $ , $ i \in [ n ] $ .
\item $ \EE [ X ] $ -- valore atteso di $ X $ .
\item $ \EE [ X \mid A ] = \defeq \frac { \EE [ X \cdot 1 _ A ] } { P ( A ) } $ -- valore atteso di $ X $
condizionato a $ A $ .
\item $ \Cov ( X, Y ) \defeq \EE [ ( X - \EE [ X ] ) ( Y - \EE [ Y ] ) ] $ -- covarianza di $ X $ e $ Y $ .
\item $ \Var ( X ) \defeq \Cov ( X, X ) $ -- varianza di $ X $ .
\item $ \sigma ( X ) \defeq \sqrt { \Var ( X ) } $ -- deviazione standard di $ X $ .
\item $ \rho ( X, Y ) $ -- coefficiente
di correlazione di Pearson, ovverosia
$ \cos _ { \Cov } ( X, Y ) = \frac { \Cov ( X, Y ) } { \sigma ( X ) \cdot \sigma ( Y ) } $ .
\item $ a ^ * $ , $ b ^ * $ -- date due
v.a.~$ X $ , $ Y $ , $ a ^ * $ e $ b ^ * $ sono
i parametri della retta di
regressione $ y = a ^ * x + b ^ * $ .
\item $ I ( t ) $ -- trasformata di Cramer.
\item LGN - Legge dei Grandi Numeri.
\item TCL, TLC - Teorema Centrale del Limite (o Teorema del Limite Centrale).
\item $ \overline { X } $ , $ \overline { X _ n } $ -- media delle v.a.~$ X _ 1 $ , ..., $ X _ n $ , ovverosia $ \frac { 1 } { n } \sum _ { i = 1 } ^ n X _ i $ .
\item $ m $ , $ \sigma $ -- spesso nel contesto
della LGN e del TCL si usa $ m $ per
indicare $ \EE [ X _ 1 ] $ e $ \sigma $ per
indicare $ \sigma ( X _ 1 ) $ .
\item $ Z $ , $ Z _ 1 $ -- normale standard $ N ( 0 , 1 ) $ -
\item $ Z _ \sigma $ -- normale $ N ( 0 , \sigma ^ 2 ) $ .
\end { itemize}
\section * { Statistica inferenziale}
\addcontentsline { toc} { section} { Statistica inferenziale}
\begin { itemize}
\item $ x _ 1 $ , ..., $ x _ n $ -- dati statistici.
\item $ \overline { x } $ , $ \overline { x _ n } $ -- media campionaria dei dati $ x _ 1 $ , ..., $ x _ n $ , ovverosia $ \frac { 1 } { n } \sum _ { i = 1 } ^ n x _ i $ .
\item $ \overline { X } $ , $ \overline { X _ n } $ -- media campionaria delle v.a.~$ X _ 1 $ , ..., $ X _ n $ , ovverosia $ \frac { 1 } { n } \sum _ { i = 1 } ^ n X _ i $ .
\item $ m _ x $ -- mediana campionaria sui dati $ x _ 1 $ , ..., $ x _ n $ , ovverosia $ x _ { \nicefrac { n + 1 } { 2 } } $ se $ n $ è dispari, oppure
$ \nicefrac { \left ( x _ { \nicefrac { n } { 2 } } + x _ { \nicefrac { ( n + 2 ) } { 2 } } \right ) } { 2 } $ se $ n $ è pari.
\item $ s ^ 2 $ , $ s ^ 2 _ x $ , $ \sigma _ x ^ 2 $ -- varianza campionaria \textit { corretta} , ovverosia $ \frac { 1 } { n - 1 } \sum _ { i = 1 } ^ n ( x _ i - \overline { x } ) ^ 2 $ ; da
non confondersi con l'usuale varianza, che è invece $ \frac { n - 1 } { n } s ^ 2 $ .
\item $ S ^ 2 $ -- varianza campionaria \textit { corretta} nelle v.a. $ X _ i $ , ovverosia $ \frac { 1 } { n - 1 } \sum _ { i = 1 } ^ n ( X _ i - \overline { X } ) ^ 2 $ .
\item $ r $ -- coefficiente di correlazione campionaria, ovverosia $ \frac { \sum _ { i = 1 } ^ n \left ( x _ i - \overline { x } \right ) \left ( y _ i - \overline { y } \right ) } { \sqrt { \sum _ { i = 1 } ^ n \left ( x _ i - \overline { x } \right ) ^ 2 \cdot \sum _ { i = 1 } ^ n \left ( y _ i - \overline { y } \right ) ^ 2 } } $ .
\item $ ( S, \cS ) $ -- spazio misurabile relativa alla statistica di studio.
\item $ \Theta $ -- insieme dei possibili parametri per la distribuzione di probabilità sui dati $ x _ 1 $ , ..., $ x _ n $ .
\item $ Q _ \theta $ -- probabilità ottenuta utilizzando il parametro $ \theta \in \Theta $ .
\item $ ( S, \cS , ( Q _ \theta ) _ { \theta \in \Theta } ) $ -- modello statistico (parametrico).
\item $ \EE ^ \theta $ -- valore atteso relativo a $ Q _ \theta $ .
\item $ \Var ^ \theta $ -- varianza relativa a $ Q _ \theta $ .
\item $ R _ \sigma ( U ) $ -- rischio quadratico dello stimatore $ U $ di $ h : \Theta \to \RR $ relativamente a $ Q _ \theta $ , ovverosia $ \EE [ ( U - h ( \theta ) ) ^ 2 ] $ . Pari a
a $ \Var ^ \theta ( U ) $ se $ U $ è uno stimatore corretto.
\item $ m _ \theta $ -- se $ Q _ \theta $ è discreta, densità discreta $ q _ \theta $ (o $ p _ \theta $ ); se $ Q _ \theta $ è assolutamente continua,
funzione di densità $ f _ \theta $ .
\item $ L $ , $ L _ \theta $ , $ L _ \theta ( x _ 1 , \ldots , x _ n ) $ -- funzione di verosomiglianza, ovverosia $ L : \Theta \times \RR ^ n $ che
associa $ ( \theta , ( x _ i ) ) $ a $ L _ \theta ( x _ 1 , \ldots , x _ n ) = \prod _ i m _ \theta ( x _ i ) $ .
\item $ L _ U $ , $ L _ U ( X _ 1 , \ldots , X _ n ) $ -- si intende $ L _ { U ( \omega ) } ( X _ 1 ( \omega ) , \ldots , X _ n ( \omega ) ) $ , per un dato $ \omega \in S $ .
\end { itemize}
\end { multicols*}