Il prezzo che un individuo coerente riterrebbe equo per ricevere 1 nel caso l'evento si verificasse e 0 nel caso l'evento non si verificasse.
L'insieme di tutti gli esiti possibili di un esperimento.
Un elemento dello spazio campionario.
Un sottoinsieme dello spazio campionario.
Lo spazio campionario stesso è un evento certo.
Il complementare di un sottoinsieme.
L'intersezione di più sottoinsiemi.
L'unione di più sottoinsiemi.
L'inclusione del primo insieme in un altro.
Se si verifica , allora si verifica anche .
Un sottoinsieme vuoto.
La disgiunzione di due insiemi.
I sottoinsiemi dello spazio campionario formano una famiglia di sottoinsiemi detta famiglia degli eventi.
Qualsiasi sottoinsieme appartenente a è considerato un evento.
Se la famiglia degli eventi soddisfa questi tre requisiti, allora viene detta -algebra:
Un esempio:
Un insieme di esiti e eventi:
La partizione è composta dagli eventi , , , fino a .
La probabilità di un evento è un numero tra 0 e 1.
La probabilità dello spazio campionario è sempre 1.
La probabilità dell'unione di eventi indipendenti è uguale alla somma delle loro probabilità.
La probabilità di un evento negato è uguale a 1 meno la probabilità dell'evento non negato.
La probabilità di un evento incluso in un altro è sempre minore o uguale alla probabilità dell'evento in cui è incluso.
La probabilità di un evento unito a un altro è uguale alla somma delle probabilità dei due eventi meno la probabilità della loro intersezione.
Spazi campionari in cui ci sono un numero finito di esiti e ogni esito ha la stessa probabilità di verificarsi.
Gli spazi campionari possono avere un numero infinito di esiti: sono equiprobabili geometrici se nessun esito è privilegiato rispetto agli altri.
Estraggo un numero, da un sacchetto con numeri, mi segno che numero ho estratto e lo tengo fuori dal sacchetto. Ripeto per volte.
Tengo conto dell'ordine in cui ho estratto i numeri.
Estraggo un numero, da un sacchetto con numeri, mi segno che numero ho estratto e lo rimetto nel sacchetto. Ripeto per volte.
Tengo conto dell'ordine in cui ho estratto i numeri.
Estraggo un numero, da un sacchetto con numeri, mi segno che numero ho estratto e lo tengo fuori dal sacchetto. Ripeto per volte.
Non mi interessa l'ordine in cui ho estratto i numeri.
Estraggo un numero, da un sacchetto con numeri, mi segno che numero ho estratto e lo rimetto nel sacchetto. Ripeto per volte.
Non mi interessa l'ordine in cui ho estratto i numeri.
Estraggo numeri e guardo in quanti ordini diversi li posso mettere.
La probabilità che si verifichi sapendo che si è già verificato.
bash
, però al contrario...Se due eventi sono mutualmente esclusivi, entrambe le loro probabilità condizionate saranno uguali a 0.
Si può sfruttare la formula inversa della probabilità condizionata per calcolare catene di intersezioni:
La probabilità che si verifichi un evento è pari alla somma delle probabilità dell'evento stesso dati tutti gli eventi di una partizione.
La legge delle alternative funziona anche quando ad essere partizionato è un evento:
Tramite la formula di Bayes possiamo risalire alla probabilità di un evento condizionato a un altro partendo dalla probabilità di quest'ultimo condizionato al primo:
Se due eventi sono indipendenti, sapere che uno dei due si è verificato non influisce sulle probabilità che si sia verificato l'altro.
Si può verificare l'indipendenza di più eventi alla volta:
Eventi indipendenti a due a due non sono per forza indipendenti a tre a tre, e viceversa.
Un insieme di eventi è una famiglia di eventi indipendenti se, preso un qualsiasi numero di eventi da essa, essi risulteranno indipendenti.
Una funzione che fa corrispondere un numero reale a ogni possibile esito dello spazio campionario. .
Ad ogni variabile aleatoria sono associati gli eventi , che contengono tutti gli esiti a cui la variabile aleatoria associa un valore minore o uguale a .
Per definizione, tutte le variabili aleatorie devono rispettare questa condizione:
Il codominio della variabile aleatoria è il suo supporto.
Per indicare che un valore appartiene al supporto di , si usa la notazione .
La funzione probabilità di una variabile aleatoria discreta è la funzione che associa ad ogni esito la sua probabilità:
La funzione densità di una variabile aleatoria continua è l'equivalente continuo della funzione probabilità:
A differenza della funzione probabilità, è possibile che la funzione densità non esista per una certa variabile aleatoria.
Ogni variabile aleatoria ha una funzione di ripartizione associata, che rappresenta la probabilità che la variabile aleatoria assuma un valore minore o uguale a :
Si può dire che essa rappresenti la probabilità dell'evento :
Possiamo usare la funzione di ripartizione per calcolare la probabilità di un certo valore reale:
Nel discreto basta abbinare un nuovo valore a ogni valore della variabile originale.
Nel continuo applichiamo la formula dell'integrazione per sostituzione:
Trasformare variabili aleatorie è molto utile nell'informatica per creare distribuzioni partendo da una funzione random()
che restituisce numeri da 0 a 1 con una distribuzione lineare.
Ogni variabile aleatoria che ha una funzione di ripartizione e un supporto finito ha anche una media (o valore medio o atteso):
Nel discreto, si può calcolare con:
Nel continuo, si può calcolare con:
Valore per cui la funzione probabilità o funzione densità è massima.
Il quantile di ordine della variabile aleatoria è il più piccolo numero tale che:
Il quantile di ordine 0.5 è detto mediana.
I quantili di ordine 0.25 e 0.75 sono detti quartili.
I quantili di ordine sono detti -esima percentile.
È un valore che indica quanto la variabile aleatoria si discosta generalmente dalla media:
Data una variabile aleatoria non-negativa:
Divide in due parti ( e ) la funzione X, la cui media risulterà uguale a:
Se la variabile aleatoria ha media e varianza, allora la probabilità che essa abbia un valore a più di di distanza dal valore medio è minore o uguale a .
E anche:
Il momento -esimo di una variabile aleatoria è:
La funzione generatrice dei momenti è:
Se due variabile aleatorie hanno la stessa funzione generatrice dei momenti, allora esse hanno la stessa distribuzione.
E' la trasformata di Laplace della variabile aleatoria di X.
La funzione caratteristica è:
Se due variabile aleatorie hanno la stessa funzione caratteristica, allora esse hanno la stessa distribuzione.
E' la trasformata di Fourier della variabile aleatoria di X.
Per dire che una variabile ha una certa distribuzione, si usa la notazione:
Una prova con solo due possibili esiti: successo e insuccesso.
Una sequenza di prove di Bernoulli per le quali le probabilità di successo e fallimento rimangono invariate.
Una variabile aleatoria che rappresenta una prova di Bernoulli:
Il suo simbolo è
La distribuzione bernoulliana ha come densità:
Una variabile aleatoria che conta il numero di successi di prove di uno schema di Bernoulli.
Il suo simbolo è .
La binomiale ha come densità:
La funzione generatrice dei momenti della binomiale è:
La media di una binomiale è:
La varianza di una binomiale è:
Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli fino alla comparsa del primo successo.
Il suo simbolo è .
La geometrica ha come densità:
La funzione generatrice dei momenti della geometrica è:
La media della geometrica è:
La varianza della geometrica è:
La geometrica non tiene conto degli eventi avvenuti in passato: ha la proprietà dell'assenza di memoria:
Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli necessarie perchè si verifichi l'-esimo successo.
Il suo simbolo è .
La binomiale negativa ha come densità:
La funzione generatrice dei momenti della binomiale negativa è:
La media della binomiale negativa è:
La varianza della binomiale negativa è:
Una variabile aleatoria che conta il numero di insuccessi consecutivi in uno schema di Bernoulli:
Il suo simbolo rimane .
La geometrica traslata ha come densità:
La funzione generatrice dei momenti della geometrica traslata è:
La media della geometrica traslata è:
La varianza della geometrica è:
La geometrica traslata non tiene conto degli eventi avvenuti in passato: ha la proprietà dell'assenza di memoria:
Una variabile aleatoria che conta il numero di insuccessi in uno schema di Bernoulli prima che si verifichi l'-esimo successo.
Il suo simbolo rimane .
La binomiale negativa traslata ha come densità:
La funzione generatrice dei momenti della binomiale negativa traslata è:
La media della binomiale negativa traslata è:
La varianza della binomiale negativa traslata è:
Una variabile aleatoria che, sapendo il numero di successi e di insuccessi , conta quanti successi si otterrebbero se se ne estraessero in blocco.
Il suo simbolo è .
La ipergeometrica ha come densità:
La funzione generatrice dei momenti della ipergeometrica è trascurabile.
La media della ipergeometrica è:
La varianza della ipergeometrica è:
Una variabile aleatoria che soddisfa tutte le seguenti caratteristiche:
Il suo simbolo è
La poissoniana ha come densità:
La funzione generatrice dei momenti della poissoniana è:
La media della poissoniana è:
La varianza della poissoniana è:
Gli altri momenti della poissoniana sono:
Una successione di arrivi avvenuti in un certo arco temporale che:
Una variabile aleatoria che conta il numero di arrivi di uno schema di Poisson di intensità in un intervallo di tempo di durata .
E' una distribuzione poissoniana con :
Una variabile aleatoria che conta il tempo diwidehattesa prima del primo arrivo di un processo di Poisson di intensità .
Il suo simbolo è .
L'esponenziale ha come densità:
L'esponenziale ha come funzione di ripartizione:
La funzione generatrice dei momenti dell'esponenziale è:
La media dell'esponenziale è:
La varianza dell'esponenziale è:
L'esponenziale non tiene conto degli eventi avvenuti in passato: ha la proprietà dell'assenza di memoria:
Una variabile aleatoria che conta il tempo diwidehattesa prima dell'-esimo arrivo di un processo di Poisson di intensità .
Il suo simbolo è .
La legge gamma ha come densità:
La funzione generatrice dei momenti della legge gamma è:
La media della legge gamma è:
La varianza della legge gamma è:
Una variabile aleatoria che può assumere qualsiasi valore in un intervallo in modo equiprobabile.
Il suo simbolo è
Su di essa vale la seguente proprietà:
La distribuzione uniforme ha come densità:
La distribuzione uniforme ha come funzione di ripartizione:
La funzione generatrice dei momenti della distribuzione uniforme è:
La media della distribuzione uniforme è:
La varianza della distribuzione uniforme è:
Una variabile aleatoria con una specifica distribuzione.
Il suo simbolo è .
La distribuzione normale ha come densità:
La funzione generatrice dei momenti della distribuzione normale è:
La media della distribuzione normale è:
La varianza della distribuzione normale è:
Qualsiasi normale può essere trasformata in qualsiasi altra normale:
La distribuzione normale standard è:
La sua funzione di ripartizione è detta e vale:
Da un quantile della normale standard è possibile risalire allo stesso quantile di qualsiasi altra normale:
La distribuzione normale ha una particolare relazione con la distribuzione Gamma:
Esiste una distribuzione Gamma particolare:
Più chi-quadro possono essere sommate per aumentare i loro gradi di libertà:
Un'altra funzione particolare è la funzione T di Student:
La binomiale è come una ipergeometrica ma con ripetizioni, quindi per valori molto grandi di rispetto a , si può dire che:
La binomiale non è altro che una poissoniana a tempo discreto, quindi, se è grande e è nell'ordine di grandezza delle unità, allora:
Per il Teorema di De Moivre-Laplace, se una binomiale ha una grande e non vicina a 0 o 1, si può approssimare con:
Passando da una variabile discreta a una continua , per ogni valore discreto la probabilità viene "spalmata" su tutto l'intervallo :
Un vettore composto da variabili aleatorie.
Il suo simbolo generalmente è oppure .
I vettori aleatori hanno più funzioni di ripartizione che si differenziano in base al numero di parametri.
Se il numero di parametri coincide con la dimensione del vettore aleatorio, allora la funzione sarà una funzione di ripartizione congiunta:
Se il numero di parametri è minore della dimensione del vettore aleatorio, allora la funzione sarà una funzione di ripartizione marginale:
I vettori aleatori discreti hanno più densità che si differenziano in base al numero di parametri.
Se il numero di parametri coincide con la dimensione del vettore aleatorio, allora la funzione sarà una densità congiunta:
Se il numero di parametri è minore della dimensione del vettore aleatorio, allora la funzione sarà una densità marginale:
Più variabili aleatorie sono indipendenti se, per qualsiasi scelta di intervalli :
E' possibile calcolare la media di qualsiasi funzione avente elementi del vettore come variabili:
Le medie di più variabili aleatorie si possono sommare:
Un operatore che misura la correlazione di due variabili aleatorie.
Si calcola con il valore atteso dei prodotti delle distanze dalla media:
Ha diverse proprietà:
Due variabili sono variabili incorrelate se:
Variabili indipendenti sono sempre incorrelate.
Una matrice che contiene la covarianza tra tutte le variabili di un vettore aleatorio :
E' sempre simmetrica e semidefinita positiva (tutti gli autovalori sono .
Un valore che misura come due variabili aleatorie sono correlate:
E' sempre compreso tra -1 e 1:
Vale esattamente -1 o 1 solo se esiste un legame lineare tra le due variaibli:
La varianza di due variabili aleatorie sommate è:
Se più variabili aleatorie sono indipendenti (), allora:
Una n-pla di variabili aleatorie con la stessa distribuzione della variabile aleatoria ("popolazione") ma indipendenti tra loro.
Il valore dato dalla media aritmetica degli elementi del campione elevati alla potenza :
Il momento campionario di primo ordine è la media campionaria.
La media aritmetica dello scarto quadratico medio degli elementi del campione.
Se è noto il valore medio di X:
Altrimenti:
Se calcoliamo la media della media campionaria, risulterà vero che:
Se calcoliamo la varianza della media campionaria, risulterà vero che:
Se calcoliamo la media della varianza campionaria, risulterà vero che:
Se la popolazione ha una distribuzione normale ()...
...allora sappiamo anche la distribuzione della media campionaria!
...e anche della varianza campionaria!
...e che media campionaria e varianza campionaria sono indipendenti tra loro!
Se la successione di variabili aleatorie all'infinito ha la stessa funzione di ripartizione della popolazione , allora essa converge in distribuzione.
Se la successione di variabili aleatorie all'infinito ha la stessa probabilità della popolazione , allora essa converge in probabilità.
Se la successione di variabili aleatorie all'infinito ha la stessa probabilità a della popolazione , allora essa converge quasi certamente.
Se la successione di variabili aleatorie all'infinito ha la media del quadrato della distanza tra la successione e la popolazione uguale a 0, allora essa converge in media quadratica.
In più:
La successione delle medie campionarie converge in probabilità alla media della popolazione , se essa esiste.
Ovvero:
La successione delle medie campionarie converge quasi certamente alla media della popolazione , se essa esiste.
Ovvero:
La successione delle medie campionarie converge in distribuzione a .
Ovvero:
E' una somma di bernoulliane, e quindi si approssima a una normale:
E' una somma di geometriche, e quindi si approssima a una normale:
E' una somma di altre poissoniane, e quindi si approssima a una normale:
E' una somma di esponenziali, e quindi si approssima a una normale:
Se è grande, allora:
Per indicare parametri sconosciuti di una legge si usa .
Una variabile aleatoria funzione di un campione:
Una statistica ottenuta da osservazioni, che stimi i parametri di una legge e sia indipendente da essi.
Uno stimatore è corretto se il suo valore atteso coincide con quello dei parametri che stima:
Uno stimatore è asintoticamente corretto se, per infinite osservazioni, il suo valore atteso coincide con quello dei parametri che stima:
Uno stimatore è consistente in media quadratica se:
Uno stimatore è consistente in probabilità se:
Uno stimatore è asintoticamente normale se:
Si può usare il metodo dei momenti per ottenere uno stimatore di una popolazione .
Lo stimatore di così ottenuto sarà indicato aggiungendo un cappellino e una a :
Visto che:
Allora:
Se non è esprimibile in termini di , si possono usare i momenti successivi , , ...
Si può usare il metodo della massima verosomiglianza per ottenere uno stimatore di una popolazione .
Lo stimatore di così ottenuto sarà indicato aggiungendo un cappellino e una a :
Consiste nel trovare il massimo assoluto della la funzione di verosomiglianza :
Gli stimatori di massima verosomiglianza sono asintoticamente corretti, consistenti in probabilità e asintoticamente normali.
Gli stimatori di massima verosomiglianza godono delle seguenti proprietà:
Per il metodo dei momenti oppure per il metodo della massima verosomiglianza:
Per il metodo dei momenti oppure per il metodo della massima verosomiglianza:
Per il metodo dei momenti oppure per il metodo della massima verosomiglianza:
Per il metodo della massima verosomiglianza:
L'intervallo di valori di all'interno del quale siamo "più o meno sicuri" si trovi il valore effettivo:
L'intervallo di confidenza a N della stima è l'intervallo tale che:
Può anche essere unilatero nel caso limiti la stima in una sola direzione, positiva o negativa.
Se conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli intervalli di confidenza all'% con queste formule:
Se non conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli intervalli di confidenza all'% con queste formule:
è un quantile della distribuzione di Student di parametro .
L'intervallo di confidenza per la proprorzione di una bernoulliana qualsiasi si ottiene da questa formula:
L'intervallo di confidenza per la media di una qualsiasi popolazione si ottiene da questa formula: