Unisteffo

Statistica ed elementi di probabilità

Tipi di probabilità

Classica

Frequentista

Soggettiva

Il prezzo che un individuo coerente riterrebbe equo per ricevere 1 nel caso l'evento si verificasse e 0 nel caso l'evento non si verificasse.

Linguaggio matematico

Spazio campionario

"omegone"

L'insieme di tutti gli esiti possibili di un esperimento.

Esito

"omeghino"

Un elemento dello spazio campionario.

Evento

"e"

Un sottoinsieme dello spazio campionario.

Lo spazio campionario stesso è un evento certo.

Not

"not e"

Il complementare di un sottoinsieme.

And

"e intersecato effe"

L'intersezione di più sottoinsiemi.

Or

"e unito a effe"

L'unione di più sottoinsiemi.

Differenza

"e meno effe"

Implicazione

"e contenuto in effe"

L'inclusione del primo insieme in un altro.

Se si verifica , allora si verifica anche .

Evento impossibile

"e è impossibile"

Un sottoinsieme vuoto.

Mutua esclusione

"e ed effe si escludono mutualmente"

La disgiunzione di due insiemi.

Famiglia degli eventi

"famiglia effe"

I sottoinsiemi dello spazio campionario formano una famiglia di sottoinsiemi detta famiglia degli eventi.

Qualsiasi sottoinsieme appartenente a è considerato un evento.

-algebra

"sigma algebra"

Se la famiglia degli eventi soddisfa questi tre requisiti, allora viene detta -algebra:

  1. Lo spazio campionario è un evento:
  2. Se un sottoinsieme è un evento, allora anche il suo complementare lo è:
  3. Se due sottoinsiemi sono eventi, allora lo sono anche la loro unione e intersezione:

Un esempio:

Partizione

"la partizione e composta da e uno, e due, e tre..."

Un insieme di esiti e eventi:

  • Finito.
  • In cui tutti gli eventi hanno probabilità diversa da 0.
  • In cui tutti gli eventi sono mutualmente esclusivi.
  • In cui l'unione di tutti i suoi elementi copre lo spazio campionario.

La partizione è composta dagli eventi , , , fino a .

Se lo spazio campionario fosse una torta, una sua partizione sarebbe l'insieme delle fette di uno dei modi in cui si potrebbe tagliare.

Assiomi della probabilità

Primo assioma della probabilità

La probabilità di un evento è un numero tra 0 e 1.

Secondo assioma della probabilità

La probabilità dello spazio campionario è sempre 1.

Terzo assioma della probabilità

La probabilità dell'unione di eventi indipendenti è uguale alla somma delle loro probabilità.

Conseguenze degli assiomi

Probabilità di un evento negato

La probabilità di un evento negato è uguale a 1 meno la probabilità dell'evento non negato.

Probabilità di un evento incluso

La probabilità di un evento incluso in un altro è sempre minore o uguale alla probabilità dell'evento in cui è incluso.

Unione

La probabilità di un evento unito a un altro è uguale alla somma delle probabilità dei due eventi meno la probabilità della loro intersezione.

Sommando le probabilità dei due eventi, l'intersezione viene contata due volte, e va quindi rimossa!

Spazi equiprobabili

Cosa sono?

Spazi campionari in cui ci sono un numero finito di esiti e ogni esito ha la stessa probabilità di verificarsi.

Spazi equiprobabili geometrici

Gli spazi campionari possono avere un numero infinito di esiti: sono equiprobabili geometrici se nessun esito è privilegiato rispetto agli altri.

Calcolo combinatorio

Disposizioni

Estraggo un numero, da un sacchetto con numeri, mi segno che numero ho estratto e lo tengo fuori dal sacchetto. Ripeto per volte.

Tengo conto dell'ordine in cui ho estratto i numeri.

Disposizioni con ripetizione

Estraggo un numero, da un sacchetto con numeri, mi segno che numero ho estratto e lo rimetto nel sacchetto. Ripeto per volte.

Tengo conto dell'ordine in cui ho estratto i numeri.

Combinazioni

Estraggo un numero, da un sacchetto con numeri, mi segno che numero ho estratto e lo tengo fuori dal sacchetto. Ripeto per volte.

Non mi interessa l'ordine in cui ho estratto i numeri.

Combinazioni con ripetizione

Estraggo un numero, da un sacchetto con numeri, mi segno che numero ho estratto e lo rimetto nel sacchetto. Ripeto per volte.

Non mi interessa l'ordine in cui ho estratto i numeri.

Permutazioni

Estraggo numeri e guardo in quanti ordini diversi li posso mettere.

Probabilità condizionata

Eventi condizionati

"E dato F"

La probabilità che si verifichi sapendo che si è già verificato.

Ricorda vagamente le pipe di bash, però al contrario...

Eventi mutualmente esclusivi

Se due eventi sono mutualmente esclusivi, entrambe le loro probabilità condizionate saranno uguali a 0.

Regola della catena

Si può sfruttare la formula inversa della probabilità condizionata per calcolare catene di intersezioni:

Le alternative

Legge delle alternative

La probabilità che si verifichi un evento è pari alla somma delle probabilità dell'evento stesso dati tutti gli eventi di una partizione.

Legge condizionata delle alternative

La legge delle alternative funziona anche quando ad essere partizionato è un evento:

Formula di Bayes

Tramite la formula di Bayes possiamo risalire alla probabilità di un evento condizionato a un altro partendo dalla probabilità di quest'ultimo condizionato al primo:

In pratica, invertiamo gli eventi.

Eventi indipendenti

Due eventi indipendenti

"eventi indipendenti a due a due"

Se due eventi sono indipendenti, sapere che uno dei due si è verificato non influisce sulle probabilità che si sia verificato l'altro.

Più eventi indipendenti

"eventi indipendenti a tre a tre, a quattro a quattro, a cinque a cinque..."

Si può verificare l'indipendenza di più eventi alla volta:

Eventi indipendenti a due a due non sono per forza indipendenti a tre a tre, e viceversa.

Famiglia di eventi indipendenti

Un insieme di eventi è una famiglia di eventi indipendenti se, preso un qualsiasi numero di eventi da essa, essi risulteranno indipendenti.

Tutti gli eventi provenienti da essa saranno indipendenti sia a due a due, sia a tre a tre, sia a quattro a quattro, e così via!

Variabili aleatorie

Variabile aleatoria

Una funzione che fa corrispondere un numero reale a ogni possibile esito dello spazio campionario. .

Insieme di ripartizione

Ad ogni variabile aleatoria sono associati gli eventi , che contengono tutti gli esiti a cui la variabile aleatoria associa un valore minore o uguale a .

Per definizione, tutte le variabili aleatorie devono rispettare questa condizione:

All'aumentare di t, l'insieme conterrà sempre più elementi.

Supporto

"supporto di X"

Il codominio della variabile aleatoria è il suo supporto.

Per indicare che un valore appartiene al supporto di , si usa la notazione .

Densità

Funzione probabilità

La funzione probabilità di una variabile aleatoria discreta è la funzione che associa ad ogni esito la sua probabilità:

Funzione densità

La funzione densità di una variabile aleatoria continua è l'equivalente continuo della funzione probabilità:

A differenza della funzione probabilità, è possibile che la funzione densità non esista per una certa variabile aleatoria.

Rappresenta "quanta" probabilità c'è in un'unità di x!

Funzione di ripartizione

Definizione

Ogni variabile aleatoria ha una funzione di ripartizione associata, che rappresenta la probabilità che la variabile aleatoria assuma un valore minore o uguale a :

Si può dire che essa rappresenti la probabilità dell'evento :

Proprietà della funzione

  • È sempre monotona crescente (non strettamente).

  • Vale 0 a e 1 a .

  • È continua da destra:

Probabilità di un valore

Possiamo usare la funzione di ripartizione per calcolare la probabilità di un certo valore reale:

Trasformazioni di variabili aleatorie

Nel discreto

Nel discreto basta abbinare un nuovo valore a ogni valore della variabile originale.

Nel continuo (invertibile)

Nel continuo applichiamo la formula dell'integrazione per sostituzione:

Nel... digitale

Trasformare variabili aleatorie è molto utile nell'informatica per creare distribuzioni partendo da una funzione random() che restituisce numeri da 0 a 1 con una distribuzione lineare.

Informazioni delle variabili aleatorie

Media

Ogni variabile aleatoria che ha una funzione di ripartizione e un supporto finito ha anche una media (o valore medio o atteso):

Nel discreto, si può calcolare con:

Nel continuo, si può calcolare con:

Moda

Valore per cui la funzione probabilità o funzione densità è massima.

Quantili

Il quantile di ordine della variabile aleatoria è il più piccolo numero tale che:

Il quantile di ordine 0.5 è detto mediana.

I quantili di ordine 0.25 e 0.75 sono detti quartili.

I quantili di ordine sono detti -esima percentile.

Varianza

È un valore che indica quanto la variabile aleatoria si discosta generalmente dalla media:

Disuguaglianze notevoli

Disuguaglianza di Markov

Data una variabile aleatoria non-negativa:

Divide in due parti ( e ) la funzione X, la cui media risulterà uguale a:

Disuguaglianza di Čebyšëv

"disuguaglianza di cebicev"

Se la variabile aleatoria ha media e varianza, allora la probabilità che essa abbia un valore a più di di distanza dal valore medio è minore o uguale a .

E anche:

Serve per semplificare i calcoli quando la funzione di ripartizione è difficile da calcolare!

Un momento...!

Momento

Il momento -esimo di una variabile aleatoria è:

La media di una variabile aleatoria è anche il suo primo momento.

Funzione generatrice dei momenti

La funzione generatrice dei momenti è:

Se due variabile aleatorie hanno la stessa funzione generatrice dei momenti, allora esse hanno la stessa distribuzione.

E' la trasformata di Laplace della variabile aleatoria di X.

Funzione caratteristica

La funzione caratteristica è:

Se due variabile aleatorie hanno la stessa funzione caratteristica, allora esse hanno la stessa distribuzione.

E' la trasformata di Fourier della variabile aleatoria di X.

Prove e schemi

Variabile con distribuzione

Per dire che una variabile ha una certa distribuzione, si usa la notazione:

Prova di Bernoulli

Una prova con solo due possibili esiti: successo e insuccesso.

Schema di Bernoulli

Una sequenza di prove di Bernoulli per le quali le probabilità di successo e fallimento rimangono invariate.

Bernoulliana

Distribuzione bernoulliana

Una variabile aleatoria che rappresenta una prova di Bernoulli:

  • vale 1 in caso di successo.
  • vale 0 in caso di insuccesso.

Il suo simbolo è

Densità della bernoulliana

La distribuzione bernoulliana ha come densità:

Binomiale

Distribuzione binomiale

Una variabile aleatoria che conta il numero di successi di prove di uno schema di Bernoulli.

Il suo simbolo è .

Densità della binomiale

La binomiale ha come densità:

Momenti della binomiale

La funzione generatrice dei momenti della binomiale è:

La media di una binomiale è:

La varianza di una binomiale è:

Geometrica

Distribuzione geometrica

Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli fino alla comparsa del primo successo.

Il suo simbolo è .

Densità della geometrica

La geometrica ha come densità:

Momenti della geometrica

La funzione generatrice dei momenti della geometrica è:

La media della geometrica è:

La varianza della geometrica è:

Assenza di memoria della geometrica

La geometrica non tiene conto degli eventi avvenuti in passato: ha la proprietà dell'assenza di memoria:

Ovvero, riscalando opportunamente l'asse Y posso prendere come 0 qualsiasi punto dell'asse X.

Binomiale negativa

Distribuzione binomiale negativa

Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli necessarie perchè si verifichi l'-esimo successo.

Il suo simbolo è .

Densità della binomiale negativa

La binomiale negativa ha come densità:

Momenti della binomiale negativa

La funzione generatrice dei momenti della binomiale negativa è:

La media della binomiale negativa è:

La varianza della binomiale negativa è:

Geometrica traslata

Distribuzione geometrica traslata

Una variabile aleatoria che conta il numero di insuccessi consecutivi in uno schema di Bernoulli:

Il suo simbolo rimane .

Densità della geometrica tralsata

La geometrica traslata ha come densità:

Momenti della geometrica traslata

La funzione generatrice dei momenti della geometrica traslata è:

La media della geometrica traslata è:

La varianza della geometrica è:

Assenza di memoria della geometrica traslata

La geometrica traslata non tiene conto degli eventi avvenuti in passato: ha la proprietà dell'assenza di memoria:

Ovvero, riscalando opportunamente l'asse Y posso prendere come 0 qualsiasi punto dell'asse X.

Binomiale negativa traslata

Distribuzione binomiale negativa traslata

Una variabile aleatoria che conta il numero di insuccessi in uno schema di Bernoulli prima che si verifichi l'-esimo successo.

Il suo simbolo rimane .

Densità della binomiale negativa traslata

La binomiale negativa traslata ha come densità:

Momenti della binomiale negativa traslata

La funzione generatrice dei momenti della binomiale negativa traslata è:

La media della binomiale negativa traslata è:

La varianza della binomiale negativa traslata è:

Ipergeometrica

Distribuzione ipergeometrica

Una variabile aleatoria che, sapendo il numero di successi e di insuccessi , conta quanti successi si otterrebbero se se ne estraessero in blocco.

Il suo simbolo è .

Densità della ipergeometrica

La ipergeometrica ha come densità:

Momenti della ipergeometrica

La funzione generatrice dei momenti della ipergeometrica è trascurabile.

La media della ipergeometrica è:

La varianza della ipergeometrica è:

Poissoniana

Distribuzione poissoniana

Una variabile aleatoria che soddisfa tutte le seguenti caratteristiche:

  • Binomiale:
  • Il numero di prove tende a infinito:
  • La probabilità di successo tende a 0:
  • La media è finita:

Il suo simbolo è

Densità della poissoniana

La poissoniana ha come densità:

Momenti della poissoniana

La funzione generatrice dei momenti della poissoniana è:

La media della poissoniana è:

La varianza della poissoniana è:

Gli altri momenti della poissoniana sono:

Un altro schema

Schema di Poisson

Una successione di arrivi avvenuti in un certo arco temporale che:

  • non sono sovrapposti.
  • hanno intensità costante.
  • avvengono indipendentemente gli uni dagli altri.

Processo di Poisson

Una variabile aleatoria che conta il numero di arrivi di uno schema di Poisson di intensità in un intervallo di tempo di durata .

E' una distribuzione poissoniana con :

E' paragonabile a una bernoulliana: ogni successo corrisponde a un arrivo, mentre il tempo è il numero di prove effettuate (ma nel continuo).

Esponenziale

Distribuzione esponenziale

Una variabile aleatoria che conta il tempo diwidehattesa prima del primo arrivo di un processo di Poisson di intensità .

Il suo simbolo è .

Densità dell'esponenziale

L'esponenziale ha come densità:

L'esponenziale ha come funzione di ripartizione:

Momenti dell'esponenziale

La funzione generatrice dei momenti dell'esponenziale è:

La media dell'esponenziale è:

La varianza dell'esponenziale è:

Assenza di memoria della esponenziale

L'esponenziale non tiene conto degli eventi avvenuti in passato: ha la proprietà dell'assenza di memoria:

Ovvero, riscalando opportunamente l'asse Y posso prendere come 0 qualsiasi punto dell'asse X.

Legge gamma

Distribuzione gamma

Una variabile aleatoria che conta il tempo diwidehattesa prima dell'-esimo arrivo di un processo di Poisson di intensità .

Il suo simbolo è .

Densità della legge gamma

La legge gamma ha come densità:

Momenti della legge gamma

La funzione generatrice dei momenti della legge gamma è:

La media della legge gamma è:

La varianza della legge gamma è:

Uniforme

Distribuzione uniforme

Una variabile aleatoria che può assumere qualsiasi valore in un intervallo in modo equiprobabile.

Il suo simbolo è

Su di essa vale la seguente proprietà:

Densità della distribuzione uniforme

La distribuzione uniforme ha come densità:

La distribuzione uniforme ha come funzione di ripartizione:

Momenti della distribuzione uniforme

La funzione generatrice dei momenti della distribuzione uniforme è:

La media della distribuzione uniforme è:

La varianza della distribuzione uniforme è:

Normale o Gaussiana

Distribuzione normale

Una variabile aleatoria con una specifica distribuzione.

Il suo simbolo è .

e sono rispettivamente la media e la varianza della distribuzione!

Densità della distribuzione normale

La distribuzione normale ha come densità:

Momenti della distribuzione normale

La funzione generatrice dei momenti della distribuzione normale è:

La media della distribuzione normale è:

La varianza della distribuzione normale è:

Trasformazione della normale

Qualsiasi normale può essere trasformata in qualsiasi altra normale:

Normale standard

La distribuzione normale standard è:

La sua funzione di ripartizione è detta e vale:

Quantili normali

Da un quantile della normale standard è possibile risalire allo stesso quantile di qualsiasi altra normale:

Gamma e normale

La distribuzione normale ha una particolare relazione con la distribuzione Gamma:

La funzione Chi

"chi-quadro a un grado di libertà"

Esiste una distribuzione Gamma particolare:

Più chi-quadro possono essere sommate per aumentare i loro gradi di libertà:

T di Student

Un'altra funzione particolare è la funzione T di Student:

Approssimazioni notevoli

Ipergeometrica e binomiale

La binomiale è come una ipergeometrica ma con ripetizioni, quindi per valori molto grandi di rispetto a , si può dire che:

Binomiale e poissoniana

La binomiale non è altro che una poissoniana a tempo discreto, quindi, se è grande e è nell'ordine di grandezza delle unità, allora:

Binomiale e normale

Per il Teorema di De Moivre-Laplace, se una binomiale ha una grande e non vicina a 0 o 1, si può approssimare con:

Correzione di Yates

Passando da una variabile discreta a una continua , per ogni valore discreto la probabilità viene "spalmata" su tutto l'intervallo :

Vettori aleatori

Vettore aleatorio

Un vettore composto da variabili aleatorie.

Il suo simbolo generalmente è oppure .

Funzioni di ripartizione

I vettori aleatori hanno più funzioni di ripartizione che si differenziano in base al numero di parametri.

Se il numero di parametri coincide con la dimensione del vettore aleatorio, allora la funzione sarà una funzione di ripartizione congiunta:

Se il numero di parametri è minore della dimensione del vettore aleatorio, allora la funzione sarà una funzione di ripartizione marginale:

Densità discreta

I vettori aleatori discreti hanno più densità che si differenziano in base al numero di parametri.

Se il numero di parametri coincide con la dimensione del vettore aleatorio, allora la funzione sarà una densità congiunta:

Se il numero di parametri è minore della dimensione del vettore aleatorio, allora la funzione sarà una densità marginale:

Più variabili aleatorie

Indipendenza delle variabili aleatorie

Più variabili aleatorie sono indipendenti se, per qualsiasi scelta di intervalli :

Media dei vettori aleatori

E' possibile calcolare la media di qualsiasi funzione avente elementi del vettore come variabili:

Solitamente si calcola la media di .

Le medie di più variabili aleatorie si possono sommare:

Covarianza

Un operatore che misura la correlazione di due variabili aleatorie.

Si calcola con il valore atteso dei prodotti delle distanze dalla media:

Ha diverse proprietà:

  • Il suo valore nullo è 0:
  • E' commutativa:
  • E' semplificabile:
  • E' lineare:
  • E' distributiva:

Variabili incorrelate

Due variabili sono variabili incorrelate se:

Variabili indipendenti sono sempre incorrelate.

Matrice di covarianza

Una matrice che contiene la covarianza tra tutte le variabili di un vettore aleatorio :

E' sempre simmetrica e semidefinita positiva (tutti gli autovalori sono .

Coefficiente di correlazione

Un valore che misura come due variabili aleatorie sono correlate:

E' sempre compreso tra -1 e 1:

Vale esattamente -1 o 1 solo se esiste un legame lineare tra le due variaibli:

Varianza di variabili aleatorie sommate

La varianza di due variabili aleatorie sommate è:

Si dimostra applicando le proprietà della covarianza!

Se più variabili aleatorie sono indipendenti (), allora:

Campioni

Campione casuale

Una n-pla di variabili aleatorie con la stessa distribuzione della variabile aleatoria ("popolazione") ma indipendenti tra loro.

Le variabili aleatorie sono come un lazy-load in programmazione; quando ci sarà bisogno del loro valore numerico, esse si realizzeranno nel loro valore.

Momento campionario

Il valore dato dalla media aritmetica degli elementi del campione elevati alla potenza :

Il momento campionario di primo ordine è la media campionaria.

Varianza campionaria

La media aritmetica dello scarto quadratico medio degli elementi del campione.

Se è noto il valore medio di X:

Altrimenti:

Media-ception

Media campionaria

Se calcoliamo la media della media campionaria, risulterà vero che:

Quindi, è possibile usare i campioni per trovare la media di una variabile aleatoria!

Varianza campionaria

Se calcoliamo la varianza della media campionaria, risulterà vero che:

Quindi, possiamo stimare l'errore della media calcolata tramite campioni!

Correzione campionaria

Se calcoliamo la media della varianza campionaria, risulterà vero che:

Quindi, possiamo stimare l'errore della media calcolata tramite campioni!

Campionamento di una distribuzione normale

Campionamento di una distribuzione normale

Se la popolazione ha una distribuzione normale ()...

Distribuzione della media campionaria

...allora sappiamo anche la distribuzione della media campionaria!

Distribuzione della varianza campionaria

...e anche della varianza campionaria!

Indipendenza

...e che media campionaria e varianza campionaria sono indipendenti tra loro!

Quando i campioni hanno dimensioni infinite

Convergenza in distribuzione

Se la successione di variabili aleatorie all'infinito ha la stessa funzione di ripartizione della popolazione , allora essa converge in distribuzione.

Convergenza in probabilità

Se la successione di variabili aleatorie all'infinito ha la stessa probabilità della popolazione , allora essa converge in probabilità.

Convergenza quasi certa

Se la successione di variabili aleatorie all'infinito ha la stessa probabilità a della popolazione , allora essa converge quasi certamente.

Convergenza in media quadratica

Se la successione di variabili aleatorie all'infinito ha la media del quadrato della distanza tra la successione e la popolazione uguale a 0, allora essa converge in media quadratica.

Gerarchia delle convergenze

In più:

I grandi numeri

Legge debole dei grandi numeri

La successione delle medie campionarie converge in probabilità alla media della popolazione , se essa esiste.

Ovvero:

Legge forte dei grandi numeri

La successione delle medie campionarie converge quasi certamente alla media della popolazione , se essa esiste.

Ovvero:

Dimostra che l'interpretazione frequentista della probabilità è valida!

Al limite

Teorema centrale del limite

La successione delle medie campionarie converge in distribuzione a .

Ovvero:

Altre approsimazioni

Binomiale e normale

E' una somma di bernoulliane, e quindi si approssima a una normale:

Binomiale negativa e normale

E' una somma di geometriche, e quindi si approssima a una normale:

Poissoniana e normale

E' una somma di altre poissoniane, e quindi si approssima a una normale:

Gamma e normale

E' una somma di esponenziali, e quindi si approssima a una normale:

In generale

Se è grande, allora:

Actually statistica

Parametri sconosciuti

Per indicare parametri sconosciuti di una legge si usa .

Statistica

Una variabile aleatoria funzione di un campione:

Ad esempio, sono statistiche media e varianza campionaria, così come il campione stesso .

Stimatori

Stimatore

Una statistica ottenuta da osservazioni, che stimi i parametri di una legge e sia indipendente da essi.

Corretto

Uno stimatore è corretto se il suo valore atteso coincide con quello dei parametri che stima:

Asintoticamente corretto

Uno stimatore è asintoticamente corretto se, per infinite osservazioni, il suo valore atteso coincide con quello dei parametri che stima:

Consistente in media quadratica

Uno stimatore è consistente in media quadratica se:

Consistente in probabilità

Uno stimatore è consistente in probabilità se:

Asintoticamente normale

Uno stimatore è asintoticamente normale se:

Metodo dei momenti

Metodo dei momenti

Si può usare il metodo dei momenti per ottenere uno stimatore di una popolazione .

Lo stimatore di così ottenuto sarà indicato aggiungendo un cappellino e una a :

Visto che:

Allora:

Se non è esprimibile in termini di , si possono usare i momenti successivi , , ...

Metodo della massima verosomiglianza

Metodo della massima verosomiglianza

Si può usare il metodo della massima verosomiglianza per ottenere uno stimatore di una popolazione .

Lo stimatore di così ottenuto sarà indicato aggiungendo un cappellino e una a :

Consiste nel trovare il massimo assoluto della la funzione di verosomiglianza :

Gli stimatori di massima verosomiglianza sono asintoticamente corretti, consistenti in probabilità e asintoticamente normali.

Proprietà degli stimatori di massima verosomiglianza

Gli stimatori di massima verosomiglianza godono delle seguenti proprietà:

  • Sono asintoticamente corretti.
  • Sono consistenti in probabilità.
  • Sono asintoticamente normali.
  • Sono invarianti:

Nuove stime notevoli

Stima di una bernoulliana

Per il metodo dei momenti oppure per il metodo della massima verosomiglianza:

Stima di una poissoniana

Per il metodo dei momenti oppure per il metodo della massima verosomiglianza:

Stima di una esponenziale

Per il metodo dei momenti oppure per il metodo della massima verosomiglianza:

Stima di una normale

Per il metodo della massima verosomiglianza:


Intervalli di confidenza

Confidenza

"intervallo di confidenza al 95%"

L'intervallo di valori di all'interno del quale siamo "più o meno sicuri" si trovi il valore effettivo:

L'intervallo di confidenza a N della stima è l'intervallo tale che:

Può anche essere unilatero nel caso limiti la stima in una sola direzione, positiva o negativa.

Confidenza nella media di una normale

Varianza nota

Se conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli intervalli di confidenza all'% con queste formule:

  • Intervalli bilateri:
  • Intervallo unilatero da sinistra:
  • Intervallo unilatero da destra:

Varianza incognita

Se non conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli intervalli di confidenza all'% con queste formule:

  • Intervalli bilateri:
  • Intervallo unilatero da sinistra:
  • Intervallo unilatero da destra:

è un quantile della distribuzione di Student di parametro .

Confidenza per la proporzione di una bernoulliana

Terzo metodo corretto

L'intervallo di confidenza per la proprorzione di una bernoulliana qualsiasi si ottiene da questa formula:

Confidenza per la media di qualsiasi popolazione

Approssimando con la normale

L'intervallo di confidenza per la media di una qualsiasi popolazione si ottiene da questa formula: