Unisteffo

Calcolo numerico

Matrici speciali

Matrice identità

Elemento neutro della moltiplicazione matriciale.

Matrice diagonale

Matrice con elementi diversi da 0 solo sulla diagonale.

Matrice triangolare inferiore

Matrice con elementi diversi da 0 sopra la diagonale.

Matrice triangolare superiore

Matrice con elementi diversi da 0 sotto la diagonale.

Matrice non-singolare

Matrice con determinante diverso da 0.

Sono anche dette matrici linearmente indipendenti o matrici invertibili.

Matrice simmetrica

Matrice con un asse di simmetria lungo la diagonale.

Matrice antisimmetrica

Matrice con un asse di simmetria lungo la diagonale; gli elementi nel triangolo superiore sono però l'opposto di quelli del triangolo inferiore.

Ha sempre degli lungo la diagonale.

Matrice a diagonale dominante per riga/colonna

Matrice in cui i valori della diagonale sono maggiori della somma di tutti gli altri nella riga/colonna.

Matrice ortogonale

Matrice che se moltiplicata per la sua trasposta dà come risultato la matrice identità.

Matrice inversa

Matrice tale che:

Matrice sparsa

Matrice con pochissimi valori diversi da 0.

Matrice di permutazione

Matrice riempita di 0 eccetto per un solo 1 per riga e per colonna.

Se premoltiplicata per una matrice, ne riordina le righe; se invece postmoltiplicata, ne riordina le colonne.

Premoltiplicare la matrice precedente scambia la prima e la terza righa, postmoltiplicarla scambia la prima e la terza colonna.

Matrice di permutazione elementare

Matrice di permutazione con un solo scambio.

Sono nonsingolari, simmetriche e ortogonali.

Norme vettoriali

Norma vettoriale

Funzione che associa un valore positivo a ogni vettore diverso da 0, e 0 al vettore zero.

Esempi su Wikipedia

Norma a infinito

Massimo dei valori assoluti di tutti gli elementi del vettore.

Norma a 1

Somma dei valori assoluti di tutti gli elementi del vettore.

Norma a 2

Radice quadrata della somma dei quadrati di tutti gli elementi del vettore.

Norme matriciali

Norma matriciale indotta

Funzione che associa un valore positivo a ogni matrice diversa da 0, e 0 alla matrice zero.

Si ricavano dalle norme vettoriali:

è l'estremo superiore di un insieme. E' molto simile al massimo: ricordi le prime lezioni di Analisi?

Norma a infinito

Massimo delle somme dei valori assoluti di tutti gli elementi di ogni riga di una matrice.

Norma a 1

Massimo delle somme dei valori assoluti di tutti gli elementi di ogni colonna di una matrice.

Norma a 2

Radice quadrata del rango del prodotto tra una matrice e la sua trasposta.

Norme tra funzioni

Norma di funzione

Funzione che associa un valore reale positivo a ogni funzione.

Norma a infinito

Valore massimo che assume la funzione nel suo dominio.

Errori

Errore relativo tra vettori e matrici

Le norme sono usate per calcolare l'errore relativo tra due vettori o matrici:

Errore assoluto tra funzioni

L'errore, ovvero la massima distanza tra due funzioni, si ottiene con:

Algoritmi

Algoritmi numerici

Particolari algoritmi che hanno:

  • numeri reali in input e output
  • successioni delle quattro operazioni aritmetiche fondamentali come passi

Errore di rappresentazione

Cos'è?

Con i numeri floating point può capitare che un certo numero non sia rappresentato correttamente.

In tal caso, il numero si indica con .

Errore assoluto

È la differenza tra il numero desiderato e il numero rappresentato:

Errore relativo

Indica quanto il numero rappresentato differisce dal numero desiderato:

Troncamento

Metodo con cui gestire gli underflow floating point: le cifre meno significative vengono rimosse.

1.00  →  1.0
1.01 → 1.0
1.10 → 1.1
1.11 → 1.1

Arrotondamento

Metodo con cui gestire gli underflow floating point: se la cifra più significativa di quelle che devono essere rimosse è 1, allora aumenta di 1 anche quella meno signficativa che viene tenuta.

1.00  →  1.0
1.01 → 1.0
1.10 → 1.1
1.11 → 10.

Precisione di macchina

Un numero reale rappresentato in virgola mobile ha un errore relativo minore o uguale alla precisione di macchina:

  • è uguale alla base utilizzata (solitamente 2).
  • è uguale al numero di cifre della mantissa.
  • è uguale a se il numero viene rappresentato per troncamento oppure a se viene rappresentato per arrotondamento.

La funzione fl

Associa un valore reale al suo corrispondente valore floating point, utilizzando uno dei due metodi di gestione dell'undeflow.

Indica che un valore è soggetto alla precisione di macchina.

Un nuovo insieme

L'insieme è il sottoinsieme dei numeri reali rappresentabili in floating point dalla macchina che stiamo usando.

Operazioni tra elementi di producono risultati in , che però decaderanno nuovamente a elementi di , perdendo informazioni.

Il teorema della precisione di macchina si applica quindi anche ai risultati delle operazioni.

Caratteristiche delle operazioni di macchina

  • Hanno più elementi neutri.
  • Un numero ha più opposti.
  • Non sono associative.
  • Non sono distributive.
  • Non vale la legge di annullamento del prodotto.

Errori nelle operazioni di macchina

Errore inerente

Errore derivato da underflow sui dati.

Si indica con .

L'errore sulla variabile si indica con .

Errore algoritmico

Errore derivato da underflow durante l'esecuzione dell'algoritmo.

Si indica con .

L'errore al primo passo dell'algoritmo si indica con .

Condizionamento

Sensibilità di un problema all'errore inerente.

è mal condizionato intorno allo 0 e ben condizionato lontano dallo 0.

Stabilità

Sensibilità di un problema all'errore algoritmico.

Cerchiamo un algoritmo che risolva .

Calcolare prima e poi porta a una perdita di precisione.

Calcolare direttamente non ha alcuna perdita di precisione e rende l'algoritmo più stabile del precedente.

Indice di condizionamento

È il coefficiente di proporzionalità tra i dati e l'errore inerente.

Essendo sempre maggiore di uno, si può dire che sia un coefficiente di amplificazione.

Minore è l'indice di condizionamento, meglio condizionato è un problema.

Indice algoritmico

È il coefficiente di proporzionalità tra i dati e l'errore algoritmico.

Essendo sempre maggiore di uno, si può dire che sia un coefficiente di amplificazione.

Problema: Risoluzione di sistemi lineari

Descrizione

Dato un sistema di equazioni lineari, si vuole trovare la sua soluzione.

In forma matriciale, avrà una matrice dei coefficienti , un vettore dei termini noti e un vettore delle incognite.

L'equazione matriciale del sistema è:

Condizionamento

Il condizionamento della risoluzione di sistemi lineari è:

In particolare, è segnato in giallo nella formula il numero di condizionamento:

Metodi diretti

Metodi che trovano la soluzione esatta* di un sistema lineare.

Tipicamente prevedono la fattorizzazione della matrice dei coefficienti in due sottomatrici più facili da risolvere.

Generalmente hanno una complessità temporale .

Metodi iterativi

Metodi che trovano una soluzione imperfetta* di un sistema lineare.

Tipicamente prevedono l'applicazione ripetuta di un metodo, in base al quale cambia la velocità di convergenza alla soluzione.

Generalmente hanno una complessità temporale .

Metodi diretti

Divisione

Se la matrice dei coefficienti del sistema è diagonale, allora è possibile trovare la soluzione dividendo ogni termine noto per l'unico coefficiente diverso da zero presente nella sua riga:

Sostituzione

Se la matrice dei coefficienti del sistema è triangolare inferiore o superiore, allora è possibile trovare la soluzione effettuando una sostituzione all'avanti oppure all'indietro:

Fattorizzazione

Se tutti i valori sulla diagonale di sono diversi da 0 (eccetto l'ultimo) allora è possibile fattorizzarla in due matrici: una triangolare inferiore, e una triangolare superiore.

Abbiamo fatto questo metodo in Algebra Lineare, chiamandolo metodo di Gauss.

La matrice è così composta:

Sono i moltiplicatori usati per rendere annullare il triangolo inferiore!

La matrice è così composta:

È la parte triangolare superiore di !

Il sistema può essere poi risolto applicando due volte il metodo di sostituzione (all'avanti e all'indietro):

Questo metodo ha costo computazionale:

Fattorizzazione con pivoting parziale

È possibile applicare la fattorizzazione a qualsiasi matrice non-singolare permettendo lo scambio (pivoting) delle righe, potenzialmente aumentando la stabilità dell'algoritmo.

Abbiamo fatto questo metodo in Algebra Lineare, chiamandolo metodo di Gauss-Jordan!

Alla formula precedente si aggiunge una matrice di permutazione che indica quali righe sono state scambiate:

Per massimizzare la stabilità, si cerca di usare come perno l'elemento più grande della colonna.

Questo metodo ha costo computazionale:

Fattorizzazione con pivoting totale

È possibile anche permettere il pivoting sulle colonne per aumentare ulteriormente la stabilità dell'algoritmo, a costo di maggiore costo computazionale:

Per massimizzare la stabilità, si cerca di ordinare in modo decrescente la diagonale, assicurandoci che il primo perno sia più grande del secondo e così via.

Questo metodo ha costo computazionale:

Fattorizzazione a banda

Se la matrice è a banda, è possibile risparmiare spazio durante la fattorizzazione, in quanto sia sia saranno a banda!

Fattorizzazione sparsa

Se la matrice è sparsa, non è detto che e siano sparse a loro volta.

Per evitare il fill-in, è necessario riordinare la matrice in modo che sia il più possibile simile a una matrice a banda.

Fattorizzazione

È possibile ridurre la complessità computazionale della fattorizzazione se la matrice dei coefficienti è simmetrica:

In questo caso, si calcola solo la matrice L, utilizzando il metodo di pavimentazione.

La prima colonna della matrice sarà:

La seconda colonna della matrice sarà:

Questo metodo ha costo computazionale:

Fattorizzazione

È possibile dare stabilità forte alla fattorizzazione se la matrice dei coefficienti è simmetrica definita positiva:

Il metodo di pavimentazione diventa:

Questo metodo ha costo computazionale:

Trasformazione di Householder

Matrice ricavata dalla seguente formula, dove è la colonna di un'altra matrice:

Se moltiplicata per per la matrice da cui proviene , sostituirà la colonna con la colonna:

Si calcola con una complessità computazionale nell'ordine di .

Fattorizzazione

Metodo che fornisce una maggiore stabilità a costo di una maggiore complessità computazionale.

La matrice viene fattorizzata in due matrici, una ortogonale e una triangolare superiore:

Le matrici si ottengono dal prodotto delle trasformazioni di Householder (che concatenate formano ) sulla matrice necessarie a trasformarla in una matrice triangolare superiore ().

C'è un bell'esempietto qui.

Una volta fattorizzata, il sistema si può risolvere con:

Questo metodo ha costo computazionale:

Metodi iterativi

Forma generale

Se si pone che:

Allora la formula generale di un sistema lineare può anche essere scritta in questo modo:

È particolarmente utile perchè ci permette di definire un algoritmo ricorsivo che trovi :

è il metodo, e in base ad esso cambiano stabilità e velocità di convergenza.

Ponendo , la formula può essere scritta anche in questo modo:

Possiamo ottenere alcuni metodi separando in tre matrici:

  • La parte diagonale
  • L'opposto del triangolo inferiore
  • L'opposto del triangolo superiore

Convergenza di un metodo

Un metodo è convergente se e solo se:

(dove è il raggio spettrale, il massimo autovalore della matrice)

Perchè un metodo sia convergente, è sufficiente che:

Metodo di Jacobi

Il metodo di Jacobi si ottiene ponendo:

Spostamenti simultanei: Permette di ottenere ogni componente di indipendentemente dagli altri: è parallelizzabile.

Se la matrice è diagonale dominante, allora il metodo di Jacobi converge sicuramente.

Metodo di Gauss-Seidel

Il metodo di Gauss-Seidel si ottiene ponendo:

Ha una velocità di convergenza maggiore o uguale rispetto al metodo di Jacobi.

Spostamenti successivi: Non è parallelizzabile, perchè ogni componente dipende da quelle calcolate in precedenza.

Se la matrice è diagonale dominante, allora il metodo di Gauss-Seidel converge sicuramente.

Problema: Ricerca degli zeri di funzione

Descrizione

Si vogliono trovare i punti (zeri) in cui una funzione continua vale .

Per il teorema del valore medio, se , allora esiste sicuramente un punto in cui la funzione vale 0.

Denominiamo il punto in cui la funzione vale come .

Condizionamento

Più la derivata prima della funzione si avvicina allo 0, peggio il problema sarà condizionato.

Ordine di convergenza

Indice di quanto in fretta una successione converge alla soluzione.

  • Convergenza lineare: e
  • Convergenza superlineare: e
  • Convergenza quadratica: e
  • Convergenza superquadratica: e
  • ...

Metodi dicotomici

Cosa sono?

Sono metodi iterativi in grado di ridurre sempre di più l'intervallo in cui è definita la funzione, facendolo convergere allo zero desiderato.

Alcuni di essi sono il metodo dicotomico e il metodo regula falsi.

Richiedono una valutazione di funzione non-lineare ad ogni iterazione.

Ad ogni iterazione, l'intervallo viene sempre almeno dimezzato; si ha, pertanto, che:

Hanno quindi convergenza lineare ().

Il loro criterio di arresto è un numero di iterazioni prefissato che dipende dalla tolleranza sull'errore:

Dividi l'intervallo in tante parti grandi quanto la tolleranza. L'algoritmo di bisezione ne escluderà metà ad ogni iterazione; la tolleranza sarà raggiunta quando rimarrà una parte sola!

Metodo di bisezione

  1. Finchè non sono state compiute il numero di iterazioni prefissate:
    1. Calcoliamo il punto medio dell'intervallo :

    2. Dividiamo l'intervallo in due parti, separate da :
      • è la metà sinistra
      • è la metà destra
    3. Teniamo l'intervallo in cui i valori della funzione ai due estremi sono discordi, e rinominiamolo in .

Metodo regula falsi

  1. Finchè non sono state compiute il numero di iterazioni prefissate:
    1. Calcoliamo l'intersezione tra la retta che congiunge i due estremi e l'asse X:

    2. Dividiamo l'intervallo in due parti, separate da :
      • è la parte sinistra
      • è la parte destra
    3. Teniamo l'intervallo in cui i valori della funzione ai due estremi sono discordi, e rinominiamolo in .

Metodo delle approssimazioni successive

Metodi delle approssimazioni successive

Sono metodi iterativi che funzionano in modo molto simile ai metodi iterativi per i sistemi lineari, utilizzando una funzione come "metodo".

Che diventa:

Sfruttano i punti fissi della funzione per convergere:
se non ha zeri, allora i punti fissi coincideranno con gli zeri della funzione .

Si può raggiungere iterativamente ad un punto fisso attraverso la formula:

Non si conosce in anticipo il numero di iterazioni necessarie per soddisfare la tolleranza ; ad ogni iterazione, si controlla se la tolleranza è soddisfatta:

  • Nella differenza tra due iterate:
  • Nel residuo del problema:

Teorema della mappa contrattiva

Se:

  • Tutti i valori restituiti dalla funzione rientrano nel suo stesso dominio:

  • La funzione è una contrazione, ovvero restringe l'intervallo :

    (dove )

Allora:

  • Il punto fisso esiste ed è unico:

  • Il metodo delle approssimazioni successive converge per qualsiasi punto di partenza.
  • Vale la seguente disequazione di maggiorazione dell'errore:

Più è piccolo , più il metodo convergerà in fretta.

è molto simile al raggio spettrale dei metodi iterativi per i sistemi lineari!

Metodo di Newton

Sfrutta la continuità delle funzioni per ottenere una convergenza di ordine più alto.

Geometricamente, corrisponde a prolungare una retta nel punto con pendenza , e prendendo come nuovo punto la sua intersezione con l'asse X e la sua corrispettiva immagine nella funzione.

Ha costo computazionale di 2 valutazioni di funzione più 2 valutazioni di derivata.

Ha convergenza quadratica.

Metodo delle secanti

È come il metodo di Newton, ma usa il rapporto incrementale, in modo da poter essere applicato a funzioni non continue.

Geometricamente, corrisponde a costruire una retta che attraversa i punti e , e prendendo come nuovo punto la sua intersezione con l'asse X e la sua corrispettiva immagine nella funzione.

Ha costo computazionale di 3 valutazioni di funzione.

Ha convergenza superlineare.

Approssimare sistemi non-lineari

È possibile usare questi metodi per approssimare le soluzioni di sistemi non-lineari.

Problema: Interpolazione

Descrizione

Si vuole trovare una funzione in grado di approssimarne un'altra, di cui si conoscono però solo alcuni punti.

È utile in un sacco di casi! Ad esempio, quando si vuole scalare un'immagine.

I punti sono detti nodi , mentre la funzione costruita su di essi è detta interpolante :

Dato un insieme di punti, esistono infinite funzioni interpolanti.

Interpolazione polinomiale

Il teorema fondamentale dell'algebra dice che esiste una sola interpolante polinomiale che interpola un dato insieme di punti.

Con punti, l'interpolante sarà al massimo di grado , e viene detta .

La sua forma canonica sarà:

Metodi di interpolazione

Metodo dei coefficienti indeterminati

È possibile scrivere la forma canonica come matrice:

Costruiamo la matrice di Vandermonde:

Costruiamo il vettore delle incognite:

Costruiamo il vettore dei termini noti:

Per trovare il polinomio di interpolazione è sufficiente risolvere il problema!

È efficace perchè una volta calcolati i coefficienti essi valgono per tutti i punti, ma ha come svantaggio che la matrice di Vandermonde è spesso malcondizionata.

Metodo di Lagrange

È possibile scrivere il polinomio di interpolazione raccogliendo le :

I polinomi sono detti polinomi di Lagrange, e hanno le seguenti proprietà:

  • Valgono in corrispondenza del nodo con lo stesso indice, in corrispondenza dei nodi con indice diverso e in tutti gli altri casi.

  • Si compongono con questo prodotto:

Non c'è il termine con !

Tutti insieme formano la base di Lagrange.

Si chiama base perchè sono linearmente indipendenti!

Questo metodo permette di calcolare il valore del polinomio di interpolazione in un singolo punto:

Si può risparmiare tempo di calcolo calcolando una singola volta il numeratore con tutti i termini:

E poi dividendo per il termine che andrebbe escluso:

Ha costo computazionale .

Resto di interpolazione

Definizione

È l'errore compiuto durante l'interpolazione.

Se la funzione è interpolata da , allora esso varrà:

In particolare, è interessante la sua norma a infinito, , che corrisponde alla distanza massima tra le due funzioni.

Un teorema dice che esso è uguale a:

Stima

L'errore nell'interpolazione dipende principalmente da due fattori:

  • Come sono distribuiti sull'asse X i punti da interpolare
  • Il grado del polinomio di interpolazione

Fenomeno di Runge

Fenomeno che si verifica cercando di interpolare la funzione di Runge ().

Scegliendo nodi equispaziati, l'errore di interpolazione sarà enorme vicino ai due estremi dell'intervallo.

Addirittura, più nodi verranno scelti, più esso sarà alto!

Si evita scegliendo i nodi in una maniera diversa.

Nodi di Chebychev

Nodi ottenuti partizionando una semicirconferenza, e proiettando le partizioni sul diametro.

La formula usata per ottenere punti è:

Proprietà di min-max: sono la scelta ottimale dei punti di interpolazione.

In particolare, si ha che:

Problema: Interpolazione a tratti

Come funziona?

Invece che costruire una singola funzione che interpola tutti i punti, per ogni intervallo tra due punti (sottointervallo) si costruisce una funzione apposta.

Splines

Cosa sono?

Interpolanti che:

  • sono polinomiali di grado massimo
  • sono continue fino al grado
  • connettono punti, e hanno sottointervalli
  • hanno funzioni definite appositamente per ogni sottointervallo

Significa che agli estremi dell'intervallo, i valori di tutte le derivate fino al grado devono essere uguali:

Hanno gradi di libertà.

Esistono infinite spline di grado !

Spline lineari

Sono anche dette interpolanti lineari a tratti.

Per ogni sottointervallo, costruiamo una funzione lineare passante per i due estremi:

È una linea spezzata!

Il loro errore è:

Ha come vantaggi complessità computazionale molto più bassa e l'assenza del fenomeno di Runge, ma allo stesso tempo si perde la derivabilità della funzione.

Non hanno gradi di libertà.

Spline cubiche

Spline con , che soddisfano le seguenti uguaglianze:

Esse hanno la seguente equazione:

Spesso si indica con la distanza orizzontale tra due punti di un sottointervallo.

Spline cubica vincolata

Classe di spline cubiche in cui:

  • e sono prefissati

È unica.

Forma il seguente sistema di equazioni:

Spline cubica naturale

Classe di spline cubiche in cui:

È unica.

Spline cubica periodica

Classe di spline cubiche in cui:

È unica.

Spline cubica not-a-knot

Classe di spline cubiche in cui:

  • Negli intervalli e si presenta obbligatoriamente un polinomio di grado 3.

È unica.

Proprietà di minima curvatura

Tra tutte le funzioni che interpolano dei punti, le tre classi di funzioni sopraelencate sono quelle che interpolano la funzione più "dolcemente".

Per loro è valida la seguente proprietà:

Errore di interpolazione

Più diminuisce la lunghezza degli intervalli, più aumenta l'accuratezza.

Non si verifica il fenomeno di Runge.

Si ha un'interpolazione anche della derivata prima.

Problema: Approssimazione di dati sperimentali

Perchè?

Interpolare dati sperimentali non fornisce quasi mai un modello del fenomeno.

Vogliamo costruire una funzione di regressione che, dati molti più dati del grado della funzione, minimizzi il quadrato della distanza tra i punti sperimentali e i punti della funzione di regressione.

Denominiamo:

  • : la funzione "effettiva" del fenomeno
  • : la funzione di regressione che costruiamo per approssimarlo
  • : la funzione "errore di regressione" da minimizzare
  • : i punti sperimentali

L'obiettivo è minimizzare l'errore di approssimazione , ovvero:

Regressione lineare

Trova la retta che meglio approssima tutti gli dati sperimentali.

Essendo una retta, avrà due parametri: il termine noto , e la pendenza .

L'errore da minimizzare per ricavare i parametri sarà:

Regressione lineare matriciale

Possiamo costruire una matrice di regressione contenente tutti i punti sperimentali:

Inoltre, se costruiamo il vettore dei parametri :

Avremo che:

Inoltre, potremo calcolare l'errore attraverso la norma:

Regressione polinomiale

Trova il polinomio di grado che meglio approssima tutti gli dati sperimentali.

Essendo un polinomio di grado , avrà parametri.

La regressione lineare è un caso particolare di regressione generale in cui i parametri sono 2!

L'errore da minimizzare per ricavare i parametri sarà:

Regressione polinomiale matriciale

Possiamo costruire una matrice di regressione contenente tutti i punti sperimentali a tutti i gradi del polinomio:

Inoltre, se costruiamo il vettore dei parametri :

Avremo che:

Inoltre, potremo calcolare l'errore attraverso la norma:

Normalmente, i dati sono molti di più, ma se il numero di parametri fosse uguale al numero di dati , allora si otterrebbe il polinomio di interpolazione!

Regressione generale

Trova i coefficienti della combinazione lineare che meglio approssima tutti gli dati sperimentali.

La regressione polinomiale è un caso particolare di regressione generale in cui:

L'errore da minimizzare per ricavare i parametri sarà:

Regressione polinomiale generale

Possiamo costruire una matrice di regressione contenente tutti i punti sperimentali a tutti i gradi del polinomio:

Inoltre, se costruiamo il vettore dei parametri :

Avremo che:

Inoltre, potremo calcolare l'errore attraverso la norma:

Trovare i parametri

Caso non degenere

Caso che prevede che le colonne di siano linearmente indipendenti.

La soluzione esiste sempre, ed è unica.

Per trovarla:

  • Fattorizziamo .
  • Calcoliamo .
  • Teniamo solo i primi valori di e mettiamoli in .
  • Calcoliamo .

Caso generale

Caso che non preclude alcuna composizione di .

Ci sono infinite soluzioni, con gradi di libertà.

Si cerca sempre di trovare la soluzione di norma minima, che, se , allora è unica.

Per trovarla:

  • Fattorizziamo con la fattorizzazione SVD
  • Calcoliamo
  • Calcoliamo:

  • Calcoliamo
Gli zeri nella sono i gradi di libertà, sono zero in modo che essi diano la norma minima.