Elemento neutro della moltiplicazione matriciale.
Matrice con elementi diversi da 0 solo sulla diagonale.
Matrice con elementi diversi da 0 sopra la diagonale.
Matrice con elementi diversi da 0 sotto la diagonale.
Matrice con determinante diverso da 0.
Sono anche dette matrici linearmente indipendenti o matrici invertibili.
Matrice con un asse di simmetria lungo la diagonale.
Matrice con un asse di simmetria lungo la diagonale; gli elementi nel triangolo superiore sono però l'opposto di quelli del triangolo inferiore.
Ha sempre degli lungo la diagonale.
Matrice in cui i valori della diagonale sono maggiori della somma di tutti gli altri nella riga/colonna.
Matrice che se moltiplicata per la sua trasposta dà come risultato la matrice identità.
Matrice tale che:
Matrice con pochissimi valori diversi da 0.
Matrice riempita di 0 eccetto per un solo 1 per riga e per colonna.
Se premoltiplicata per una matrice, ne riordina le righe; se invece postmoltiplicata, ne riordina le colonne.
Premoltiplicare la matrice precedente scambia la prima e la terza righa, postmoltiplicarla scambia la prima e la terza colonna.
Matrice di permutazione con un solo scambio.
Sono nonsingolari, simmetriche e ortogonali.
Funzione che associa un valore positivo a ogni vettore diverso da 0, e 0 al vettore zero.
Massimo dei valori assoluti di tutti gli elementi del vettore.
Somma dei valori assoluti di tutti gli elementi del vettore.
Radice quadrata della somma dei quadrati di tutti gli elementi del vettore.
Funzione che associa un valore positivo a ogni matrice diversa da 0, e 0 alla matrice zero.
Si ricavano dalle norme vettoriali:
Massimo delle somme dei valori assoluti di tutti gli elementi di ogni riga di una matrice.
Massimo delle somme dei valori assoluti di tutti gli elementi di ogni colonna di una matrice.
Radice quadrata del rango del prodotto tra una matrice e la sua trasposta.
Funzione che associa un valore reale positivo a ogni funzione.
Valore massimo che assume la funzione nel suo dominio.
Le norme sono usate per calcolare l'errore relativo tra due vettori o matrici:
L'errore, ovvero la massima distanza tra due funzioni, si ottiene con:
Particolari algoritmi che hanno:
Con i numeri floating point può capitare che un certo numero non sia rappresentato correttamente.
In tal caso, il numero si indica con .
È la differenza tra il numero desiderato e il numero rappresentato:
Indica quanto il numero rappresentato differisce dal numero desiderato:
Metodo con cui gestire gli underflow floating point: le cifre meno significative vengono rimosse.
1.00 → 1.0
1.01 → 1.0
1.10 → 1.1
1.11 → 1.1
Metodo con cui gestire gli underflow floating point: se la cifra più significativa di quelle che devono essere rimosse è 1, allora aumenta di 1 anche quella meno signficativa che viene tenuta.
1.00 → 1.0
1.01 → 1.0
1.10 → 1.1
1.11 → 10.
Un numero reale rappresentato in virgola mobile ha un errore relativo minore o uguale alla precisione di macchina:
Associa un valore reale al suo corrispondente valore floating point, utilizzando uno dei due metodi di gestione dell'undeflow.
L'insieme è il sottoinsieme dei numeri reali rappresentabili in floating point dalla macchina che stiamo usando.
Operazioni tra elementi di producono risultati in , che però decaderanno nuovamente a elementi di , perdendo informazioni.
Il teorema della precisione di macchina si applica quindi anche ai risultati delle operazioni.
Errore derivato da underflow sui dati.
Si indica con .
Errore derivato da underflow durante l'esecuzione dell'algoritmo.
Si indica con .
Sensibilità di un problema all'errore inerente.
Sensibilità di un problema all'errore algoritmico.
Cerchiamo un algoritmo che risolva .
Calcolare prima e poi porta a una perdita di precisione.
Calcolare direttamente non ha alcuna perdita di precisione e rende l'algoritmo più stabile del precedente.
È il coefficiente di proporzionalità tra i dati e l'errore inerente.
Essendo sempre maggiore di uno, si può dire che sia un coefficiente di amplificazione.
Minore è l'indice di condizionamento, meglio condizionato è un problema.
È il coefficiente di proporzionalità tra i dati e l'errore algoritmico.
Essendo sempre maggiore di uno, si può dire che sia un coefficiente di amplificazione.
Dato un sistema di equazioni lineari, si vuole trovare la sua soluzione.
In forma matriciale, avrà una matrice dei coefficienti , un vettore dei termini noti e un vettore delle incognite.
L'equazione matriciale del sistema è:
Il condizionamento della risoluzione di sistemi lineari è:
In particolare, è segnato in giallo nella formula il numero di condizionamento:
Metodi che trovano la soluzione esatta* di un sistema lineare.
Tipicamente prevedono la fattorizzazione della matrice dei coefficienti in due sottomatrici più facili da risolvere.
Generalmente hanno una complessità temporale .
Metodi che trovano una soluzione imperfetta* di un sistema lineare.
Tipicamente prevedono l'applicazione ripetuta di un metodo, in base al quale cambia la velocità di convergenza alla soluzione.
Generalmente hanno una complessità temporale .
Se la matrice dei coefficienti del sistema è diagonale, allora è possibile trovare la soluzione dividendo ogni termine noto per l'unico coefficiente diverso da zero presente nella sua riga:
Se la matrice dei coefficienti del sistema è triangolare inferiore o superiore, allora è possibile trovare la soluzione effettuando una sostituzione all'avanti oppure all'indietro:
Se tutti i valori sulla diagonale di sono diversi da 0 (eccetto l'ultimo) allora è possibile fattorizzarla in due matrici: una triangolare inferiore, e una triangolare superiore.
La matrice è così composta:
La matrice è così composta:
Il sistema può essere poi risolto applicando due volte il metodo di sostituzione (all'avanti e all'indietro):
Questo metodo ha costo computazionale:
È possibile applicare la fattorizzazione a qualsiasi matrice non-singolare permettendo lo scambio (pivoting) delle righe, potenzialmente aumentando la stabilità dell'algoritmo.
Alla formula precedente si aggiunge una matrice di permutazione che indica quali righe sono state scambiate:
Per massimizzare la stabilità, si cerca di usare come perno l'elemento più grande della colonna.
Questo metodo ha costo computazionale:
È possibile anche permettere il pivoting sulle colonne per aumentare ulteriormente la stabilità dell'algoritmo, a costo di maggiore costo computazionale:
Per massimizzare la stabilità, si cerca di ordinare in modo decrescente la diagonale, assicurandoci che il primo perno sia più grande del secondo e così via.
Questo metodo ha costo computazionale:
Se la matrice è a banda, è possibile risparmiare spazio durante la fattorizzazione, in quanto sia sia saranno a banda!
Se la matrice è sparsa, non è detto che e siano sparse a loro volta.
Per evitare il fill-in, è necessario riordinare la matrice in modo che sia il più possibile simile a una matrice a banda.
È possibile ridurre la complessità computazionale della fattorizzazione se la matrice dei coefficienti è simmetrica:
In questo caso, si calcola solo la matrice L, utilizzando il metodo di pavimentazione.
La prima colonna della matrice sarà:
La seconda colonna della matrice sarà:
Questo metodo ha costo computazionale:
È possibile dare stabilità forte alla fattorizzazione se la matrice dei coefficienti è simmetrica definita positiva:
Il metodo di pavimentazione diventa:
Questo metodo ha costo computazionale:
Matrice ricavata dalla seguente formula, dove è la colonna di un'altra matrice:
Se moltiplicata per per la matrice da cui proviene , sostituirà la colonna con la colonna:
Si calcola con una complessità computazionale nell'ordine di .
Metodo che fornisce una maggiore stabilità a costo di una maggiore complessità computazionale.
La matrice viene fattorizzata in due matrici, una ortogonale e una triangolare superiore:
Le matrici si ottengono dal prodotto delle trasformazioni di Householder (che concatenate formano ) sulla matrice necessarie a trasformarla in una matrice triangolare superiore ().
Una volta fattorizzata, il sistema si può risolvere con:
Questo metodo ha costo computazionale:
Se si pone che:
Allora la formula generale di un sistema lineare può anche essere scritta in questo modo:
È particolarmente utile perchè ci permette di definire un algoritmo ricorsivo che trovi :
è il metodo, e in base ad esso cambiano stabilità e velocità di convergenza.
Ponendo , la formula può essere scritta anche in questo modo:
Possiamo ottenere alcuni metodi separando in tre matrici:
Un metodo è convergente se e solo se:
(dove è il raggio spettrale, il massimo autovalore della matrice)
Perchè un metodo sia convergente, è sufficiente che:
Il metodo di Jacobi si ottiene ponendo:
Spostamenti simultanei: Permette di ottenere ogni componente di indipendentemente dagli altri: è parallelizzabile.
Se la matrice è diagonale dominante, allora il metodo di Jacobi converge sicuramente.
Il metodo di Gauss-Seidel si ottiene ponendo:
Ha una velocità di convergenza maggiore o uguale rispetto al metodo di Jacobi.
Spostamenti successivi: Non è parallelizzabile, perchè ogni componente dipende da quelle calcolate in precedenza.
Se la matrice è diagonale dominante, allora il metodo di Gauss-Seidel converge sicuramente.
Si vogliono trovare i punti (zeri) in cui una funzione continua vale .
Per il teorema del valore medio, se , allora esiste sicuramente un punto in cui la funzione vale 0.
Denominiamo il punto in cui la funzione vale come .
Più la derivata prima della funzione si avvicina allo 0, peggio il problema sarà condizionato.
Indice di quanto in fretta una successione converge alla soluzione.
Sono metodi iterativi in grado di ridurre sempre di più l'intervallo in cui è definita la funzione, facendolo convergere allo zero desiderato.
Alcuni di essi sono il metodo dicotomico e il metodo regula falsi.
Richiedono una valutazione di funzione non-lineare ad ogni iterazione.
Ad ogni iterazione, l'intervallo viene sempre almeno dimezzato; si ha, pertanto, che:
Hanno quindi convergenza lineare ().
Il loro criterio di arresto è un numero di iterazioni prefissato che dipende dalla tolleranza sull'errore:
Sono metodi iterativi che funzionano in modo molto simile ai metodi iterativi per i sistemi lineari, utilizzando una funzione come "metodo".
Che diventa:
Sfruttano i punti fissi della funzione per convergere:
se non ha zeri, allora i punti fissi coincideranno con gli zeri della funzione .
Si può raggiungere iterativamente ad un punto fisso attraverso la formula:
Non si conosce in anticipo il numero di iterazioni necessarie per soddisfare la tolleranza ; ad ogni iterazione, si controlla se la tolleranza è soddisfatta:
Se:
La funzione è una contrazione, ovvero restringe l'intervallo :
(dove )
Allora:
Il punto fisso esiste ed è unico:
Vale la seguente disequazione di maggiorazione dell'errore:
Più è piccolo , più il metodo convergerà in fretta.
Sfrutta la continuità delle funzioni per ottenere una convergenza di ordine più alto.
Ha costo computazionale di 2 valutazioni di funzione più 2 valutazioni di derivata.
Ha convergenza quadratica.
È come il metodo di Newton, ma usa il rapporto incrementale, in modo da poter essere applicato a funzioni non continue.
Ha costo computazionale di 3 valutazioni di funzione.
Ha convergenza superlineare.
È possibile usare questi metodi per approssimare le soluzioni di sistemi non-lineari.
Si vuole trovare una funzione in grado di approssimarne un'altra, di cui si conoscono però solo alcuni punti.
I punti sono detti nodi , mentre la funzione costruita su di essi è detta interpolante :
Dato un insieme di punti, esistono infinite funzioni interpolanti.
Il teorema fondamentale dell'algebra dice che esiste una sola interpolante polinomiale che interpola un dato insieme di punti.
Con punti, l'interpolante sarà al massimo di grado , e viene detta .
La sua forma canonica sarà:
È possibile scrivere la forma canonica come matrice:
Costruiamo la matrice di Vandermonde:
Costruiamo il vettore delle incognite:
Costruiamo il vettore dei termini noti:
È efficace perchè una volta calcolati i coefficienti essi valgono per tutti i punti, ma ha come svantaggio che la matrice di Vandermonde è spesso malcondizionata.
È possibile scrivere il polinomio di interpolazione raccogliendo le :
I polinomi sono detti polinomi di Lagrange, e hanno le seguenti proprietà:
Tutti insieme formano la base di Lagrange.
Questo metodo permette di calcolare il valore del polinomio di interpolazione in un singolo punto:
Si può risparmiare tempo di calcolo calcolando una singola volta il numeratore con tutti i termini:
E poi dividendo per il termine che andrebbe escluso:
Ha costo computazionale .
È l'errore compiuto durante l'interpolazione.
Se la funzione è interpolata da , allora esso varrà:
In particolare, è interessante la sua norma a infinito, , che corrisponde alla distanza massima tra le due funzioni.
Un teorema dice che esso è uguale a:
L'errore nell'interpolazione dipende principalmente da due fattori:
Fenomeno che si verifica cercando di interpolare la funzione di Runge ().
Scegliendo nodi equispaziati, l'errore di interpolazione sarà enorme vicino ai due estremi dell'intervallo.
Si evita scegliendo i nodi in una maniera diversa.
Nodi ottenuti partizionando una semicirconferenza, e proiettando le partizioni sul diametro.
La formula usata per ottenere punti è:
Proprietà di min-max: sono la scelta ottimale dei punti di interpolazione.
In particolare, si ha che:
Invece che costruire una singola funzione che interpola tutti i punti, per ogni intervallo tra due punti (sottointervallo) si costruisce una funzione apposta.
Interpolanti che:
Significa che agli estremi dell'intervallo, i valori di tutte le derivate fino al grado devono essere uguali:
Hanno gradi di libertà.
Per ogni sottointervallo, costruiamo una funzione lineare passante per i due estremi:
Il loro errore è:
Ha come vantaggi complessità computazionale molto più bassa e l'assenza del fenomeno di Runge, ma allo stesso tempo si perde la derivabilità della funzione.
Non hanno gradi di libertà.
Spline con , che soddisfano le seguenti uguaglianze:
Esse hanno la seguente equazione:
Classe di spline cubiche in cui:
È unica.
Forma il seguente sistema di equazioni:
Classe di spline cubiche in cui:
È unica.
Classe di spline cubiche in cui:
È unica.
Classe di spline cubiche in cui:
È unica.
Tra tutte le funzioni che interpolano dei punti, le tre classi di funzioni sopraelencate sono quelle che interpolano la funzione più "dolcemente".
Per loro è valida la seguente proprietà:
Più diminuisce la lunghezza degli intervalli, più aumenta l'accuratezza.
Non si verifica il fenomeno di Runge.
Si ha un'interpolazione anche della derivata prima.
Interpolare dati sperimentali non fornisce quasi mai un modello del fenomeno.
Vogliamo costruire una funzione di regressione che, dati molti più dati del grado della funzione, minimizzi il quadrato della distanza tra i punti sperimentali e i punti della funzione di regressione.
Denominiamo:
L'obiettivo è minimizzare l'errore di approssimazione , ovvero:
Trova la retta che meglio approssima tutti gli dati sperimentali.
Essendo una retta, avrà due parametri: il termine noto , e la pendenza .
L'errore da minimizzare per ricavare i parametri sarà:
Possiamo costruire una matrice di regressione contenente tutti i punti sperimentali:
Inoltre, se costruiamo il vettore dei parametri :
Avremo che:
Inoltre, potremo calcolare l'errore attraverso la norma:
Trova il polinomio di grado che meglio approssima tutti gli dati sperimentali.
Essendo un polinomio di grado , avrà parametri.
La regressione lineare è un caso particolare di regressione generale in cui i parametri sono 2!
L'errore da minimizzare per ricavare i parametri sarà:
Possiamo costruire una matrice di regressione contenente tutti i punti sperimentali a tutti i gradi del polinomio:
Inoltre, se costruiamo il vettore dei parametri :
Avremo che:
Inoltre, potremo calcolare l'errore attraverso la norma:
Trova i coefficienti della combinazione lineare che meglio approssima tutti gli dati sperimentali.
La regressione polinomiale è un caso particolare di regressione generale in cui:
L'errore da minimizzare per ricavare i parametri sarà:
Possiamo costruire una matrice di regressione contenente tutti i punti sperimentali a tutti i gradi del polinomio:
Inoltre, se costruiamo il vettore dei parametri :
Avremo che:
Inoltre, potremo calcolare l'errore attraverso la norma:
Caso che prevede che le colonne di siano linearmente indipendenti.
La soluzione esiste sempre, ed è unica.
Per trovarla:
Caso che non preclude alcuna composizione di .
Ci sono infinite soluzioni, con gradi di libertà.
Si cerca sempre di trovare la soluzione di norma minima, che, se , allora è unica.
Per trovarla:
Calcoliamo: