Algoritmo di Gauss-Newton

Regressione di una curva con un modello a picco asimmetrico, utilizzando l'algoritmo di Gauss–Newton con un fattore di smorzamento α {\displaystyle \alpha } variabile.
Sopra: dati grezzi e curva del modello.
Sotto: evoluzione della somma normalizzata dei quadrati dei residui.

L'algoritmo di Gauss–Newton è un metodo iterativo per risolvere problemi di minimi quadrati e regressioni non lineari. È una versione modificata del metodo di Newton per trovare un minimo di una funzione. Diversamente da quest'ultimo, l'algoritmo di Gauss–Newton può essere utilizzato solo per minimizzare una somma di funzioni al quadrato, ma possiede il vantaggio che le derivate seconde, spesso faticose da calcolare, non sono richieste.

I problemi di minimi quadrati non lineari compaiono, ad esempio, nella regressione non lineare, in cui si cercano i parametri tali che il modello sia in buono accordo con le osservazioni disponibili.

Il nome del metodo deriva dai matematici Carl Friedrich Gauss e Isaac Newton.

Descrizione

Date m {\displaystyle m} funzioni r = ( r 1 , , r m ) {\displaystyle {\boldsymbol {r}}=(r_{1},\ldots ,r_{m})} (spesso chiamati residui) di n {\displaystyle n} variabili β = ( β 1 , , β n ) {\displaystyle {\boldsymbol {\beta }}=(\beta _{1},\ldots ,\beta _{n})} , con m n {\displaystyle m\geq n} , l'algoritmo di Gauss–Newton trova iterativamente i valori delle variabili in modo da minimizzare la seguente somma di quadrati:[1]

S ( β ) = i = 1 m r i 2 ( β ) . {\displaystyle S({\boldsymbol {\beta }})=\sum _{i=1}^{m}r_{i}^{2}({\boldsymbol {\beta }}).}

Iniziando con β ( 0 ) {\displaystyle {\boldsymbol {\beta }}^{(0)}} come stima iniziale per il minimo, il metodo esegue iterativamente

β ( s + 1 ) = β ( s ) ( J r T J r ) 1 J r T r ( β ( s ) ) , {\displaystyle {\boldsymbol {\beta }}^{(s+1)}={\boldsymbol {\beta }}^{(s)}-\left(\mathbf {J_{r}} ^{\mathsf {T}}\mathbf {J_{r}} \right)^{-1}\mathbf {J_{r}} ^{\mathsf {T}}\mathbf {r} ({\boldsymbol {\beta }}^{(s)}),}

dove, se r {\displaystyle {\boldsymbol {r}}} e β {\displaystyle {\boldsymbol {\beta }}} sono vettori colonna, gli elementi della matrice jacobiana sono

( J r ) i j = r i ( β ( s ) ) β j , {\displaystyle (\mathbf {J_{r}} )_{ij}={\frac {\partial r_{i}({\boldsymbol {\beta }}^{(s)})}{\partial \beta _{j}}},}

e il simbolo T {\displaystyle ^{\mathsf {T}}} indica la matrice trasposta.

Se m = n {\displaystyle m=n} , l'iterazione si semplifica e diventa

β ( s + 1 ) = β ( s ) ( J r ) 1 r ( β ( s ) ) , {\displaystyle {\boldsymbol {\beta }}^{(s+1)}={\boldsymbol {\beta }}^{(s)}-\left(\mathbf {J_{r}} \right)^{-1}\mathbf {r} ({\boldsymbol {\beta }}^{(s)}),}

che è una diretta generalizzazione in più dimensioni del metodo delle tangenti.

Nella regressione dei dati, in cui l'obiettivo è trovare i valori dei parametri β {\displaystyle {\boldsymbol {\beta }}} tali che una data funzione modello y = f ( x , β ) {\displaystyle y=f(x,{\boldsymbol {\beta }})} sia il più possibile in accordo con la serie di punti ( x i , y i ) {\displaystyle (x_{i},y_{i})} , le funzioni r i {\displaystyle r_{i}} sono i residui:

r i ( β ) = y i f ( x i , β ) . {\displaystyle r_{i}({\boldsymbol {\beta }})=y_{i}-f(x_{i},{\boldsymbol {\beta }}).}

Allora, il metodo di Gauss–Newton può essere espresso in termini dello jacobiano J f {\displaystyle {\boldsymbol {J}}_{f}} della funzione f {\displaystyle f} come

β ( s + 1 ) = β ( s ) + ( J f T J f ) 1 J f T r ( β ( s ) ) . {\displaystyle {\boldsymbol {\beta }}^{(s+1)}={\boldsymbol {\beta }}^{(s)}+\left(\mathbf {J_{f}} ^{\mathsf {T}}\mathbf {J_{f}} \right)^{-1}\mathbf {J_{f}} ^{\mathsf {T}}\mathbf {r} ({\boldsymbol {\beta }}^{(s)}).}

Da notare che ( J f T J f ) 1 J f T {\displaystyle \left(\mathbf {J_{f}} ^{\mathsf {T}}\mathbf {J_{f}} \right)^{-1}\mathbf {J_{f}} ^{\mathsf {T}}} è la pseudoinversa di J f {\displaystyle \mathbf {J_{f}} } . Nell'algoritmo, l'assunzione m n {\displaystyle m\geq n} è necessaria, altrimenti la matrice J r T J r {\displaystyle \mathbf {J_{r}} ^{\mathsf {T}}\mathbf {J_{r}} } non è invertibile e le equazioni non possono essere risolte (almeno in modo unico).

L'algoritmo di Gauss–Newton si ottiene dall'approssimazione lineare del vettore delle funzioni r i {\displaystyle r_{i}} utilizzando il teorema di Taylor. Infatti, a ogni iterazione si ottiene:

r ( β ) r ( β ( s ) ) + J r ( β ( s ) ) Δ {\displaystyle \mathbf {r} ({\boldsymbol {\beta }})\approx \mathbf {r} ({\boldsymbol {\beta }}^{(s)})+\mathbf {J_{r}} ({\boldsymbol {\beta }}^{(s)})\Delta }

con Δ = β β ( s ) {\displaystyle \Delta ={\boldsymbol {\beta }}-{\boldsymbol {\beta }}^{(s)}} . Trovare Δ {\displaystyle \Delta } che minimizza la somma dei quadrati nel membro destro, cioè

min r ( β ( s ) ) + J r ( β ( s ) ) Δ 2 2 , {\displaystyle \min \left\|\mathbf {r} ({\boldsymbol {\beta }}^{(s)})+\mathbf {J_{r}} ({\boldsymbol {\beta }}^{(s)})\Delta \right\|_{2}^{2},}

è un problema dei minimi quadrati lineare, che si risolve esplicitamente.

Le equazioni normali sono n {\displaystyle n} equazioni lineari simultanee nell'incremento Δ {\displaystyle \Delta } incognito. Si possono risolvere in un solo passaggio, usando la decomposizione di Cholesky, o, ancora meglio, la fattorizzazione QR di J r {\displaystyle \mathbf {J_{r}} } . Per sistemi grandi, può essere più efficiente un metodo iterativo, come quello del gradiente coniugato. Se esiste una dipendenza lineare tra le colonne di J r {\displaystyle \mathbf {J_{r}} } , le iterazioni falliranno a causa della singolarità di J r T J r {\displaystyle \mathbf {J_{r}} ^{\mathsf {T}}\mathbf {J_{r}} } .

Esempio

Curva di best fit ottenuta (in blu), con β ^ 1 = 0.362 {\displaystyle {\hat {\beta }}_{1}=0.362} and β ^ 2 = 0.556 {\displaystyle {\hat {\beta }}_{2}=0.556} , insieme ai dati osservati (in rosso).

In questo esempio, l'algoritmo di Gauss–Newton viene usato per la regressione della velocità V {\displaystyle V} di formazione del prodotto in una reazione catalizzata da un enzima in relazione alla concentrazione del substrato [ S ] {\displaystyle [S]} , secondo il modello di Michaelis-Menten. I dati misurati sono riportati nella seguente tabella. Le incertezze di ogni misura sono state messe uguali a 1.

i {\displaystyle i} 1 2 3 4 5 6 7
[ S ] {\displaystyle [S]} 0.038 0.194 0.425 0.626 1.253 2.500 3.740
V 0.050 0.127 0.094 0.2122 0.2729 0.2665 0.3317

La funzione modello è della forma

V = V max [ S ] K M + [ S ] {\displaystyle V={\frac {V_{\text{max}}[S]}{K_{M}+[S]}}}

con parametri V max {\displaystyle V_{\text{max}}} e K M {\displaystyle K_{M}} da determinare attraverso l'algoritmo.

Siano x i {\displaystyle x_{i}} e y i {\displaystyle y_{i}} i valori di [ S ] {\displaystyle [S]} e V {\displaystyle V} rispettivamente nella tabella, con i = 1 , , 7 {\displaystyle i=1,\dots ,7} . Siano β 1 = V max {\displaystyle \beta _{1}=V_{\text{max}}} e β 2 = K M {\displaystyle \beta _{2}=K_{M}} . Si troveranno β 1 {\displaystyle \beta _{1}} e β 2 {\displaystyle \beta _{2}} tali che la somma dei quadrati dei residui

r i = y i β 1 x i β 2 + x i ( i = 1 , , 7 ) {\displaystyle r_{i}=y_{i}-{\frac {\beta _{1}x_{i}}{\beta _{2}+x_{i}}}\quad (i=1,\dots ,7)}

sia minima.

Lo jacobiano J r {\displaystyle \mathbf {J_{r}} } del vettore dei residui r i {\displaystyle r_{i}} rispetto alle incognite β j {\displaystyle \beta _{j}} è una matrice 7 × 2 {\displaystyle 7\times 2} in cui nell' i {\displaystyle i} -esima riga si trova

r i β 1 = x i β 2 + x i ; r i β 2 = β 1 x i ( β 2 + x i ) 2 . {\displaystyle {\frac {\partial r_{i}}{\partial \beta _{1}}}=-{\frac {x_{i}}{\beta _{2}+x_{i}}};{\frac {\partial r_{i}}{\partial \beta _{2}}}={\frac {\beta _{1}x_{i}}{(\beta _{2}+x_{i})^{2}}}.}

Iniziando con una stima iniziale β 1 ( 0 ) = 0.9 {\displaystyle \beta _{1}^{(0)}=0.9} e β 2 ( 0 ) = 0.2 {\displaystyle \beta _{2}^{(0)}=0.2} , dopo cinque iterazioni dell'algoritmo di Gauss–Newton, si ottengono i valori ottimali β ^ 1 = 0.362 {\displaystyle {\hat {\beta }}_{1}=0.362} e β ^ 2 = 0.556 {\displaystyle {\hat {\beta }}_{2}=0.556} . La somma dei quadrati dei residui descresce dal valore iniziali di 1.445 {\displaystyle 1.445} a quello finale di 0.00784 {\displaystyle 0.00784} . Il grafico in figura mostra i dati nella tabella insieme alla curva modello con i parametri ottimali ottenuti dall'algoritmo. Sotto è riportata una tabella dei valori intermedi di β 1 {\displaystyle \beta _{1}} e β 2 {\displaystyle \beta _{2}} durante l'algoritmo.

Iterazione i {\displaystyle i} β 1 ( i ) {\displaystyle \beta _{1}^{(i)}} β 2 ( i ) {\displaystyle \beta _{2}^{(i)}} S ( β ( i ) ) {\displaystyle S(\mathbf {\beta ^{(i)}} )}
1 0.33266293 0.26017391 0.015072
2 0.34280925 0.42607918 0.008458
3 0.35777522 0.52950844 0.007864
4 0.36140546 0.5536581 0.007844
5 0.36180308 0.55607253 0.007844
6 0.36183442 0.55625246 0.007844

Convergenza del metodo

Si può mostrare[2] che l'incremento Δ {\displaystyle \Delta } è una direzione di discesa per S {\displaystyle S} , e, se l'algoritmo converge, che il limite è un punto stazionario di S {\displaystyle S} . Tuttavia, la convergenza non è garantita, nemmeno quella locale come nel metodo delle tangenti, o sotto le comuni condizioni di Wolfe.[3]

La velocità di convergenza di Gauss–Newton può diventare quadratica.[4] L'algoritmo potrebbe anche convergere lentamente o affatto se la stima iniziale è lontana dal minimo oppure la matrice J r T J r {\displaystyle \mathbf {J_{r}^{\mathsf {T}}J_{r}} } è mal condizionata. Per esempio, si consideri il problema con m = 2 {\displaystyle m=2} equazioni e n = 1 {\displaystyle n=1} variabili, dato da

r 1 ( β ) = β + 1 , r 2 ( β ) = λ β 2 + β 1. {\displaystyle {\begin{aligned}r_{1}(\beta )&=\beta +1,\\r_{2}(\beta )&=\lambda \beta ^{2}+\beta -1.\end{aligned}}}

Il minimo è per β = 0 {\displaystyle \beta =0} . (In realtà il minimo è per β = 1 {\displaystyle \beta =-1} se λ = 2 {\displaystyle \lambda =2} , poiché S ( 0 ) = 1 2 + ( 1 ) 2 = 2 {\displaystyle S(0)=1^{2}+(-1)^{2}=2} , ma S ( 1 ) = 0 {\displaystyle S(-1)=0} .) Se λ = 0 {\displaystyle \lambda =0} , allora il problema diventa lineare e il metodo trova il minimo in una sola iterazione. Se | λ | < 1 {\displaystyle |\lambda |<1} , allora l'algoritmo converge linearmente e l'errore decresce asintoticamente di un fattore | λ | {\displaystyle |\lambda |} a ogni iterazione. Tuttavia, se | λ | > 1 {\displaystyle |\lambda |>1} , non c'è convergenza nemmeno locale.[5]

Derivazione dal metodo di Newton

In questo paragrafo, l'algoritmo di Gauss–Newton verrà derivato dal metodo di Newton per l'ottimizzazione di funzione. Come conseguenza, la velocità di convergenza dell'algoritmo di Gauss–Newton può essere quadratico sotto certe condizioni di regolarità. In generale (sotto condizioni più deboli), la convergenza è lineare.[6]

La relazione di ricorrenza per il metodo di Newton per la minimizzazione della funzione S {\displaystyle S} di parametri β {\displaystyle {\boldsymbol {\beta }}} è

β ( s + 1 ) = β ( s ) H 1 g , {\displaystyle {\boldsymbol {\beta }}^{(s+1)}={\boldsymbol {\beta }}^{(s)}-\mathbf {H} ^{-1}\mathbf {g} ,}

dove g {\displaystyle \mathbf {g} } indica il vettore gradiente di S {\displaystyle S} , e H {\displaystyle \mathbf {H} } la sua matrice hessiana. Poiché S = i = 1 m r i 2 {\displaystyle S=\sum _{i=1}^{m}r_{i}^{2}} , il gradiente è dato da

g j = 2 i = 1 m r i r i β j . {\displaystyle g_{j}=2\sum _{i=1}^{m}r_{i}{\frac {\partial r_{i}}{\partial \beta _{j}}}.}

Elementi dell'Hessiana si calcolano derivando le componenti del gradiente, g j {\displaystyle g_{j}} , rispetto a β k {\displaystyle \beta _{k}} :

H j k = 2 i = 1 m ( r i β j r i β k + r i 2 r i β j β k ) . {\displaystyle H_{jk}=2\sum _{i=1}^{m}\left({\frac {\partial r_{i}}{\partial \beta _{j}}}{\frac {\partial r_{i}}{\partial \beta _{k}}}+r_{i}{\frac {\partial ^{2}r_{i}}{\partial \beta _{j}\partial \beta _{k}}}\right).}

Il metodo di Gauss–Newton si ottiene trascurando i termini con le derivate seconde (il secondo nell'espressione). Cioè, la matrice Hessiana è approssimata come

H j k 2 i = 1 m J i j J i k , {\displaystyle H_{jk}\approx 2\sum _{i=1}^{m}J_{ij}J_{ik},}

dove J i j = r i β j {\displaystyle J_{ij}={\frac {\partial r_{i}}{\partial \beta _{j}}}} sono gli elementi del jacobiano J r {\displaystyle \mathbf {J_{r}} } . Si possono riscrivere il gradiente e l'Hessiana approssimata in notazione matriciale come

g = 2 J r T r , H 2 J r T J r . {\displaystyle \mathbf {g} =2\mathbf {J} _{\mathbf {r} }^{\mathsf {T}}\mathbf {r} ,\quad \mathbf {H} \approx 2\mathbf {J} _{\mathbf {r} }^{\mathsf {T}}\mathbf {J_{r}} .}

Si sostituiscono queste espressioni nella relazione di ricorrenza precedente, così da ottenere l'equazioni dell'algoritmo

β ( s + 1 ) = β ( s ) + Δ ; Δ = ( J r T J r ) 1 J r T r . {\displaystyle {\boldsymbol {\beta }}^{(s+1)}={\boldsymbol {\beta }}^{(s)}+\Delta ;\quad \Delta =-\left(\mathbf {J_{r}} ^{\mathsf {T}}\mathbf {J_{r}} \right)^{-1}\mathbf {J_{r}} ^{\mathsf {T}}\mathbf {r} .}

La convergenza del metodo di Gauss–Newton non è garantita in tutte le situazioni. L'approssimazione

| r i 2 r i β j β k | | r i β j r i β k | , {\displaystyle \left|r_{i}{\frac {\partial ^{2}r_{i}}{\partial \beta _{j}\partial \beta _{k}}}\right|\ll \left|{\frac {\partial r_{i}}{\partial \beta _{j}}}{\frac {\partial r_{i}}{\partial \beta _{k}}}\right|,}

che serve per trascurare le derivate seconde può essere valida in due casi, così da aspettarsi la convergenza dell'algoritmo:[7]

  1. I valori della funzione r i {\displaystyle r_{i}} sono piccoli, almeno intorno al minimo.
  2. Le funzioni sono quasi-lineari, in modo che 2 r i β j β k {\displaystyle {\frac {\partial ^{2}r_{i}}{\partial \beta _{j}\partial \beta _{k}}}} sia relativamente piccolo.

Versioni migliorate dell'algoritmo

Con l'algoritmo di Gauss–Newton, la somma dei quadrati dei residui S {\displaystyle S} può non decrescere a ogni interazione. Tuttavia, poiché Δ {\displaystyle \Delta } è una direzione di discesa, a meno che S ( β s ) {\displaystyle S({\boldsymbol {\beta }}^{s})} sia un punto stazionario, vale che S ( β s + α Δ ) < S ( β s ) {\displaystyle S({\boldsymbol {\beta }}^{s}+\alpha \Delta )<S({\boldsymbol {\beta }}^{s})} per ogni α > 0 {\displaystyle \alpha >0} sufficientemente piccolo. Quindi, se il metodo diverge, una soluzione è di impiegare una frazione α {\displaystyle \alpha } dell'incremento Δ {\displaystyle \Delta } , utilizzando la seguente formula:

β s + 1 = β s + α Δ . {\displaystyle {\boldsymbol {\beta }}^{s+1}={\boldsymbol {\beta }}^{s}+\alpha \Delta .} .

In altre parole, il vettore incremento è troppo lungo, ma è diretto verso il basso, perciò avanzare soltanto di una frazione di cammino diminuirà il valore della funzione oggettiva S {\displaystyle S} . Si può trovare il valore ottimale di α {\displaystyle \alpha } usando un algoritmo di line search, cioè il valore α {\displaystyle \alpha } viene determinato trovando quello che minimizza S {\displaystyle S} , di solito con un metodo di ricerca diretta nell'intervallo 0 < α < 1 {\displaystyle 0<\alpha <1} .

Nei casi in cui la frazione ottimale α {\displaystyle \alpha } è vicina a zero, un metodo alternativo per il trattamento della divergenza è l'utilizzo dell'algoritmo di Levenberg-Marquardt, anche conosciuto come "metodo della regione di confidenza".[1] Le equazioni normali sono modificate in modo che l'incremento sia rotato verso la direzione di massima decrescita,

( J T J + λ D ) Δ = J T r , {\displaystyle \left(\mathbf {J^{\mathrm {T} }J+\lambda D} \right)\Delta =-\mathbf {J} ^{\mathrm {T} }\mathbf {r} ,}

dove D {\displaystyle \mathbf {D} } è una matrice diagonale positiva. Da notare che quando D {\displaystyle \mathbf {D} } è la matrice identità I {\displaystyle \mathbf {I} } e λ + {\displaystyle \lambda \to +\infty } , allora λ Δ = λ ( J T J + λ I ) 1 ( J T r ) = ( I J T J / λ + ) ( J T r ) J T r {\displaystyle \lambda \Delta =\lambda \left(\mathbf {J^{\mathrm {T} }J} +\lambda \mathbf {I} \right)^{-1}\left(-\mathbf {J} ^{\mathrm {T} }\mathbf {r} \right)=\left(\mathbf {I} -\mathbf {J^{\mathrm {T} }J} /\lambda +\cdots \right)\left(-\mathbf {J} ^{\mathrm {T} }\mathbf {r} \right)\to -\mathbf {J} ^{\mathrm {T} }\mathbf {r} } , perciò la direzione di Δ {\displaystyle \Delta } si avvicina alla direzione del gradiente negativo J T r {\displaystyle -\mathbf {J} ^{\mathrm {T} }\mathbf {r} } .

Il parametro di Marquardt λ {\displaystyle \lambda } può essere ottimizzato attraverso un line search, ma è molto inefficiente, dato che il vettore incremento deve essere ricalcolato a ogni modifica di λ {\displaystyle \lambda } . Una strategia più efficiente è questa: quando il metodo diverge, si incrementa il parametro di Marquardt fintanto che si ha una decrescita di S {\displaystyle S} . Quindi si conserva il valore da una iterazione a quella successiva, ma si diminuisce fino a che non si raggiunge un valore limite, quando il parametro di Marquardt può essere posto uguale a 0; la minimizzazione di S {\displaystyle S} diventa pertanto una ottimizzazione standard di Gauss–Newton.

Ottimizzazione su larga scala

Per l'ottimizzazione su larga scala, l'algoritmo di Gauss–Newton è di particolare interesse perché in generale vale (sebbene non sempre) che la matrice J r {\displaystyle \mathbf {J} _{\mathbf {r} }} è molto più sparsa dell'Hessiana approssimata J r T J r {\displaystyle \mathbf {J} _{\mathbf {r} }^{\mathsf {T}}\mathbf {J_{r}} } . In questi casi, il passo dell'algoritmo viene fatto con un metodo iterativo approssimato adatto a problemi grandi e sparsi, come il metodo del gradiente coniugato.

Per far funzionare questo approccio, serve almeno un metodo efficiente per calcolare il calcolare il prodotto

J r T J r p {\displaystyle \mathbf {J} _{\mathbf {r} }^{\mathsf {T}}\mathbf {J_{r}} \mathbf {p} }

per un qualche vettore p {\displaystyle \mathbf {p} } . Per l'immagazzinamento della matrice sparsa, in genere è pratico memorizzare le righe di J r {\displaystyle \mathbf {J} _{\mathbf {r} }} in una forma compressa (cioè, senza gli elementi nulli), rendendo però il calcolo diretto del prodotto precedente alquanto complicato per via della trasposizione. Tuttavia, se si definisce c i {\displaystyle \mathbf {c_{i}} } come la riga i {\displaystyle i} -esima della matrice J r {\displaystyle \mathbf {J} _{\mathbf {r} }} , vale la seguente semplice relazione:

J r T J r p = i c i ( c i p ) , {\displaystyle \mathbf {J} _{\mathbf {r} }^{\mathsf {T}}\mathbf {J_{r}} \mathbf {p} =\sum _{i}\mathbf {c} _{i}(\mathbf {c} _{i}\cdot \mathbf {p} ),}

in modo che ogni riga contribuisce additivamente e indipendentemente al prodotto. In aggiunta alla memorizzazione molto pratica, questa espressione è adatta al calcolo parallelo. Da notare che ogni riga c i {\displaystyle \mathbf {c_{i}} } è il gradiente del rispettivo residuo r i {\displaystyle r_{i}} ; tenendo conto di questo, la forma precedente enfatizza il fatto che i residui contribuiscono al problema in modo indipendente uno dall'altro.

Algoritmi collegati

In un metodo quasi-Newton, come quello dovuto a Davidon, Fletcher e Powell oppure a Broyden–Fletcher–Goldfarb–Shanno (metodo BFGS), si calcola numericamente una stima della Hessiana 2 S β j β k {\displaystyle {\frac {\partial ^{2}S}{\partial \beta _{j}\partial \beta _{k}}}} usando solo le derivate prime r i β j {\displaystyle {\frac {\partial r_{i}}{\partial \beta _{j}}}} , in modo che solo dopo n {\displaystyle n} cicli di perfezionamento il metodo si avvicina approssimativamente a quello di Newton in termini di prestazioni. Da notare che i metodi quasi-Newton possono minimizzare funzioni arbitrarie a valori reali, mentre Gauss–Newton, Levenberg–Marquardt, ecc. risolvono solo problemi di minimi quadrati non lineari.

Un altro metodo per risolvere problemi di minimo usando solo derivate prime è la discesa del gradiente. Tuttavia, quest'ultimo metodo non considera le derivate seconde nemmeno approssimativamente, perciò è altamente inefficiente per molte funzioni, specialmente se i parametri hanno una forte correlazione.

Note

  1. ^ a b Björck (1996)
  2. ^ Björck (1996), p. 260.
  3. ^ Mascarenhas, The divergence of the BFGS and Gauss Newton Methods, in Mathematical Programming, vol. 147, n. 1, 2013, pp. 253–276, DOI:10.1007/s10107-013-0720-6, arXiv:1309.7922.
  4. ^ Björck (1996), p. 341, 342.
  5. ^ Fletcher (1987), p. 113.
  6. ^ Copia archiviata, su henley.ac.uk. URL consultato il 2 novembre 2018 (archiviato dall'url originale il 4 agosto 2016).
  7. ^ Nocedal (1999), p. 259.

Bibliografia

  • A. Björck, Numerical methods for least squares problems, SIAM, Philadelphia, 1996, ISBN 0-89871-360-9.
  • Roger Fletcher, Practical methods of optimization, 2nd, New York, John Wiley & Sons, 1987, ISBN 978-0-471-91547-8.
  • Jorge Nocedal e Wright, Stephen, Numerical optimization, New York: Springer, 1999, ISBN 0-387-98793-2.

Collegamenti esterni

Implementazioni

  • Artelys Knitro è un risolutore non lineare con un'implementazione del metodo di Gauss–Newton. È scritto in linguaggio C e possiede interfacce per C++/C#/Java/Python/MATLAB/R.
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica