Recent Changes · Search:

Dispense


Navigation Tips - Dritte


PmWiki

pmwiki.org

edit SideBar

FitPolinomialeErrori

< Minimizzazione del chi quadro | Indice | polinomi generalizzati >


Matrice di curvatura e matrice degli errori

Il significato geometrico della matrice A, appena introdotta (Eq. (6) pagina precedente), diventa evidente se si calcola la curvatura della superficie {$\chi^2(\alpha)$} (ricordiamo che con {$\alpha$} intendiamo l'intero vettore dei parametri). Questa quantità è data dalla derivata seconda di {$\chi^2(\alpha)$} rispetto a coppie di parametri, nello stesso senso in cui {$\frac {d^2f}{dx^2}$} rappresenta la curvatura della funzione f:

{$ (1) \qquad\qquad \frac {\partial \chi^2} {\partial a_k a_l} = 2 \sum_{i=1}^N \frac {x_i^k x_i^l} {\sigma_i^2} $}

nel cui membro destro si riconosce immediatamente {$2A_kl$} (Eq. (4) e (6) pagina precedente).

Fig. 1 Quindi tanto più un elemento di A risulta grande, tanto maggiore sarà la curvatura della superficie nel sottospazio dei due parametri ai quali l'elemento scelto corrisponde. In particolare gli elementi della diagonale di A forniscono le curvature delle proiezioni della superficie {$\chi^2(\alpha)$} lungo un solo parametro. È evidente che tutte queste proiezioni sono parabole perchè il modello impiegato è lineare nei parametri, quindi {$\chi^2$} risulta essere solo quadratico.

Fig. 2 Sezione nella direzione di un solo parametro: il {$\chi^2$} è una parabola

Viceversa è un po' più lungo riconoscere che gli elementi della matrice inversa {$\epsilon=A^{-1}$} danno le correlazioni tra i parametri del fit:

{$ (2)\qquad\qquad \epsilon_{kl} = \sigma_{a_k a_l}^2, $}

il che giustifica il nome di matrice degli errori dato alla matrice inversa {$\epsilon$}, visto che i suoi elementi diagonali coincidono con le varianze dei singoli parametri.

Per ottenere questo risultato occorre calcolare le correlazioni attraverso la propagazione degli errori che stabilisce:

{$ (3)\qquad\qquad \sigma_{a_k a_l}^2 = \sum_{i=1}^N \frac {\partial a_k}{\partial y_i} \quad\frac {\partial a_l} {\partial y_i}\quad \sigma_i^2 $}

La dipendenza dei parametri da {$y_i$} si ricava a partire dalla soluzione trovata in precedenza, {$\alpha=\epsilon\cdot\beta$}, nella quale solo le componenti del vettore {$\beta$} dipendono da {$y$}, in base a {$\beta_j=[x^jy]$}. Ricordando le definizioni di queste ultime quantità (Eq. (4) pagina precedente), si ha così:

{$ (4) \qquad\qquad \frac {\partial a_k} {\partial y_i} = \sum_{s=0}^M \epsilon_{ks} \quad\frac {x_i^s} {\sigma_i^2}. $}

Dalla sostituzione nella (3) si ottiene infine:

{$ (5) \qquad\qquad \sigma_{a_k a_l}^2 = \sum_{i=1}^N \sum_{s=0}^M \epsilon_{ks} \quad\frac {x_i^s} {\sigma_i^2} \sum_{r=0}^M \epsilon_{lr} \quad\frac {x_i^r} {\sigma_i^2}\quad \sigma_i^2, $}

e riordinando questa espressione si riconosce al suo interno il termine: {$ \sum_{i=1}^N \frac {x_i^{s+r}} {\sigma_i^2}, $} che coincide con l'elemento di matrice {$A_{rs}$}. In definitiva si ottiene:

{$ \sigma_{a_k a_l}^2 = \sum_{s,r=0}^M \epsilon_{ks} \quad \epsilon_{lr} A_{rs} = \epsilon_{kl}, $}

dove si è riconosciuto che {$\epsilon\cdot A$} è la matrice unità, ossia solo gli elementi diagonali del prodotto ({$l=s$}, nell'espressione (6)) sono diversi da zero. L'equazione coincide con la (2) e afferma proprio che l'elemento di matrice di {$\epsilon$} fornisce la covarianza tra due parametri; quindi la radice dell'elemento diagonale dà la deviazione standard del parametro:

{$ (6) \qquad\qquad \sigma_{a_k} = \sqrt{\epsilon_{kk}} $}


< Minimizzazione del chi quadro | Indice | polinomi generalizzati >

Edit - History - Print - PDF - Recent Changes - Search
Page last modified on November 11, 2006, at 07:32 PM