|
PropagazioneDegliErroriNMisure< Funzione di due grandezze misurate | Indice | Casi semplici > Generalizzazione della propagazione dell'arrore al caso di n grandezze I concetti della propagazione degli errori si estendono direttamente al caso più generale in cui si vuole ottenere il valore di una grandezza che è funzione di {$n$} quantità misurate, {$f(x_1,x_2, \cdots ,x_n)$}. Per semplicità immaginiamo che queste quantità siano il frutto di {$n$} misure indipendenti. Ciascuna misura {$x_k$} è stata effettuata su un campione di {$N$} ripetizioni (chiameremo i valori ottenuti {$x_{k,i}$}), e che gli errori di due misure distinte, {$k$} e {$l$}, siano scorrelati tra di loro. Come abbiamo visto ciò significa che la correlazione: {$ s_{kl}^2 = \frac 1 {N-1} \sum_{i=1}^N (x_{k,i}-\bar {x_k})(x_{l,i}-\bar{x_l}) $} è molto piccola, e diventa nulla nel limite in cui {$N$} tende all'infinito. Viceversa ogni misura {$k$} avrà una sua varianza {$ s_k^2 $} diversa da zero. L'incertezza sulla determinazione di {$f$} sarà dato allora da: {$ (1) \qquad\qquad s_f = \sqrt{\sum_{k=1}^M \left(\frac{\partial f}{\partial x_k}\right)^2 s_k^2} $} Nei casi pratici, prima di avventurarsi a calcolare la radice di questa somma di quadrati, conviene stimare l'ordine di grandezza dei diversi contributi. Visto che si cerca un'errore, che va determinato con una sola cifre significativa, è inutile considerare contributi piccoli in presenza di contributi dominanti. E siccome i contributi si sommano in quadratura (ossia si sommano i loro quadrati), basta che un termine sia tre volte maggiore di un altro perchè il suo quadrato sia circa dieci volte maggiore del quadrato dell'altro, che può essere quindi trascurato. Ragionamenti pratici come quello appena citato sono utili per veloci calcoli fatti a mano. Viceversa la trattazione numerica dei dati con il PC non costa grande fatica e può essere il caso di inserire algoritmi completi anche dei termini irrilevanti. < Funzione di due grandezze misurate | Indice | Casi semplici > |