|
PropagazioneDegliErroriDueMisure< Propagazione degli errori | Indice | Generalizzazione al caso di n grandezze misurate > Propagazione degli errori in una funzione di due grandezze misurate Anche in questo caso si può ricavare un'espressione per l'errore sulla grandezza derivata attraverso una funzione, ricorrendo allo sviluppo in serie al primo ordine di questa funzione. Supponiamo di aver misurato due grandezze tramite due serie di {$N$} misure: {$\{x_i\}$} e '{$\{y_i\}$}, con valori medi: {$ (1) \qquad\qquad \bar x = \frac{1}{N} \sum_{i=1}^N x_i \qquad \qquad \qquad \qquad \bar y = \frac{1}{N} \sum_{i=1}^N y_i $} e varianze: {$ (2) \qquad\qquad s_x^2= \frac{1}{N-1} \sum_{i=1}^N (x_i-\bar x)^2 \qquad \qquad \qquad \qquad s_y^2=\frac{1}{N-1} \sum_{i=1}^N (y_i-\bar y)^2 $} rispettivamente. Vogliamo determinare la varianza della quantità {$f(x,y)$} il cui valore medio si assume dato da: {$ (3) \qquad\qquad \bar f= \frac{1}{N}\sum_{i=1}^N f(x_i,y_i) - f(\bar x,\bar y) $} L'assunzione implica che la superficie rappresentata dalla funzione {$f$} per: {$ \bar x - s_x \le x \le \bar x + s_x$} ed {$\bar y - s_y \le y \le \bar y + s_y $} è ben approssimata dal piano tangente. In queste condizioni si può ricavare lo scarto tra i valori di {$f(x_i,y_i)$} ed il loro valor medio (3) come: {$ (4) \qquad\qquad f(x_i,y_i)-\bar f = (x_i-\bar x) \frac{\partial f}{\partial x} + (y_i-\bar y) \frac{\partial f}{\partial y} $} La varianza di f è per definizione la "media" del quadrato dell'espressione (4). Essa ha tre termini che si possono scrivere: {$ (5) \qquad\qquad s_f^2= s_x^2 \left(\frac{\partial f}{\partial x}\right)^2 + s_y^2 \left(\frac{\partial f}{\partial y}\right)^2 + 2 s_{xy}^2 \frac{\partial f}{\partial x} \frac{\partial f}{\partial y} $} In questa espressione riconosciamo le varianze rispettivamente di {$x$} ed {$y$}, ed inoltre un termine, {$s_{xy}^2$}, battezzato covarianza di {$x$} ed {$y$}, uguale alla media del prodotto dei relativi scarti: {$ (6) \qquad\qquad s_{xy}^2 = \frac{1}{N-1} \sum_{i=1}^N (x_i-\bar x) (y_i-\bar y) $} Se le {$N$} misure di {$x$} sono effettivamente indipendenti (scorrelate) dalle {$N$} misure di {$y$} i termini della somma (6) in media tanti positivi quanti negativi e il loro prodotto avrà somma circa nulla. Se viceversa c'è una tendenza a misurare, ad esempio, valori negativi dello scarto di {$x$} quando si misurano valori positivi dello scarto {$y$} la somma (6) acquistarà un valore negativo, quindi diverso da zero. Si dice in questo caso che le misure sono (parzialmente) anticorrelate. Nel caso opposto (scarti dello stesso segno) si parla ovviamente di correlazione positiva. Nel caso di misure scorrelate, si ottiene una misura dell'incertezza di {$f$} dalla sua deviazione standard {$ (7) \qquad\qquad s_f = \sqrt{s_x^2 \left(\frac{\partial f}{\partial x}\right)^2 + s_y^2 \left(\frac{\partial f}{\partial y}\right)^2} $} La deviazione standard di {$f$} può sia aumentare che diminuire per correlazioni non nulle, a seconda del segno di {$s_{xy}^2$}. Tutte le espressioni di questa pagina possono essere facilmente generalizzate al caso di funzioni di più variabili. Conviene infine considerare alcuni casi semplici di uso comune. Concludiamo con la generalizzazione della varianza (5) al caso di una funzione di {$n$} variabili scorrelate, {$\{x_i\}, i = 1,\cdots,n$}, di varianze {$s_i^2$}: {$ (8) \qquad\qquad s_f^2= \sum_{i=1}^n s_i^2 \left(\frac{\partial f}{\partial x_i}\right)^2. $} < Propagazione degli errori | Indice | Generalizzazione al caso di n grandezze misurate > |