Recent Changes · Search:

Dispense


Navigation Tips - Dritte


PmWiki

pmwiki.org

edit SideBar

DerivazioneDelFattoreR

Indice


Immaginiamo per semplicità che i dati siano soggetti ad una incertezza relativa in y ed a una incertezza relativa molto minoe in x, che viene quindi trascurata nel seguito. Se effettivamente i dati {$\{y_i\}$} ottenuti in corrispondenza dei valori {$\{x_i\}$} della variabile indipendente {$x$} discendono da una legge lineare

{$ y=a+bx$}

con coefficiente {$a$} non nullo, ciò significa che, avendo potuto misurare entrambe le variabili, nulla vieta di considerare la relazione che lega {$x$} ad {$y$}. Anche questa sarà una legge lineare

{$ x=A+By$}

ed in particolare dovrà risultare che {$b=1/B$}. Notare che, se lo scarto quadratico {$ (y_i-a-bx_i)^2$} è supposto avere varianza {$\sigma^2$}, ossia {$y_i$} dista in media {$\sigma$} dalla retta {$a+bx_i$}, si deve supporre che la stessa distanza media (ossia la stessa varianza) valga anche per {$x_i$} e la retta {$A+By_i$}. Questo è vero sempre, ma è particolarmente evidente se l'unica incertezza considerata è su y. Ciò significa che resta inalterato il modo di calcolare le quantità in parentesi quadre, {$ [x], [y] $}, etc. Si può quindi controllare se questa uguaglianza vale per i coefficienti ricavati dai dati sperimentali con la regressione lineare, ossia

{$ b=\frac {[1][xy]-[x][y]}{[1][x^2]-[x]^2}$}

e, per analogia diretta,

{$B=\frac {[1][yx]-[y][x]}{[1][y^2]-[y]^2}$}

Richiedere che questi due coefficienti siano l'uno l'inverso dell'altro equivale a valutare se il coefficiente

{$ (1) \qquad\qquad r^2= bB = \frac {([1][xy]-[x][y])^2} {([1][x^2]-[x]^2) ([1][y^2]-[y]^2) } $}

sia pari ad {$1$}. È facile riconoscere nel denominatore di questa equazione il quadrato della covarianza pesata dei dati, {$\sigma_{xy,w}^2$} e nel numeratore il prodotto delle varianze pesate, {$\sigma_{y,w}^2$} e {$\sigma_{x,w}^2$}, a meno della costante {$\[1\] ^2$}, che si elide nel rapporto. Quindi è naturale aspettarsi che il coefficiente

{$ (2) \qquad\qquad r=\frac {\sigma_{xy,w}^2} { \sigma_{y,w}\,\sigma_{x,w} } $}

tenda a {$\pm 1 $} per dati correlati linearmente. Per la distibuzione di probabilità a cui {$r$} tende nel limite di dati non correlati, vedere di nuovo la pagina sulla correlazione lineare


Indice

Edit - History - Print - PDF - Recent Changes - Search
Page last modified on November 18, 2012, at 09:12 AM