|
DistribuzioniDiProbabilita< Istogrammi | Indice | Media, varianza e deviazione standard di una distribuzione > Abbiamo visto che la distribuzione dei risultati della ripetizione di una stessa misura per un certo numero N di volte può essere rappresentata mediante un istogramma. Questa rappresentazione fornisce una prima definizione, empirica, di probabilità: la probabilità di ottenere un valore compreso entro un certo intervallo dell'istogramma è approssimata dalla sua frequenza, ossia dal rapporto tra l'altezza della colonna corrispondente (il numero di eventi), divisa per N. La distribuzione empirica di probabilità di ottiene quindi dividendo l'istogramma dei risultati per N. Questa definizione obbedisce ai due criteri che ogni distribuzione di probabilità deve soddisfare:
Siccome al'aumentare del numero di ripetizioni N l'istogramma tende ad una forma funzionale ben riconoscibile, la distribuzione limite, attraverso di essa si può dare una seconda definizione di probabilità. Questa funzione viene chiamata funzione distribuzione di probabilità (in inglese probability distribution function, pdf), e, se è nota a-priori (o se si suppone nota), la probabilità {$P(x)$} di misurare il valore discreto {$x$} coincide con la pdf. In questa seconda definizione, che fa riferimento alla distribuzione limite, abbiamo considerato per semplicità una distribuzione discreta. È discreta la distribuzione appropriata per il lancio di dadi, che può avere come risultato per ciascun dado uno qualunque dei possibili valori (da uno a sei) assunti dalla faccia superiore. Quindi i possibili risultati formano un insieme discreto. Ciò è vero anche per il lancio di monete, che possono assumere i valori testa o croce per ciascuna moneta. Sono di fatto distribuzioni discrete anche tutte quelle empiriche, ottenute dalla misura di una qualunque grandezza fisica. Infatti ciascuno strumento di misura avrà una sua caratteristica sensibilità ed i risultati delle misure saranno noti solo entro un certo numero di cifre significative. Di conseguenza i diversi risultati possibili, limitati entro un intervallo ragionevole attorno al valore vero, saranno in un numero discreto. Viceversa la distribuzione limite di queste misure empiriche è normalmente una distribuzione continua. Infatti il valore vero può essere un rappresentato da un numero reale. In questo caso il significato preciso della pdf cambia, dal momento che la probabilità di ottenere un particolare valore reale è necessariamente nulla, essendo ciascun numero, o punto sulla retta, un insieme di misura nulla. Potrà viceversa avere probabilità finita il fatto che un risultato appartenga ad un certo intervallo {$(x_1,x_2)$} e questa sarà data dall'integrale della pdf, {$P(x)$}, esteso all'intervallo: {$ (1) \qquad \qquad \int_{x_1}^{x_2} P(x) dx $} Di conseguenza la pdf, {$P(x)$}, rappresenta la probabilità differenziale, ossia, chiamando {$I(x_1,x_2)$} la probabilità finita relativa all'intervallo dato: {$ (2) \qquad \qquad d I = P(x) dx $} Incominciamo a vedere come si usa una distribuzione limite per calcolare il valore che ci si attende di ottenere in base ad essa, e anche di quanto ci si può attendere di discostarsi da questo valore in un caso pretico. Poi vedremo in dettaglio il caso del lancio di dadi o monete e la loro descrizione con la distribuzione binomiale. < Istogrammi | Indice | Media, varianza e deviazione standard di una distribuzione > |