Home / Italian Posts / Statistica col Geiger

Statistica col Geiger

Introduzione

Una tipica situazione nella quale entra in gioco la distribuzione di Poisson è lo studio di un processo di decadimento radioattivo. In questa circostanza, il numero di prove è costituito dal numero di nuclei che potenzialmente possono decadere ed è molto grande (per una mole di materiale radioattivo il numero di nuclei è dell’ordine di 1023), mentre la probabilità di “successo” (decadimento) per ogni nucleo è molto piccola. Inoltre il decadimento di un nucleo non condiziona il decadimento degli altri nuclei radioattivi presenti. Ci troviamo quindi in presenza di eventi casuali rari, in questa situazione si applica la statistica di Poisson.

La Distribuzione di Poisson

Poisson dimostrò che la probabilità di osservare un numero n di tali eventi casuali rari, in un intervallo spaziale o temporale finito e sempre identico, vale :

con μ il valor medio del numero di eventi per intervallo che si sono osservati in un numero N di osservazioni identiche. Per questa distribuzione la varianza ha lo stesso valore del valor medio, cioè μ.
Una caratteristica della ditribuzione di Poisson è che al crescere di μ si approssima ad una distribuzione normale (o gaussiana) con valore atteso μ e deviazione standard σ = √μ.

Setup

Per la verifica della distribuzione statistica dei conteggi abbiamo utilizzato un contatore Geiger con un tubo GM. Noi abbiamo utilizzato il modello LND 712 (α,β,γ) con un Theremino Geiger Adapter ed il software Theremino Geiger Counter. La sorgente (0,1 μCi dell’isotopo Stronzio 90) è stata posta all’interno di un pozzetto di misura, mentre il detector è stato posto a circa 5 cm di distanza, in modo da registrare una adeguata frequenza di conteggio. L’immagine sotto mostra il setup sperimentale.

Risultati

Con il software Theremino Geiger abbiamo utilizzato due intervalli di integrazione. Il primo di 30 s, mentre il secondo di 120 s. Il tempo di presa dati, in entrambi i casi, è stato piuttosto prolungato, in modo da avere un campione statisticamente significativo (almeno 1000 – 2000 dati). Il software è stato settato in modo da loggare su file il risultato del conteggio al termine dell’intervallo di integrazione (ogni 30 s nel primo caso, ogni 120 s nel secondo).

I dati sono stati poi elaborati su excel in modo da realizzare l’istogramma delle frequenze relative.

Integrazione da 30 secondi

Nella immagine sotto viene mostrato l’istogramma delle frequenze per i dati presi con un intervallo di integrazione di 30 s.
Il valore atteso risulta essere di 150 CPM con una deviazione standard di 12,8.
μ = 150 CPM
σ = 12,8
σ (%) = σ / μ = 12,8 / 150  = 8,5 %

Integrazione da 120 secondi

Nella immagine sotto viene mostrato l’istogramma delle frequenze per i dati presi con un intervallo di integrazione di 120 s.
Il valore atteso risulta essere di 608 CPM con una deviazione standard di 26,6.
μ = 608 CPM
σ = 26,6
σ (%) = σ / μ = 26,6 / 608  = 4,4 %

Conclusioni

Gli istogrammi dei conteggi si approssimano molto bene alla classica distribuzione normale, a dimostrazione che  ci troviamo di fronte ad un fenomeno governato dalla distribuzione di Poisson. Il valore della deviazione standard si avvicina al valore teorico pari a σ = √μ. 

Dai dati raccolti per i due tempi di integrazione appare anche chiaro come la deviazione standard percentuale diminuisce al crescere del valore medio del conteggio. Questo ci suggerisce un metodo (anche se ovvio) per ottenere migliori precisioni di conteggio : aumentando il tempo di integrazione la curva a campana diventa sempre più concentrata attorno al suo valore medio, rendendo quindi la misura più precisa.

Check Also

Range Particelle Alpha & Curva di Bragg

L’energia delle particelle alfa varia circa tra 3 e 7 MeV, dove le energie più …