A completamento e integrazione delle due voci quadro di Fermi, sulla fisica atomica fino al 1930, e di Rasetti, sulla radioattività naturale e artificiale, presentiamo nel seguito una serie di lemmi utili per la comprensione della fisica al tempo di Fermi, con qualche cenno agli sviluppi successivi. Consigliamo tuttavia, per un approfondimento dei problemi trattati, molti dei quali decisamente non semplici, di ricorrere ai manuali specialistici.Macchina che produce, mediante una opportuna sorgente, fasci di particelle cariche di stessa energia (misurata in eV) e di data intensità. Un sistema elettrico o elettromagnetico accelera le particelle che vengono inviate contro un bersaglio. Dallo studio dei processi d’urto tra le particelle cariche e il bersaglio si risale alle proprietà dei costituenti elementari della materia. L’acceleratore elettrostatico di Cockcroft-Walton fornisce uno dei primi esempi di acceleratore di particelle. Alla sommità del "tubo acceleratore" è posta la sorgente di particelle accelerate da un apposito circuito "moltiplicatore di tensione". Altri esempi di macchine acceleratrici sono il betatrone, il ciclotrone, il sincrotrone.
Processo di sintesi di una particella elementare con la sua antiparticella, caratterizzato dalla scomparsa di entrambe e la comparsa di energia in altre forme (o di ‘nuovi stati elementari’). Nel processo si conservano impulso ed energia totale: la massa e le energie cinetiche delle due particelle prima della sintesi si trasformano in energia. Per es., il processo di annichilazione elettrone-positrone e+e-, può essere pensato come un processo a tre stadi (rappresentabile con un diagramma di Feynman): annichilazione di e+e-, liberazione di energia, corrispondente a uno stadio intermedio virtuale (relativo, per es. a un fotone virtuale o di annichilazione), stadio finale con produzione di nuovi stati elementari, costituito da una particella e una antiparticella diverse dagli stati iniziali, per es., m+ , m-, p+ , p-, ecc. I fenomeni di annichilazione elettrone-positrone, dopo la fase pionieristica iniziata negli anni Trenta, sono stati studiati a partire dagli anni Sessanta con i primi anelli di accumulazione lanciando un fascio di elettroni contro un fascio di positroni con una energia che va da qualche centinaio di MeV a molti GeV. Nello studio dell’ annichilazione protone-antiprotone, i primi esperimenti sono stati condotti in camere a bolle a idrogeno o deuterio liquido in campo magnetico. Man mano che il processo veniva studiato a energie crescenti (nei protosincrotroni o negli anelli di collisione) si è scoperto che l’ annichilazione di una coppia protone-antiprotone è molto complessa e può avvenire secondo diversi canali di reazione con produzione di nuovi stati elementari (o ‘particelle elementari’) p+ , p-, p0 , ecc. o i cosiddetti stati mesonici risonanti. Alla fine degli anni Sessanta è stato formulato un modello di protone i cui costituenti elettrici carichi sono i quark (fermioni a spin 1/2). Anche per i quark esistono processi di annichilazione quark-antiquark con produzione di numerose particelle nello stato finale.
Con questo termine si indicano nuclei di antineutrone e di antiprotone, le antiparticelle dei neutroni e protoni (nucleoni).
Particella corrispondente di una data particella elementare di massa, spin e vita media uguali, mentre carica elettrica, momento magnetico, numero barionico e altri numeri quantici, opposti. Il positrone è l’antiparticella dell’elettrone, l’antiprotone del protone, l’antineutrone del neutrone, ecc.. L’esistenza delle antiparticelle è stata prevista da Dirac, nella sua teoria relativistica dell’elettrone e confermata nel 1932 da C.A. Anderson in camera a nebbia per il positrone. Particelle e antiparticelle possono annichilarsi. Nei processi di annichilazione le particelle possono trasformarsi in altre particelle (o nuovi stati elementari) di massa minore; il "difetto di massa" si ritrova sotto forma di energia secondo l’equivalenza massa-energia di Einstein.
Antiparticella del protone con massa e momento angolare intrinseco uguali, carica e momento magnetico uguali e di segno opposto a quelli del protone. Antiprotoni sono stati ottenuti in laboratorio nel 1955 da O. Chamberlain, E. Segrè, C. Wiegand e T. Ypsilantis bombardando con un fascio di protoni di 6 GeV (> 6 Mc2, con M massa a riposo del protone e c velocità della luce nel vuoto) un bersaglio di rame.
Macchina, progettata e realizzata intorno al 1935, che accelera elettroni mediante campi elettrici indotti prodotti da un flusso magnetico variabile. Il campo magnetico (variabile nel tempo e di configurazione opportuna) costringe gli elettroni a descrivere orbite circolari e li accelera.
Particella con spin di valore intero (0, 1, 2, …). Il comportamento dei bosoni è governato dalla statistica di Bose-Einstein.
Bremsstrahlung, radiazione di (o radiazione di frenamento)
Irraggiamento di fotoni (raggi g) da parte di particelle cariche quando subiscano per qualche motivo un frenamento. Per es., gli elettroni di un fascio che attraversa un mezzo materiale, interagendo con i campi elettrici dei nuclei degli atomi del mezzo possono subire ‘frenamento’ ed emettere radiazione. Il fenomeno è spiegabile solo parzialmente nel quadro dell’elettromagnetismo classico che giustifica il fatto che una particella carica in moto accelerato emette una radiazione di ampiezza (proporzionale all’accelerazione) che va come Z2 (con Z numero atomico del materiale) ed è inversamente proporzionale al quadrato della massa della particella. A parità di accelerazione, un elettrone, che ha massa più di 1000 volte minore del protone, irradia pertanto circa 106 volte di più di un protone. Altre proprietà della radiazione di frenamento trovano spiegazione solo nell’ambito dell’elettrodinamica quantistica. Può essere ottenuta, per es., nei betatroni e negli elettrosincrotroni, fornendo raggi g di alta energia.
Si parla di campo quando si può associare a tutti i punti di una regione dello spazio il valore (stazionario o dipendente dal tempo) di una certa grandezza fisica. Tale grandezza, detta variabile di campo, può essere sia scalare (temperatura, pressione, ecc.) sia vettoriale (velocità, accelerazione di gravità, ecc.). Le sorgenti del campo sono enti fisici che generano il campo: una carica elettrica in quiete può generare un campo elettrico E, una massa un campo gravitazionale, un magnete o una carica in movimento, un campo di induzione magnetica B. Un campo vettoriale può essere descritto mediante "linee di forza" e formalizzato introducendo opportune grandezze matematiche (come per es. i flussi). Il campo è l’intermediario delle interazioni tra corpi, sistemi o particelle. E’ un concetto estremamente efficace e fecondo, sia in fisica classica che quantistica.
Un corpo è elettrizzato se possiede una carica elettrica. Le cariche di particelle osservabili sono di due specie, positive e negative, e sono sempre multipli interi, a meno del segno, della carica e dell’ elettrone (detta carica elementare, e = -1,6021892 10-19 C). In condizioni normali (corpo neutro) il numero di elettroni atomici che hanno carica negativa neutralizza l’effetto delle cariche positive dei nuclei atomici. Tra corpi carichi (di dimensioni lineari piccole rispetto alla loro distanza, cioè nell’approssimazione delle "cariche puntiformi") si esercita una interazione coulombiana (repulsiva per cariche omonime). Una carica genera nello spazio circostante un campo di forza, detto campo elettrico.
Particolare acceleratore circolare di particelle, ideato da E. O. Lawrence nel 1931, che genera fasci continui di ioni, accelerati da una opportuna tensione alternata. Gli ioni sono costretti a muoversi lungo una traiettoria a spirale a causa della presenza di un campo magnetico. Un sistema di estrazione del fascio indirizza poi le particelle accelerate contro il bersaglio. Un parametro significativo è dato dalla "frequenza di ciclotrone" n = qB/2pm, dove q è la carica elettrica delle particelle di massa m, B l’induzione del campo magnetico; a causa dell’ aumento della massa m delle particelle quando vengono accelerate a velocità relativistiche, varia anche la frequenza di ciclotrone. Questo limite di funzionamento viene superato nel sincrociclotrone.
Particolare disposizione sperimentale di rivelatori di particelle, introdotta (specie da Bruno Rossi) nella ricerca dei raggi cosmici, che impiega un circuito con un ingresso per ogni rivelatore, in grado di segnare in uscita il passaggio ‘simultaneo’ entro un prefissato intervallo di tempo di una stessa particella nei rivelatori.
Se un fascio monocromatico di raggi X colpisce un bersaglio di una sostanza di basso numero atomico (per es., grafite), la radiazione diffusa è "più molle", cioè presenta una lunghezza d’onda maggiore di quella incidente secondo la relazione
con h costante di Planck, m0 massa a riposo dell’elettrone, f angolo tra la direzione incidente e diffusa; lC è detta lunghezza d’onda Compton dell’elettrone. Il fenomeno non è spiegabile classicamente. Compton, e indipendentemente P. Debye nel 1923, hanno dato una interpretazione dell’effetto in termini di un urto fotone-elettrone (interazione corpuscolare). L’urto avviene tra un fotone incidente (di energia hn e impulso hn/c) e un elettrone (assunto in quiete) nel bersaglio. Alla scomparsa del fotone incidente compare dopo l’urto un fotone di energia minore (hn’) e un "elettrone Compton" di rinculo che acquista energia cinetica T = hn- hn’. Nell’urto si conservano energia e impulso. Una valutazione della sezione d’urto si ottiene applicando la teoria quantistica relativistica dell’elettrone di Dirac (1928, O. Klein, Y. Nishina).
Coppia, creazione (o produzione) di coppie
Processo di interazione fra particelle il cui risultato sia la creazione di una coppia particella-antiparticella. Per es., fotoni g di alta energia possono produrre coppie elettrone-positrone: l’energia delle particelle primarie (i g) si materializza nelle particelle della coppia. Eventi di questo tipo furono osservati per la prima volta negli sciami dei raggi cosmici prodotti da g energetici da P.M.S. Blackett e B. Occhialini (1932) in Inghilterra in camera a nebbia e da Irène e F. Joliot-Curie in Francia.
Isotopo naturale dell’idrogeno rispetto al quale ha massa atomica doppia (il nucleo del suo atomo, detto deutone, è composto di un protone e un neutrone legati, mentre il nucleo dell’idrogeno è costituito solo dal protone). Simbolo: D. Fu scoperto nel 1931 da C.H. Urey, F.G. Brickwedde e G.M. Murphy per via spettroscopica. Si è rivelato un ottimo moderatore di neutroni. Il composto più utile a tale scopo è il suo ossido D2O, detto anche acqua pesante. Deuterio liquido viene impiegato come bersaglio nello studio delle collisioni di particelle elementari contro neutroni.
Dirac, teoria relativistica dell’elettrone di
Intorno al 1927, l’idea che l’elettrone fosse una sfera rotante per giustificare l’ipotesi dello spin aveva aperto la questione se all’elettrone si dovesse attribuire carattere puntiforme o una struttura estesa. Dirac, attivo a quel tempo come fisico teorico presso il Cavendish Laboratory di Cambridge, in un articolo su "The quantum theory of the electron" (1928) tentò di risolvere il problema sia dal punto di vista quantistico che relativistico, svincolandolo da ogni rappresentazione modellistica. L’equazione d’onda a cui pervenne portava brillantemente a giustificare le proprietà di spin dell’elettrone, ma nello stesso tempo implicava l’esistenza di una particella anomala con energia negativa, ipotesi che suscitò critiche e perplessità. Dirac dimostrò che l’anomalia poteva essere evitata attribuendo alla particella la stessa massa dell’elettrone ordinario ma carica opposta. La nuova particella doveva quindi avere le proprietà di una "antiparticella", con la possibilità di annichilarsi in presenza della sua ‘copia’ opposta. Nel 1932 C.D. Anderson a Caltech, Pasadena, fotografò in camera a nebbia la prima traccia che poteva essere attribuita all’ antiparticella dell’elettrone, che egli denominò positrone. Nel 1934, J. Chadwick, P.M.S. Blackett e G. Occhialini in Inghilterra confermarono in un esperimento in camera a nebbia che radiazione g emessa da una sorgente radioattiva che investiva un bersaglio di piombo produceva coppie di elettroni e positroni e che si osservavano anche eventi di annichilazione di positroni, confermando così le previsioni di Dirac. Gli elettroni positivi sono rari da osservare: quando essi incontrano gli elettroni ordinari, le due particelle infatti si annichilano reciprocamente e la loro massa si trasforma in energia (secondo l’equivalenza di Einstein E = mc2), che viene irradiata sotto forma di fotoni (sicché i positroni hanno una vita media molto breve). La creazione di coppie fu anche in grado di giustificare perché negli sciami dei raggi cosmici sono contenute in ugual numero di e+ ed e- che si materializzano da g energetici. Tuttavia non riuscì a spiegare il comportamento dei neutroni e dei protoni, per i quali, per es., il momento magnetico previsto differiva da quello reale: come oggi si sa, questo è un effetto delle interazioni forti.
Settore della fisica che studia le interazioni tra cariche e campi elettromagnetici, secondo i principi e il formalismo della relatività ristretta e della meccanica quantistica. Considerando il campo e le particelle materiali cariche come un unico sistema, si assegna ad esso una hamiltoniana, somma della hamiltoniana del campo, delle hamiltoniane delle singole particelle e di un termine di interazione in modo da ottenere una descrizione in termini relativisticamente invarianti (l’hamiltoniana di un sistema a n gradi di libertà è la funzione di opportune coordinate che esprime in modo compatto l’energia totale del sistema). Fondata tra gli altri da P.A.M. Dirac, W. Heisenberg, W. Pauli, E. Fermi a partire dal 1928, l’elettrodinamica quantistica ha segnato i suoi primi successi, con previsioni confermate sperimentalmente, nella spiegazione dell’effetto Compton, dell’annichilazione elettrone-positrone con emissione di fotoni, della creazione di coppie, della radiazione di Bremsstrahlung. Ripresa negli anni Cinquanta da S. Tomonaga, R. Feynman, J. Schwinger, F.J. Dyson e altri autori, si è notevolmente sviluppata fino a costituire una delle teorie fisiche più accurate e soddisfacenti, alla base anche della teoria quantistica dei campi.
Particella elementare di massa m ~ 9,1091 10-31 kg, e carica elettrica negativa che costituisce, in modulo, l’unità di misura elementare della carica elettrica (v.). L’elettrone può essere legato (elettrone atomico) oppure libero (per es. a causa della ionizzazione di un atomo di gas). In meccanica quantistica è un fermione.
Particolare acceleratore della classe dei sincrotroni che accelera elettroni in un campo magnetico variabile.
Particella con spin semintero (1/2, 3/2, …) che obbedisce alla statistica quantistica di Fermi-Dirac.
In fisica nucleare, detto di nuclide che può scindersi per fissione; in partic., di materiale che contiene nuclei che subiscono fissione per azione di neutroni di qualsiasi energia, che non presentano cioè una soglia di fissione, come per es. l’U235 e il Pu239.
Scissione in due frammenti di massa confrontabile di un nucleo di un elemento pesante, causata, per esempio, dalla cattura di un neutrone lento.
Fenomeno nel quale si producono elettroni liberi o "fotoelettroni", in sostanze investite da radiazioni elettromagnetiche di opportuna lunghezza d’onda. Se la sostanza è solida e conduttrice, per es. un metallo, la superficie illuminata sotto opportune condizioni può emettere elettroni. Si parla in tal caso di effetto fotoelettronico esterno (o di superficie); ha luogo se la radiazione incidente ha una frequenza n non minore di una certa frequenza (n0, detta "di soglia" a cui corrisponde una lunghezza d’onda l0 detta "soglia fotoelettrica"). Il fenomeno non è spiegabile classicamente. La legge dell’effetto fotoelettrico è stata data da Einstein nel 1905, come una delle possibili applicazioni della sua ipotesi euristica dei "quanti di luce" (o fotoni): il fotone incidente cede tutta la sua energia e impulso a un elettrone del metallo che viene emesso con energia cinetica T = hn — f, con hn energia del fotone incidente, f lavoro di estrazione elettronica dal metallo. Alla scomparsa di un fotone corrisponde la comparsa di un fotoelettrone. Il fenomeno si verifica anche nei semiconduttori; può portare al rilascio di fotoelettroni anche all’interno della sostanza illuminata (effetto fotoelettronico interno o di volume). Nei fluidi, in particolare nei gas, si può avere produzione di fotoelettroni se l’energia dei fotoni incidenti è non minore dell’energia di ionizzazione degli atomi o delle molecole colpite (fotoionizzazione). Ogni fotone produce in questo caso un fotoelettrone e uno ione positivo.
Particolare tipo di reazione nucleare dei nuclei di elementi leggeri (per es. l’idrogeno e i suoi isotopi) che avviene a temperature molto elevate (tra 107 e 109 K) con liberazione di una notevole quantità di energia. Nel 1952 sono state realizzate le prime reazioni termonucleari dell’idrogeno (bomba H).
Processo in cui due o più sistemi (o corpi o particelle) agiscono uno sull’altro modificando il loro stato o la loro energia (per es., interazione coulombiana o elettrostatica, tra cariche elettriche nello spazio; interazione newtoniana o gravitazionale, tra masse gravitazionali).
Un’interazione tra due corpi (più usualmente e con significato più ristretto si parla anche di ‘forza’ interagente tra due corpi) è riconducibile a tre possibili meccanismi: 1) Azione diretta e istantanea tra due corpi. E’ una conseguenza della formulazione della meccanica newtoniana (e in particolare del terzo principio) in termini di tempo assoluto e di relatività galileiana. Si è dimostrato sperimentalmente che in natura non possono esistere interazioni istantanee, che implicherebbero una velocità di propagazione della interazione infinita, soggetta, al contrario, a un limite fisico invalicabile, la velocità della luce nel vuoto c. 2) Azione a contatto o locale, mediata dal mezzo in cui i due corpi sono immersi (non può quindi esistere nel vuoto, in passato sostituito da un ipotetico mezzo, l’etere, eliminato dalla teoria della relatività ristretta di Einstein perché superfluo, oltre che sperimentalmente indimostrabile). 3) Azione mutuata da un campo: un corpo genera nello spazio circostante un campo che agisce su un corpo immerso in esso (vale il viceversa per il campo prodotto dal secondo corpo sul primo). Il concetto di campo per descrivere il meccanismo di interazione tra sistemi, corpi o particelle, introdotto in modo intuitivo da M. Faraday, formalizzato da Maxwell in elettromagnetismo, e consolidatosi nella formulazione di Einstein della relatività ristretta è quello che meglio si presta a descrivere i fenomeni quantistici. In teoria quantistica dei campi, l’interazione è attribuita allo scambio di quanti, considerati come particelle. Le particelle che mediano il campo hanno una massa M a riposo ben definita che è inversamente proporzionale al raggio d’azione delle interazioni (se il raggio d’azione dell’interazione è infinito, come avviene nelle interazioni gravitazionali o elettromagnetiche, M = 0) e un momento angolare intrinseco o spin ben definiti. Le interazioni fondamentali sono mediate da particelle con spin intero (espresso in unità ): se lo spin, è dispari l’interazione può essere attrattiva o repulsiva, se è pari solo attrattiva.
Se le interazioni avvengono tra particelle elementari si parla di 4 tipi di interazioni fondamentali: le interazioni elettromagnetiche, forti, deboli e gravitazionali. Le interazioni elettromagnetiche si esercitano tra particelle cariche, sono dominanti su scala macroscopica, atomica e molecolare; sono responsabili delle forze che tengono gli elettroni attorno al nucleo per formare gli atomi, e dei legami chimici tra gli atomi per formare le molecole e quindi la materia. La costante caratteristica delle interazioni elettromagnetiche è data dalla carica elementare al quadrato e2 o dal rapporto adimensionale che la contiene: a =(e2)/(h/2p)c = 1/137= 7,3 10-3, con h costante di Planck e in unità C.G.S.; a è detta costante di struttura fine e interviene nei calcoli che interessano molte proprietà atomiche. Interazioni forti: si esercitano tra i quark (costituenti dei nucleoni); ad esse sono riconducibili anche le forze nucleari che si esercitano tra i nucleoni (protoni e neutroni) di un nucleo. Le forze nucleari sono responsabili dell’energia di legame del nucleo, dei suoi livelli energetici eccitati, della distribuzione spaziale dei protoni e dei neutroni che compongono il nucleo stesso. La costante caratteristica delle interazioni forti, detta anche costante di accoppiamento, è g (in forma adimensionale è pari a 2pg2/hc, e può avere valori che vanno da 1 a 15, molto maggiori di a). Interazioni deboli: sono responsabili dei processi di decadimento dei nuclei radioattivi beta, dei muoni, dei mesoni p e di altre particelle elementari. E’ una generalizzazione della interazione introdotta da Fermi nel 1933 nella sua teoria del decadimento b. La costante di accoppiamento G, posta in forma adimensionale, è pari a (2p)3GM2p/(hc)3 ~ 10-5 « a ,con Mp massa del protone. Interazioni gravitazionali: sono espresse come attrazione newtoniana fra due protoni per omogeneità di trattazione con le altre tre interazioni fondamentali. La costante di accoppiamento adimensionale è 2pGguM2p/(hc) ~ 10-39, con Ggu costante di gravitazione universale. Il suo valore è così piccolo da non dare luogo ad alcun fenomeno osservabile alla scala delle particelle elementari se non a energie enormi.
Forza cui è soggetta una particella di carica q in moto con velocità v in un campo elettrico di intensità E e in un campo magnetico di induzione B: FL= q(E + v x B). Spesso si indica come forza di Lorentz la sola parte magnetica (qv x B).
Unità di misura per il momento magnetico dell’atomo di idrogeno, pari al prodotto della carica dell’elettrone per la lunghezza d’onda Compton dell’elettrone razionalizzata diviso 2 (mB = e /2mc). Più in generale, il magnetone è l’unità di misura quantistica di momenti magnetici di atomi, nuclei atomici, elettroni e particelle subatomiche. Un magnetone nucleare è pari a 1/1836 del magnetone di Bohr.
Secondo la meccanica classica, un corpo di massa m e velocità v ha una energia cinetica E= (1/2) mv2. Einstein ha dimostrato che tale definizione è approssimativamente vera solo se v « c, con c velocità della luce nel vuoto (~ 3 108 m/s) mentre è grossolanamente errata per velocità confrontabili con c. A tali velocità (cioè in meccanica relativistica), la massa di un corpo in movimento, o massa relativistica, è legata alla sua "massa a riposo", o di quiete, m0 dalla relazione:
La massa relativistica m è sempre maggiore di m0; per v « c, (v2/c2) è trascurabile rispetto a 1 e m ~ m0; per v ~ c, m assume valori molto elevati, come è stato dimostrato sperimentalmente nello studio delle particelle elementari. Equivalenza massa-energia: dalla espressione della massa relativistica segue che l’energia di un corpo è data da E = mc2= m0c2/[ 1-(v2/c2)] 1/2. Per v che tende a 0 la differenza |m-m0|c2 torna all’espressione classica dell’energia cinetica; per v ~ c, E diverge: nessuna particella materiale può muoversi alla velocità della luce perché tale condizione corrisponderebbe a una energia cinetica infinita. A un corpo fermo è associata l’energia E0= m0c2 (detta "energia di quiete"). A ogni energia è associata una massa (inerziale e gravitazionale) e a ogni massa (anche a riposo) un’energia: massa ed energia sono dunque equivalenti. L’energia di quiete rappresenta l’energia immagazzinata nella massa di una particella ed è l’energia che si libera quando la particella viene annichilata: se per es. un elettrone e un positrone, di massa totale m, si annichilano, vengono prodotti due fotoni con una energia mc2. Un’altra conseguenza dell’equivalenza massa energia (massa = energia/c2) è il difetto di massa, che si determina sperimentalmente come differenza tra la massa di uno stato legato e quella dei costituenti liberi: se per es., due neutroni e due protoni si combinano per formare una particella a si libera una quantità di energia DE; la massa della a è un po’ più piccola della massa originaria dei suoi componenti di DE/c2 (difetto di massa).
Nei reattori nucleari e nelle bombe a fissione, massa minima di materiale fissile al di sopra della quale il numero dei neutroni prodotti diventa superiore al numero dei neutroni assorbiti o dispersi e ha luogo il processo di reazione a catena.
Mesotrone, o mesone, denominazione introdotta da C.D. Anderson e S.H. Neddermeyer a Caltech nel 1937 per indicare nuove particelle presenti nella radiazione cosmica, di massa intermedia tra quella dell’elettrone e del protone, rivelate in camera a nebbia e le cui tracce non potevano essere attribuite né a elettroni né a protoni. Nell’autunno del 1937, J.C. Street e E.C. Stevenson dell’università di Harvard riuscirono a misurare in camera a nebbia la massa della nuova particella, pari a circa 200 volte quella dell’elettrone e alla quale vennero attribuiti vari nomi: yukone, mesotrone e mesone. Alla fine prevalse il nome mesone e poiché le indagini sperimentali rivelarono presto l’esistenza di altre particelle simili, il mesone originario venne chiamato mesone m (o muone). Il nome yukone derivava dal fatto che H. Yukawa nel 1935 aveva formulato una teoria in cui aveva postulato l’esistenza di una particella subatomica circa 200 volte più pesante dell’elettrone; la particella, ipotizzata per giustificare la stabilità del nucleo, aveva il ruolo di "quanto del campo di forza nucleare" (cioè di particella mediatrice delle interazioni nucleari) e doveva decadere, secondo Yukawa, in un elettrone e un neutrino. M.Conversi, E. Pancini e O. Piccioni, in un esperimento condotto a Roma nel 1946, dimostrarono che l’identificazione del mesone m con la particella di Yukawa era errata. Con la tecnica delle emulsioni nucleari esposte alla radiazione cosmica, C.F. Powell, G. Occhialini, C.M.G. Lattes e H. Muirhead a Bristol, in Inghilterra, scoprirono nel 1947 una seconda particella di massa intermedia, il mesone p (o pione) che, al contrario, era identificabile con il quanto di forza nucleare previsto da Yukawa. Negli anni successivi vennero chiariti i processi di decadimento dei muoni positivi e negativi (m+ e m-), scoperte le tre varietà del mesone p (p+, p- e p0, con p+ e p- che decadono in muoni, e p0 in due fotoni), il mesone ‘pesante’ K (nelle tre varietà positiva, negativa e neutra) e, con l’avvento delle macchine acceleratrici, un gran numero di nuovi mesoni.
Particella elementare, di spin /2 (fermione) priva di carica elettrica e di massa nulla (ma sono tuttora in corso esperimenti per rivelare eventuali neutrini massivi, essenziali per certe teorie cosmologiche e astrofisiche, così come per l’ipotesi di "oscillazione dei neutrini" formulata da B. Pontecorvo nel 1968). Partecipano alle sole interazioni deboli e possono pertanto attraversare indisturbati enormi spessori di materia (hanno sezione d’urto piccolissima, circostanza che rende problematica la loro rivelazione). Finora sono stati ‘scoperti’ tre tipi di neutrini, ciascuno con la sua antiparticella:1) il neutrino ne, ipotizzato da W. Pauli nel 1931 per spiegare, nel decadimento b, lo spettro continuo di energia degli elettroni; nella teoria di Fermi (1933) il decadimento b di un nucleo è attribuito alla reazione anche per i neutroni liberi, oppure , per i protoni legati nel nucleo; l’esistenza dell’antiparticella del ne è stata confermata da F. Reines e C.L. Cowan nel 1955. 2) Il neutrino nm, ipotizzato da B. Pontecorvo nei decadimenti del muone e del pione e confermato sperimentalmente da L. Lederman, M. Schwartz e J. Steinberger nel 1962. 3) Il neutrino nt, ipotizzato in seguito alla scoperta del leptone t e di cui si è avuta evidenza sperimentale solo nel 2000. Flussi di neutrini vengono prodotti, oltre che in certe reazioni da acceleratori, nei reattori nucleari. In natura sono prodotti in molte sorgenti celesti, in particolare nel Sole.
Particella elettricamente neutra, di dimensioni subatomiche (~10-15 m), massa di poco superiore a quella del protone (~10-27 kg). Insieme al protone è uno dei costituenti del nucleo atomico (si dice anche che protone e neutrone sono due stati diversi di una stessa particella, il nucleone). Come i protoni e gli elettroni ha momento angolare di spin uguale a 1/2 (in unità ) e segue pertanto la statistica di Fermi-Dirac (è un fermione); allo spin è associato un momento magnetico m sicché i neutroni si comportano come piccoli magneti in grado di interagire con un campo magnetico di induzione B presente lungo il loro cammino, circostanza che li rende particolarmente interessanti per studiare le proprietà magnetiche della materia. Il neutrone libero (cioè fuori dal nucleo) è instabile (ha una vita media t di circa 15 minuti contro una vita media del protone maggiore di 1032 anni) e decade spontaneamente in un protone, emettendo un elettrone e un antineutrino . Nei nuclei radioattivi può decadere con una vita media che dipende dal particolare nucleo interessato. Il neutrone, come il protone, partecipa a tutte e 4 le interazioni fondamentali. Tra le interazioni deboli, il processo di decadimento b del neutrone è stato il primo ad essere studiato da Fermi nel 1933. Essendo globalmente neutro, può ‘entrare’ negli atomi, urtare i nuclei (cioè subire scattering) e costituire così un potente mezzo di indagine per sondare la struttura della materia. Questa indagine viene condotta in particolare con i neutroni di bassa energia (detti anche neutroni termici perché hanno velocità confrontabile alle velocità di agitazione termica degli atomi, v. oltre) perché in tal caso la probabilità di interazione con i nuclei è molto elevata.
Il neutrone viene emesso in molte reazioni nucleari; usato come proiettile per bombardare nuclei atomici dà luogo a sua volta a numerose reazioni nucleari in molte delle quali vengono prodotti isotopi radioattivi. Le principali reazioni usate per produrre neutroni sono: reazioni del tipo (a, n) (la prima particella in parentesi è la particella incidente, la seconda è la particella emessa), dove si impiegano sorgenti radioattive (Po, Ra, Am, ecc.) che emettono particelle a con le quali si bombardano elementi leggeri; reazioni del tipo (g, n) dove si impiegano raggi g emessi da sostanze radioattive o in certe reazioni nucleari, oppure raggi g di Bremsstrahlung prodotti da elettroni forniti da un acceleratore nel frenamento subito nell’attraversare un opportuno bersaglio; reazioni di tipo particolare come per es. reazioni di stripping (di strappo) del deutone, ecc. Fasci di neutroni possono essere prodotti anche da reattori nucleari. In natura si osservano neutroni di alta energia come prodotti secondari dei raggi cosmici primari quando entrano nell’alta atmosfera. Per produrre neutroni lenti si possono usare le stesse tecniche impiegate per produrre neutroni veloci con opportuni moderatori (v. oltre). Al neutrone corrisponde l’antiparticella avente numeri quantici "interni" (numero barionico e spin isotopico) uguali e opposti. L’antineutrone è stato scoperto negli anni Cinquanta con l’impiego di acceleratori di particelle. Lo studio sperimentale delle interazioni elettrone-neutrone di alta energia ha rivelato che il neutrone, anche se ha carica elettrica totale zero, ha una distribuzione interna di carica costituita da due quark down e un quark up. Il neutrone è l’agente che innesca e mantiene le reazioni a catena nei reattori nucleari. I neutroni sono impiegati nei più svariati campi: in fisica dei reattori nucleari, nello studio delle proprietà magnetiche dei solidi, nello studio delle strutture cristalline, nella produzione di radioisotopi, ecc.
La scoperta del neutrone. W. Bothe e H. Becker, in una serie di esperimenti condotti a Berlino nel 1930, avevano osservato che quando elementi leggeri venivano bombardati da particelle a emesse da una sorgente di polonio, compariva una radiazione secondaria molto penetrante, che avevano identificato con g duri (fotoni di alta energia). I. Curie e F. Joliot nel 1932, a Parigi, avevano poi osservato che se la radiazione attraversava sostanze idrogenate (come acqua o paraffina) venivano trasferite ai protoni presenti in tali sostanze, che poi venivano espulsi, energie molto elevate (~ 5 MeV). Alla luce del modello di nucleo allora accettato e dei suoi costituenti, protoni ed elettroni, i conti però non tornavano |rasettinuclei.rtf|: in particolare, per il principio di indeterminazione, un elettrone confinato nel nucleo (~10-14 m) doveva avere una quantità di moto, e quindi una energia cinetica così elevata da non poter giustificare le energie in gioco nel nucleo. A complicare il problema si aggiunsero le osservazioni di J. Chadwick a Cambridge che nel 1932 dimostrò sperimentalmente che la radiazione penetrante è in grado di trasferire energie di qualche MeV anche ai nuclei di azoto (che hanno una massa di circa 14 volte la massa del protone). Chadwick fece allora l’ipotesi, formulata in una lettera a Nature del febbraio 1932, e considerata a buon diritto l’atto di nascita del neutrone, che il trasferimento di energia potesse avvenire ipotizzando nella radiazione penetrante una nuova particella di massa confrontabile con quella del protone e priva di carica elettrica. La scoperta del neutrone contribuì alla ridefinizione del modello nucleare, supposto ora costituito di protoni e neutroni. Sostituendo nel nucleo le coppie elettrone-protone con i neutroni, la stima della loro energia cinetica diventava compatibile con le energie in gioco nei nuclei. Nel gennaio del 1934 ancora i coniugi Joliot-Curie scoprirono la radioattività artificiale indotta da particelle a. Nel marzo dello stesso anno, Fermi e collaboratori a Roma scoprirono la radioattività artificiale provocata da neutroni.
Nel corso dello stesso anno il gruppo romano dimostrò che i neutroni possono produrre diversi processi del tipo (n, a), (n, p), (n, g) e che il processo (n, g), detto anche di "cattura radiativa del neutrone", può essere prodotto in tutti gli elementi chimici fino ai più pesanti come l’uranio. La ricerca si intensificò e si scoprirono via via altri processi del tipo (n, 2n), (n, 3n) ecc., il più importante dei quali fu la scoperta, fatta da O. Hahn e F. Strassmann a Berlino alla fine del 1938, della fissione di elementi pesanti come torio e uranio provocata da neutroni. Nell’ottobre del 1934 sempre il gruppo Fermi scoprì che i neutroni possono essere rallentati dalle sostanze idrogenate (ma si constaterà ben presto che vanno bene anche le sostanze che contengono elementi leggeri). L’energia dei neutroni può essere ridotta a causa degli urti elastici successivi con i protoni della ‘sostanza rallentante’; i neutroni che perdono gradualmente energia, detti neutroni lenti, sono molto più efficaci dei neutroni veloci nel produrre certe reazioni nucleari, in particolare quelle di tipo (n, g). Il rallentamento dei neutroni può proseguire fino a raggiungere l’energia di agitazione termica delle molecole (in tali condizioni i neutroni, detti neutroni termici, si muovono come le molecole di un gas rarefatto che diffonde in un materiale spugnoso). Il processo, detto di rallentamento vero e proprio, prima, e di diffusione termica poi, si interrompe o perché il neutrone sfugge dalla superficie del materiale rallentante (detto in seguito moderatore) o perché il neutrone viene catturato da uno dei nuclei del materiale rallentante. Lo studio del meccanismo del rallentamento dei neutroni, soprattutto nella fase detta "di termalizzazione", è stato affrontato dal punto dei vista teorico a partire da 1935 e a esso ha contribuito lo stesso Fermi ("teoria dell’età" di Fermi, 1936). Tale studio si rivelerà fondamentale nella tecnologia dei reattori nucleari. W. M. Elsasser nel 1936 applicò ai neutroni le regole della meccanica ondulatoria: un neutrone che si muove con velocità v ha una lunghezza d’onda associata l (data dalla legge di de Broglie l=h/(mv), con h costante di Planck e m massa del neutrone). A seconda della energia cinetica dei neutroni si possono avere diverse l e quindi si può parlare di fasci di neutroni che possono essere (come nel caso della radiazione elettromagnetica), riflessi, focalizzati e diffratti.
Specie nucleare caratterizzata da numero atomico Z e numero di massa A. Il termine viene usato in alternativa a nucleo atomico e a isotopo. Per individuare un nuclide si danno i numeri interi Z e A, oppure Z e N (N=A-Z), dove N è il numero di neutroni. Il simbolo indica così un nuclide di un elemento generico S. Per es., per il nuclide dell’alluminio costituito da 13 protoni (Z=13) e 14 neutroni (e quindi numero di massa A=Z+N) si scrive ; per il neutrone ; per il protone .
I principali rivelatori di particelle al tempo di Fermi.
Insieme agli acceleratori, i rivelatori di particelle sono gli strumenti fondamentali nella ricerca sperimentale in fisica nucleare e subnucleare. La nascita della fisica delle particelle elementari, a partire dalla scoperta del positrone (1932) e del mesotrone (1937), si deve proprio all’introduzione di nuove tecniche di rivelazione e di visualizzazione dei processi elementari (in particolare, mediante contatori a conduzione elettrica nei gas, camere a nebbia ed emulsioni nucleari), che hanno consentito di recuperare quegli aspetti intuitivi della fisica classica che l’avvento della fisica quantistica aveva fatto perdere. La classificazione dei rivelatori può essere fatta usando vari criteri: per es., a seconda delle grandezze fisiche da misurare (posizione, tempo, ecc.), della natura del mezzo sensibile che rivela le particelle o del processo fisico che consente la loro rivelazione. Tutti i rivelatori sono però riconducibili allo stesso principio: la particella da rivelare interagisce con il mezzo sensibile (gas, liquido o solido), gli cede in parte o completamente la sua energia che viene poi trasformata in vario modo per essere interpretata da uno strumento di misurazione opportuno. Per es., nei contatori l’energia ceduta al gas viene trasformata in un impulso elettrico; il segnale elettrico viene successivamente elaborato (per es., amplificato, ‘ripulito’ dal rumore, ecc.) da una serie di circuiti esterni che consentono, alla fine del trattamento di molti segnali relativi a più contatori, la misurazione della grandezza fisica in esame.
Se le particelle sono cariche, cedono la loro energia al mezzo sensibile per urti elettronici, che possono provocare l’eccitazione o la ionizzazione degli atomi del mezzo; se le particelle sono neutre, si sfruttano le interazioni con il mezzo che provocano, come prodotti finali, particelle cariche.
Tra i rivelatori più diffusi negli anni Trenta e Quaranta vi sono i rivelatori a gas, a scintillazione, a emulsioni fotografiche, a nebbia.
Nei rivelatori a gas si utilizza la ionizzazione causata dalle particelle cariche quando attraversano il gas; nei rivelatori a scintillazione, gli effetti di fluorescenza (radiazione di luminescenza) indotti dalle particelle in liquidi, solidi o gas opportuni; nelle lastre fotografiche, l’ impressionamento di particolari sostanze sensibili al passaggio di particelle cariche; nei rivelatori a nebbia, infine, si sfruttano fenomeni termodinamici metastabili che consentono di visualizzare la traiettoria delle particelle.
Nei primi tre decenni del Novecento, quando l’elettronica e la fisica dei semiconduttori non erano ancora sviluppate e la fisica del nucleo era a uno stadio nascente, i metodi di osservazione delle particelle (essenzialmente, particelle ‘atomiche’: elettroni, protoni, neutroni e fotoni) si rifacevano all’azione fotografica, fluorescente e ionizzante che le particelle in studio provocano nel mezzo sensibile.
Le prime tecniche di osservazione furono messe a punto nello studio della radioattività e delle radiazioni a, b e g emesse dalle sostanze radioattive. Già Becquerel nel 1896 aveva osservato che le sostanze radioattive impressionano le lastre fotografiche; nel 1903 Crookes, Elster e Geitel realizzavano lo spintariscopio per l’osservazione delle scintillazioni indotte da particelle a su uno schermo di ZnS (v. oltre), utilizzato anche da Rutherford e Geiger intorno al 1910 nelle ricerche sulla radioattività; sempre Geiger e Rutherford, nel 1908, costruivano il primo contatore proporzionale cilindrico collegato a un elettrometro per studiare la ionizzazione provocata da a; Wilson, intorno al 1910, da studi sulla formazione della nebbia in laboratorio, scopriva l’impiego in fisica della camera a nebbia che consentiva di visualizzare e fotografare le traiettorie delle particelle a, b e g e nel 1913 Geiger realizzava il contatore a punta (poi sensibilmente perfezionato nel 1928, insieme a Müller, nella versione a tubo) sempre per studiare le radiazioni a, b e g. Bothe e Kohlhörster, nel 1929, in un fondamentale lavoro sulla natura dei raggi cosmici, disponendo due contatori Geiger-Müller l’uno sull’altro scoprirono che quando avvengono nei tubi scariche simultanee, queste sono da attribuirsi al passaggio di una stessa particella che attraversa entrambi i contatori. Il metodo delle coincidenze verrà sviluppato, tra gli altri, da Bruno Rossi e costituirà un valido completamento della camera a nebbia.
Emulsioni nucleari
L’impiego dell’ azione fotografica per rivelare la presenza di radiazioni emesse dalle sostanze radioattive rappresenta il prototipo della tecnica delle emulsioni nucleari e verrà impiegata a partire dagli anni Trenta, con vari perfezionamenti, per osservare le tracce delle particelle dei raggi cosmici.
Quando radiazione di alta energia colpisce un’emulsione fotografica, le particelle ionizzanti sensibilizzano i granuli di bromuro d’argento. Una volta sviluppata la lastra, i granuli sensibilizzati si riducono ad argento e se osservati al microscopio, rivelano le traiettorie delle singole particelle ionizzanti come una sequenza di puntini scuri. Poiché le emulsioni ordinarie usate negli anni Trenta erano sensibili solo a quelle particelle cariche che lasciavano una traccia molto grossa (particelle ‘lente’), la tecnica delle emulsioni nucleari venne modificata negli anni Quaranta (in particolare dal gruppo di Bristol in Inghilterra, in collaborazione con la Ilford Company, e da gruppi statunitensi in collaborazione con la Kodak Company negli USA), aumentando la concentrazione di bromuro d’argento, realizzando lastre di spessore molto sottile, perfezionando i sistemi di sviluppo. Dalle misure di scattering (o ‘piccole oscillazioni’) delle tracce, dalla densità dei granuli sensibilizzati e dal range delle particelle si risaliva alla massa delle particelle rivelate.
Nello studio della radiazione cosmica, con la tecnica delle emulsioni nucleari, per es. Powell, Occhialini, Lattes e Muirhead a Bristol scoprirono il mesone p; vennero inoltre studiati i processi di disintegrazione prodotti da mesoni, e osservati gli effetti sui nuclei presenti nell’emulsione dovuti a particelle cosmiche molto energetiche.
Le emulsioni nucleari sono state utilizzate in modo efficace anche per visualizzare eventi associati a neutroni. Neutroni lenti possono ‘entrare’ nel nucleo di elementi leggeri (opportunamente incorporati nella emulsione) e provocarne la disintegrazione: i prodotti di reazione ionizzano poi i granuli dell’emulsione rendendo così visibili le loro tracce. Se i neutroni sono veloci, urtando con i nuclei degli atomi provocano processi d’urto con diverse cinematiche a seconda delle modalità della collisione. Per esempio, nell’urto neutrone-protone (masse praticamente uguali) dopo l’urto le particelle si muovono in direzioni ad angolo retto tra loro; se l’urto è frontale, il neutrone incidente si ferma e il protone di rinculo si muove con l’energia cinetica del neutrone.
Rivelatori a scintillazione
L’ azione fluorescente, impiegata nei rivelatori a scintillazione, si basa sull’emissione di luce indotta da particelle cariche in opportune sostanze sensibili, dette sostanze scintillanti. Se una particella o una radiazione ionizzante le attraversa, cede energia agli atomi della sostanza, li eccita e li costringe a riemettere energia quando si diseccitano sotto forma di luce. L’impiego di questa tecnica è iniziato con lo spintariscopio: se per es. si ha una sorgente di particelle a davanti a uno schermo di solfuro di zinco in una camera oscura, si osserva con un microscopio l’emissione di piccole scintille luminose ogni volta che una particella urta contro lo schermo.
Rivelatori a gas
L’azione ionizzante si impiega in particolare nei rivelatori a gas. Se una particella carica attraversa un gas (mezzo sensibile) e lo ionizza, lascia dietro di sé una sottile scia di elettroni strappati alle molecole del gas. Poiché il numero di elettroni liberati per unità di percorso è piccolo, si adottano meccanismi di moltiplicazione del numero di elettroni liberati (per es., accendendo un campo elettrico intenso che accelera gli elettroni liberi che ionizzano altre molecole di gas fino alla scarica elettrica).
Una camera a ionizzazione è costituita da un recipiente chiuso, contenente un gas, con due elettrodi (per es., piani) a diverso potenziale.
Uno degli elettrodi (spesso coincidente con la parete del recipiente), viene portato a un potenziale elevato V (di solito negativo), mentre l’altro (elettrodo collettore), è connesso a terra attraverso una resistenza molto grande R (resistore di fuga), in modo che il suo potenziale sia normalmente zero; ai capi di R è disposto un voltmetro ad alta impedenza (nella versione più vecchia, ai tempi delle ricerche di Fermi presso l’Istituto Fisico di via Panisperna a Roma, da un elettrometro a filo). Una particella ionizzante entra nella camera e produce per ionizzazione coppie di ioni di segni opposti. Gli ioni negativi migrano verso il collettore, dando luogo a impulsi di corrente e quindi di tensione DV ai capi di R: dall’ampiezza dell’impulso si risale alla carica elettrica portata sul collettore dagli ioni negativi prodotti dalla particella ionizzante e quindi alla sua velocità. Se gli impulsi di tensione sono inviati a un voltmetro, che li integra, si può risalire all’intensità della radiazione ionizzante. Gli impulsi di corrente, opportunamente amplificati, possono essere ‘contati’ da un dispositivo di conteggio.
I contatori a punta consistono in una scatola metallica, in genere cilindrica, sull’asse della quale è fissata, in un tappo isolante, una sottile bacchetta metallica terminante a punta. La parete della scatola è collegata al polo negativo di un generatore (con l’altro polo a terra) mentre la bacchetta è messa a terra attraverso una resistenza grande, in modo da avere potenziale positivo rispetto al contenitore. Ai capi della resistenza è inserito un elettroscopio. Di fronte alla punta c’è una "finestra", chiusa da un sottile foglio metallico, per l’ingresso delle particelle cariche. Quando la d.d.p. V è minore di un certo valore, il campo elettrico spinge gli ioni positivi verso le pareti della scatola e gli ioni negativi (elettroni) verso la punta carica positivamente. All’aumentare di V, in prossimità della punta, dove il campo è più elevato, gli elettroni accelerati producono per urto con le molecole del gas di riempimento della scatola, coppie di ioni che a loro volta ionizzano "a cascata" altre molecole. Il gas viene ad avere una conduttività elettrica così alta da provocare una scarica che viene rivelata dalla repulsione dei fili dell’elettroscopio che tornano poi a riposo quando la carica si disperde attraverso la resistenza.
Una particolare realizzazione di camera a ionizzazione è rappresentata dai contatori proporzionali e dal contatore di Geiger Müller, prototipo dei rivelatori a fili in gas.
Questi dispositivi sono costituiti da un recipiente cilindrico (la cui parete funziona da elettrodo), contenente una opportuna miscela gassosa, e da un filo sottile (elettrodo collettore), entrambi di metallo. Quando una particella ionizzante attraversa il contatore produce una migrazione di ioni tra gli elettrodi e quindi un impulso di tensione ai capi di un opportuno resistore r. Se la f.e.m. del generatore di tensione V è sufficientemente bassa, sugli elettrodi vengono raccolti solo gli ioni primari prodotti dalle particelle ionizzanti e il contatore funziona come una camera di ionizzazione. Per valori più elevati di V avviene la moltiplicazione degli ioni primari e il segnale ai capi di r è proporzionale al numero di ioni primari prodotti dal passaggio di una particella ionizzante (contatore proporzionale).
Nel contatore di Geiger Müller, al crescere di V la particella ionizzante è accompagnata, come nei contatori a punta per effetto "a cascata", da una scarica elettrica nel gas e non c’è più il regime di proporzionalità. Tutti gli impulsi hanno la stessa ampiezza, indipendentemente dalla ionizzazione primaria (il numero di particelle rivelate al secondo è indipendente da V e tutte le particelle che attraversano il contatore vengono rivelate). Se V aumenta ancora il contatore "scarica" e un opportuno dispositivo provvede a ‘spegnerlo’.
Camera di Wilson
La camera a espansione di Wilson (o camera a nebbia) è un dispositivo per visualizzare e fotografare traiettorie di particelle ionizzanti. E’ costituita da un recipiente cilindrico, chiuso superiormente da una lastra di vetro per l’osservazione delle tracce (finestra), mentre il fondo è costituito dal pistone mobile che produce l’espansione. La camera contiene aria saturata con un vapore (per es., d’acqua, di alcool, ecc.). Se, abbassando rapidamente il pistone, si produce una espansione della miscela gas+vapore, la temperatura si abbassa. Il vapore condensa sotto forme di goccioline attorno a eventuali ioni presenti nella camera, che fanno da nuclei di condensazione. Nella camera compare così una sottile nebbia. Se, in queste condizioni, una particella carica, per es. un elettrone, attraversa la camera, il vapore condensa sugli ioni prodotti nel suo passaggio. Una intensa illuminazione laterale permette di vedere e di fotografare la traccia.
Se la camera è immersa in un campo magnetico uniforme (per es., disponendola tra i poli di un elettromagnete), le tracce vengono incurvate in versi opposti a seconda che a produrle sia stata una particella positiva o negativa. Dal raggio di curvatura, dalla lunghezza della traccia, dal suo spessore, ecc. si riesce a individuare la natura della particella che ha prodotto la traccia. La camera a nebbia è stata (fino agli anni Sessanta), uno dei mezzi più potenti per studiare la radioattività prima, la nuova fisica del nucleo e la radiazione cosmica poi. La camera controllata da contatori di Geiger Müller, a partire dalla ‘scoperta’ del metodo delle coincidenze di Bothe e Kohlhörster nel 1929, è divenuta un mezzo ancora più efficace per rivelare particelle: il segnale prodotto dal circuito di coincidenza di due o più contatori (disposti secondo geometrie opportune, eventualmente con assorbitori interposti in genere di piombo), comanda l’espansione della camera in modo che sia sensibile solo quando le particelle sono in arrivo (Bothe paragonava la camera comandata dai contatori a una trappola per topi, pronta a scattare quando una stessa particella attraversa più contatori).
La camera a nebbia è stata protagonista, per quanto riguarda la radiazione a, nella rivelazione: di tracce prodotte dalle emissioni di radioelementi, dell’ effetto di un campo magnetico sulle particelle a, della diffusione in un gas, così come nella rivelazione dei prodotti di disintegrazione nucleare provocata da particelle a.
Per la radiazione b, nella rivelazione: delle traiettorie di elettroni lenti e veloci, dell’effetto di un campo magnetico sulle particelle b, dei processi d’urto con elettroni.
E ancora, nella produzione di coppie elettrone-positrone da raggi g, nella scoperta del positrone, del neutrone, del mesone e delle sue modalità di decadimento, responsabili anche degli sciami nei raggi cosmici.
Ancora, la camera a nebbia è stata testimone dei primi processi di radioattività artificiale indotta da particelle a (1934) e della scoperta della fissione dell’uranio (1938), quando ancora il processo non era stato interpretato dal punto di vista teorico.
Antiparticella dell’elettrone, di cui ha uguale massa e carica e numero leptonico opposto.
Particella di massa m = 1,6726 10-27 kg e carica elettrica positiva, uguale in modulo alla carica dell’elettrone. E’ un fermione e con il neutrone è un costituente elementare dei nuclei atomici. Presenta una struttura interna composta da tre particelle elementari, i quark. E’ considerata una particella stabile.
Particolare sincrotrone che accelera protoni.
Radiazione costituita da particelle e nuclei atomici provenienti dallo spazio, con origine nella Via Lattea (radiazione cosmica galattica) e al di fuori della Via Lattea (radiazione cosmica extragalattica). Le energie delle particelle che costituiscono i raggi cosmici sono comprese in un range che va da 107 eV a 1020 eV. Si distingue una radiazione cosmica primaria, costituita prevalentemente da protoni molto energetici che entrano nella atmosfera terrestre, interagiscono con i nuclei atomici dei gas atmosferici e producono una grande quantità di particelle e fotoni, formando così la radiazione cosmica secondaria.
La scoperta della radiazione cosmica risale all’inizio del Novecento, quando studi di elettricità atmosferica portarono a osservare una crescita anomala dell’intensità di ionizzazione con la quota. Nel 1912 V. Hess confermò, in una serie di voli in pallone, che una radiazione di potere penetrante molto elevato entra nell’atmosfera dall’alto (radiazione che denominò per questo Höhenstrahlung). Un anno dopo W. Kohlhörtser ipotizzò che la radiazione fosse costituita da raggi g duri (Ultragstrahlung) anche se molte osservazioni condotte dai pionieri tedeschi porteranno a ritenere che una componente importante della radiazione è costituita da particelle cariche. Lo scoppio della prima guerra mondiale rallentò le ricerche in Europa e all’inizio degli anni Venti R.A. Millikan e collaboratori, negli Stati Uniti, iniziarono una campagna di misurazioni sulla variazione dell’intensità della radiazione penetrante con la quota (in aria con palloni sonda) e la profondità (in acqua). Intorno al 1925 Millikan formulò l’ipotesi dell’ atom building in base alla quale i raggi cosmici (ormai ‘riscoperti’ e ribattezzati dal fisico statunitense cosmic rays e identificati con g duri) sarebbero prodotti da trasmutazioni nucleari, per es. nel processo di formazione di atomi di elio a partire da idrogeno. Si aprì in questi anni un acceso dibattito sulla natura della radiazione (sono fotoni di alta energia o particelle cariche?) che si risolverà studiando gli effetti geomagnetici sui raggi cosmici.
Il campo magnetico terrestre B, schematizzabile in un campo di dipolo magnetico, deve infatti deflettere le traiettorie dei raggi cosmici se questi sono costituiti da corpuscoli carichi. Solo in tal caso, infatti, la forza di Lorentz incurva le traiettorie di cariche in movimento in un campo magnetico. A seconda della direzione di arrivo delle particelle dei raggi cosmici (e quindi del loro vettore velocità v) e della distribuzione delle linee di induzione magnetica (che indica la direzione del vettore B) che esse incontrano, la forza di Lorentz deflette le loro traiettorie in modo diverso: alcune di queste consentono alle particelle di arrivare fino al punto di osservazione, altre invece le allontanano indefinitamente. Su una ipotetica traiettoria ‘permessa’, coincidente per es. con l’equatore geomagnetico , una particella carica positivamente che giri intorno alla Terra si muove da Est a Ovest, se è negativa da Ovest a Est. Se i raggi cosmici sono carichi positivamente il flusso proveniente da Ovest deve quindi essere maggiore di quello da Est (effetto Est-Ovest). Inoltre, a seconda che la particella carica si muova lungo le linee di induzione (cioè ai poli magnetici della Terra, dove la latitudine geomagnetica l = 90° e la forza di Lorentz è nulla) o trasversalmente ad esse (all’equatore geomagnetico l = 0°, dove la forza di Lorentz è massima, con tutti gli eventuali casi intermedi tra 90° e 0°) la loro intensità deve variare in funzione della latitudine geomagnetica del luogo di osservazione e aumentare andando dall’equatore ai poli. Deve dunque esistere un effetto di latitudine sperimentalmente rilevabile. A.H. Compton, in una campagna di misurazioni dell’intensità della radiazione cosmica (numero di coppie di ioni prodotti al secondo in 1 cm3 d’aria) condotta con contatori Geiger a varie latitudini, confermò intorno al 1930 l’effetto latitudine. Nel 1933 fu confermato anche l’effetto Est-Ovest, in particolare da un gruppo di ricerca guidato da Bruno Rossi nella spedizione all’Asmara, in Eritrea. Rossi impiegò due contatori Geiger in coincidenza ("telescopio per raggi cosmici") che segnalavano l’arrivo di una particella solo se questa attraversava entrambi i contatori; disponendo i contatori in direzione Est o in direzione Ovest Rossi riuscì a rilevare una intensità del flusso da Ovest sistematicamente maggiore di quello da Est, confermando l’ipotesi che la radiazione cosmica primaria consiste in modo rilevante di particelle cariche positive.
La radiazione cosmica primaria è formata infatti per la quasi totalità di protoni mentre per circa il 10% contiene nuclei elementari più pesanti dell’idrogeno ed elettroni. L’analisi chimica e isotopica della radiazione ha portato a individuare in essa quasi tutti gli elementi fino all’uranio, con una lieve prevalenza di elementi leggeri. I positroni (e+) non compaiono in numero confrontabile con le loro antiparticelle, gli elettroni (e-, circa 10 volte più numerosi dei positroni), circostanza che fa ritenere che gli elettroni osservati non provengano tutti da collisioni di nuclei nello spazio interstellare che provocano la catena p -> m -> e± , con produzione di coppie e± dal decadimento dei muoni. L’origine della radiazione cosmica non è stata ancora completamente chiarita. Complessi calcoli teorici sul bilancio di energie osservate nel flusso dei raggi cosmici in arrivo sulla Terra e a varie altitudini hanno individuato nelle supernove e nei loro residui, le pulsar, le principali sorgenti di particelle energetiche. Poiché nella Via Lattea avvengono in media 2 esplosioni di supernove per secolo, e ciascuna libera circa 1044 J, i calcoli indicano che tali sorgenti sarebbero già ampiamente sufficienti a produrre le particelle più energetiche. Al riguardo è stata formulata da W.F.G. Swan nel 1933 una ipotesi in base alla quale la Galassia può agire come un gigantesco acceleratore di raggi cosmici (un po’ come succede nei betatroni) sfruttando i campi elettromagnetici in essa presenti. L’ipotesi venne ripresa e rielaborata da E. Fermi nel 1951, quando le osservazioni astronomiche indicavano nello spazio interstellare la presenza di enormi nuvole vaganti di gas ionizzato (per lo più idrogeno), nelle quali erano confinati intensi campi magnetici. Le particelle cariche dei raggi cosmici entrano nelle nuvole di gas interstellari, dove acquistano energia cinetica a spese dell’energia magnetica confinata nelle nuvole e in questo modo accelerano (accelerazione di Fermi). Ma mentre questo meccanismo spiegherebbe energie delle particelle fino a 1015 eV, per le particelle più energetiche si è costretti a individuare altre sorgenti (per es. le pulsar con le loro magnetosfere). Sono proprio le particelle più energetiche (e in particolare quelle con E > 1019 eV che costituiscono la radiazione cosmica extragalattica), a rappresentare tuttora un problema irrisolto. Per la radiazione cosmica extragalattica si è formulata l’ipotesi che si origini dalla direzione in cui si trova l’ammasso di Galassie della Vergine, in prossimità del polo Nord Galattico.
La radiazione cosmica primaria quando entra nell’atmosfera provoca catene di interazioni nucleari, i cui prodotti finali formano la radiazione cosmica secondaria. Sono in particolare i protoni primari (ma anche particelle a e nuclei più pesanti) a innescare le catene di interazioni nucleari quando urtano i nuclei dei gas atmosferici. I nuclei possono essere disintegrati dando luogo a una varietà di particelle e di fotoni secondo lo schema di figura. Dalla collisione nucleare vengono prodotti protoni p e neutroni n, e particelle di più bassa vita media come i mesoni p, K e iperoni Y, i quali a loro volta, a seconda della carica e della loro vita media, danno luogo ad altre particelle. I mesoni neutri p0, che hanno vita media molto breve (2 10-16 s), decadono in fotoni g e si estinguono, ma i nuovi fotoni provocano una produzione di coppie e± che a loro volta irraggiano, per radiazione di Bremsstrahlung, altri fotoni che producono in breve una cascata elettrofotonica che si sviluppa, diramandosi in un numero sempre crescente di particelle, fino a estinguersi quando le energie in gioco si esauriscono. I mesoni p+, p - con vita media molto più lunga dei p0, possono decadere rispettivamente in muoni m+, m- e un neutrino n; i muoni m, che hanno vita media ancora più lunga dei p e un elevato potere penetrante perché perdono energia quasi solo per ionizzazione, sono quelli che sopravvivono di più e possono decadere a loro volta in due neutrini e un positrone (o un elettrone), i quali proseguono la catena fino a che hanno energia sufficiente formando uno sciame atmosferico. Inoltre i mesoni p, nel corso della loro vita, possono anche subire collisioni nucleari, accendendo altre catene. Nella radiazione cosmica di distingue una componente dura, molto penetrante, e una componente molle, meno penetrante, formata dalle cascate elettrofotoniche. Tra gli sciami atmosferici, sono stati osservati anche sciami atmosferici giganti, generati dalle particelle primarie più energetiche (E >1014 eV).
La ricerca sui raggi cosmici ebbe un grande sviluppo tra gli anni Trenta e Sessanta e contribuì alla scoperta del positrone, del muone, del pione, del mesone K e quindi alla nascita della fisica delle particelle elementari. I mezzi principali per le indagini in quota furono i palloni, in grado di trasportare i rivelatori oltre i 20.000 m e, a partire dagli anni Sessanta, i satelliti. I rivelatori furono per lo più camere a nebbia ed emulsioni nucleari oltre ai contatori Geiger. Con lo sviluppo della tecnologia degli acceleratori di particelle la radiazione cosmica perse il suo ruolo di laboratorio naturale di particelle molto energetiche mentre continua a mantenere un ruolo fondamentale nelle ricerche cosmologiche e astrofisiche.
Diffusione da parte di una sostanza investita da radiazione luminosa di luce di frequenza diversa dalla frequenza n0 della luce incidente. Nello spettro della luce diffusa dalla sostanza si trovano righe spettrali di stessa frequenza della luce incidente n0 ("righe Rayleigh"), derivanti dai processi di diffusione elastica di fotoni incidenti, e righe di frequenza più bassa o più alta rispetto a n0 (n0 ± ni, "righe Stokes" e "antiStokes" con ni "frequenza Raman") che derivano da processi di diffusione anelastica con creazione o distruzione di un fotone di energia h ni, con h costante di Planck, corrispondente a salti quantici nello spettro di energie delle molecole della sostanza diffondente. Se la frequenza incidente n0 è prossima alla frequenza di una riga di assorbimento della sostanza in esame, la radiazione Raman diffusa aumenta (effetto Raman di risonanza). Previsto teoricamente da A. Smekal nel 1923, il fenomeno fu osservato qualche anno dopo nel benzene e spiegato nel 1928 da C.V. Raman. La spettroscopia Raman costituisce un potente mezzo di indagine della struttura chimica delle molecole. Fu usata da Rasetti per la determinazione degli spin nucleari.
Particolare ciclotrone sincrono, in cui, al variare della frequenza di ciclotrone corrisponde una uguale variazione della frequenza del campo elettrico accelerante.
Acceleratore circolare, ideato da E. M. Mc Millan e V. Veksler nel 1945, a forma di anello (una camera a vuoto posta tra le espansioni polari di un magnete). Un opportuno sistema mantiene il fascio di particelle su orbite circolari stabili ad ogni energia mentre un campo elettrico alternato accelera le particelle del fascio.
Distribuzione della intensità di una radiazione in funzione di una delle grandezze che la caratterizzano. Nel caso di radiazione elettromagnetica, per es., la frequenza o la lunghezza d’onda (spettro di frequenze); nel caso di radiazioni corpuscolari, l’energia, la quantità di moto o la massa delle particelle (rispettiv. spettro di energia, di velocità, di massa). Lo spettro della radiazione emessa da una sorgente si dice spettro di emissione. Nel caso della luce visibile (la luce solare o la luce emessa da un filamento a incandescenza) lo spettro di emissione raccolto su uno schermo, appare come una serie di strisce continue dei colori dell’iride (spettro continuo). Lo spettro di emissione di un gas appare invece, in generale, come una serie di righe sottili di diverso colore separate da spazi oscuri (spettro di righe); oppure come una serie di zone continue separate da spazi oscuri (spettro a bande). Ogni sostanza è caratterizzata, oltre che da uno spettro di emissione, da uno spettro di assorbimento (se la sostanza liquida, solida o gassosa, è attraversata da una radiazione di opportuna lunghezza d’onda). I processi di emissione e di assorbimento si possono anche sovrapporre se per es. la sostanza emette e allo stesso tempo attraversa radiazione contenente quella frequenza di emissione; nello spettro solare per es., le cosiddette righe di Fraunhofer indicano assorbimento da parte della cromosfera della luce solare per certe frequenze.
Strumento utilizzato per osservare spettri di sostanze, dotato di registrazione fotografica o fotoelettrica.
Lo spettro della luce visibile (decomposizione mediante un prisma analizzatore della luce bianca nelle sue componenti, osservabili come una sequenza ordinata di strisce dei vari colori, cioè delle varie frequenze o lunghezze d’onda, dal rosso al violetto) è stato il primo spettro a essere osservato nelle classiche esperienze di Newton. Allo stesso modo è osservabile lo spettro di emissione prodotto da altre sorgenti di radiazione elettromagnetica, per es.: nella fiamma di varie sostanze, nelle scariche elettriche nei gas, nell’arco voltaico, nel Sole (la prima fotografia dello spettro solare, fatta da A.E. Becquerel, risale al 1840), nelle stelle, ecc. Nello spettro solare erano già state osservate righe scure da J. Fraunhofer intorno al 1814, che verranno attribuite a righe di assorbimento. Nella seconda metà dell’Ottocento le ricerche di G.R. Kirchhoff e R.W. Bunsen stabilirono che ogni elemento chimico dà origine a un suo spettro di righe caratteristico se sottoposto a prove alla fiamma, a una scarica elettrica, ad arco, ecc.; viceversa, dalla disposizione delle righe di uno spettro si può risalire alla presenza di determinati elementi chimici. Nello stesso periodo si scoprirono le prime regolarità nella successione delle righe degli spettri e vennero proposte le prime formule empiriche in grado di rappresentare analiticamente le varie lunghezze d’onda (o le varie frequenze) delle righe degli spettri emessi dalle sostanze. Le prime formule sono state individuate per l’atomo più semplice, l’idrogeno, nel visibile (serie di Balmer) e nell’UV e nell’IR. Una prima parziale spiegazione fisica degli spettri è stata possibile solo con il modello atomico di Bohr e in forma più corretta e generale con la meccanica ondulatoria.
La moderna spettroscopia studia gli spettri delle radiazioni elettromagnetiche e corpuscolari e i metodi per produrre tali spettri. A seconda del campo della radiazione elettromagnetica coinvolta si parla di spettroscopia ottica (o nel visibile), delle radioonde, X, g, ecc. La spettroscopia atomica studia le transizioni tra livelli energetici atomici; la spettroscopia molecolare tra livelli energetici molecolari, la spettroscopia nucleare tra livelli energetici nucleari.
La vecchia meccanica quantistica consente già di avere una idea su come si originano gli spettri, in termini di livelli energetici e di transizioni tra livelli. Lo stato di un atomo è descritto da un insieme discreto di stati stazionari ai quali sono associati certi valori di energia E o livelli energetici; l’emissione o l’assorbimento della radiazione di una data frequenza n è dovuta alla transizione tra due stati stazionari (o livelli di energia Ei,Ef) secondo la condizione di Bohr per la frequenza Ef — Ei= hn. Per ogni salto o transizione da un livello di energia più basso a uno più alto si ha assorbimento di un fotone di energia hn; se la transizione avviene da un livello di energia più alto a uno più basso si ha emissione di un fotone di energia hn. Per il principio di conservazione dell’energia le transizioni avvengono solo se l’atomo interagisce con un campo elettromagnetico esterno, o subisce urti con particelle di sufficiente energia, ecc. in modo che possa scambiare energia, assorbendola o emettendola. A ogni frequenza di emissione o assorbimento n (n = c/l = (Ef-Ei)/h= Tf-Ti, con T "termine spettrale" o "spettroscopico") corrisponde una coppia di livelli energetici e una riga spettrale. L’inverso non sempre si verifica perché determinate "regole di selezione" possono proibire alcune delle transizioni possibili da un livello all’altro.
L’atomo è caratterizzato da determinati numeri quantici che corrispondono al numero di gradi di libertà degli elettroni nell’atomo. Nel semplice modello dell’atomo di idrogeno di Bohr (un solo elettrone orbitante considerato puntiforme e quindi con 3 gradi di libertà) bastano 3 numeri quantici: il numero quantico principale n, che definisce le energie degli stati permessi all’atomo; , o numero quantico orbitale, che rappresenta il modulo del momento angolare orbitale L; m() , o numero quantico magnetico, corrispondente alla componente z del momento angolare orbitale L . Tutti gli stati con stesso n costituiscono uno strato. Tutti gli stati con stesso n e formano un sottostrato. Se l’elettrone si considera dotato di un moto di rotazione attorno a un asse occorre introdurre un quarto numero quantico per definire la direzione nello spazio di questo asse, introducendo il vettore momento angolare s o di spin, le cui proiezioni quantizzate sull’asse z sono sz = ms, con ms numero quantico magnetico di spin (ms= ±1/2). Esistono poi regole di selezione che danno delle prescrizioni per le transizioni permesse o proibite, per tenere conto, per es., della conservazione del momento angolare orbitale totale J (somma dei momenti angolari orbitali e di spin, a cui compete un numero quantico j che può essere usato in alternativa a ml , insieme al numero quantico mj che è equivalente a ms, sicché per definire lo stato di un atomo si possono dare o la quaterna di numeri quantici n, l , ml , ms, oppure la quaterna n, l , j, mj). Può accadere che le righe di uno spettro atomico siano multiple (gruppi di due righe vicine o doppietti, di tre righe o tripletti,…, multipletti). Si dice che le righe mostrano una struttura fine (o iperfine se si tiene conto anche dello spin nucleare): le molteplicità dei livelli atomici ha origine dal fatto che ciascun elettrone atomico ha un momento magnetico intrinseco m (detto anche momento di dipolo magnetico) associato al suo spin. Poiché l’elettrone è immerso nel campo magnetico B interno risultante dal suo moto e da quello degli altri elettroni, può accadere che m e B siano paralleli o antiparalleli e che ci sia una combinazione tra moti orbitali e di spin dell’elettrone ("accoppiamento spin-orbita") che determina una piccola separazione dei livelli. Se si applica un campo magnetico esterno si ha una ulteriore separazione dei livelli e quindi delle righe dello spettro (effetto Zeeman). Il numero di righe di un elemento, e quindi dei suoi livelli energetici, cresce in genere al crescere del numero atomico. Gli elettroni di un elemento vengono sistemati nei vari strati e sottostrati dell’atomo in base al principio di esclusione di Pauli: i diversi strati non possono essere occupati da un numero arbitrario di elettroni e in particolare in uno stesso atomo due elettroni non possono mai avere la stessa quaterna di numeri quantici n, , m() , ms (o in modo equivalente n, , j, mj). Nella tavola periodica degli elementi si tiene conto sia dei tipi di termini degli stati fondamentali sia delle configurazioni elettroniche, definite dal principio di Pauli.
Il concetto di spin è stato introdotto da S.A. Goudsmith e G.E. Uhlenbeck nel 1925 per riuscire a interpretare due risultati sperimentali, l’ effetto Zeeman anomalo e l’ esperimento di O. Stern e W. Gerlach (quando un fascio di atomi è soggetto a un forte campo magnetico esterno non uniforme si scinde in più fasci anche nel caso in cui l’ atomo si trovi nello stato fondamentale). I due risultati sperimentali si spiegano se si assume che l’elettrone debba avere un momeno meccanico angolare intrinseco s e, per effetto della rotazione della carica, anche un momento magnetico angolare intrinseco m. La proprietà per cui l’elettrone possiede un momento meccanico e un momento magnetico è chiamata spin. Il momento meccanico di spin s ha solo due possibili orientazioni (parallela e antiparallela rispetto a una direzione prescelta, il campo magnetico esterno) che corrispondono alle componenti +1/2, -1/2 in unità . Il momento magnetico m è pari a un magnetone di Bohr. Gli spin dei vari elettroni si compongono in ogni atomo con i momenti meccanici orbitali (per dare il momento angolare totale J= s + L) e danno luogo ad un accoppiamento spin-orbita, responsabile della struttura fine degli spettri atomici, che deriva dall’interazione del momento magnetico di spin con il campo magnetico dovuto al moto orbitale.
Lo spin è stato esteso dall’elettrone al nucleo atomico e alle altre particelle elementari. In questa accezione più generale lo spin è definito come il momento angolare intrinseco di una particella, multiplo (intero o semintero) della costante di Planck razionalizzata h .
Anche i nuclei possiedono un momento angolare (spin nucleare) che accoppiandosi al momento angolare degli elettroni provoca una scissione dei livelli energetici nucleari (struttura iperfine degli spettri atomici). Esistono particelle con spin intero (per es., i fotoni con spin 1) e semintero (per es., oltre agli elettroni, i neutrini con spin 1/2). Le particelle di spin semintero seguono la statistica di Fermi-Dirac; quelle a spin intero seguono la statistica di Bose-Einstein.
L’effetto Zeeman normale consiste nell’osservazione sperimentale, fatta da P. Zeeman nel 1896, dello spettro atomico di una sostanza (sodio e altri metalli alcalini) in presenza di un campo magnetico omogeneo esterno, anche debole: le righe si scindono in un doppietto o in un tripletto a seconda che si osservi lo spettro parallelamente o perpendicolarmente al campo magnetico. H.A. Lorentz interpretò l’effetto classicamente. Anche la teoria di Bohr è in grado di spiegare l’effetto Zeeman normale. In presenza di un campo magnetico esterno più forte si può avere una separazione delle righe in un numero considerevolmente più grande. Si parla in questo caso di effetto Zeeman anomalo spiegabile ipotizzando una connessione tra momenti orbitali e di spin degli elettroni.