quark

  • [as] illuminazioni - Una partita a quark.

    [as]illuminazioni
    Una partita a quark.

    Quark e leptoni, e ancora elettroni, muoni e neutrini... parole che possono suonare incomprensibili all’orecchio dei non addetti ai lavori. E invece non si tratta solo di roba da fisici, ma anche di alcune delle sessantasei carte che compongono il mazzo del gioco Quark Matter, ideato dai due inventori ungheresi adolescenti, Csaba Török e Judit Csörgo, con la supervisione del papà Tamás Csörgo, ricercatore presso l’esperimento Totem del Cern di Ginevra.

    Con sei diversi giochi di carte (ANTI, Quark matter, Riveliamo le particelle!, Sciami cosmici, Memory della quark matter e Trova l’Higgs!) è possibile entrare in contatto con il mondo dei principi della fisica delle particelle all’insegna del divertimento. E non solo, ad esempio, con Trova l’Higgs! i giocatori potrebbero anche arrivare a sentire lo stesso brivido provato dagli scienziati, quando hanno trovato l’ultimo elemento mancante del modello standard: il bosone di Higgs, la particella, la cui esistenza è stata ipotizzata nel 1964 da Robert Brout e dai recenti premi Nobel François Englert e Peter Higgs e verificata sperimentalmente ben quarantotto anni dopo dai ricercatori dell’acceleratore Lhc del Cern.

    Come si gioca? Semplice! In sostanza ogni carta di Quark matter rappresenta una delle particelle elementari conosciute oggi in natura e raggruppate nel modello standard, che le differenzia per proprietà statistiche e per le leggi fisiche cui obbediscono. Al tavolo da gioco è possibile dunque districarsi abilmente tra scelte di colore e carica delle particelle della famiglia dei bosoni mediatori (che governano le interazioni) e di quella dei fermioni (che compongono la materia), divisa tra quark (up e down, charm e strange, top e bottom) e leptoni (elettrone, muone e tau e corrispondenti neutrino elettronico, muonico e tauonico), con le relative antiparticelle. Insomma, attraverso questo mazzo di sessantasei carte e sei possibili combinazioni di gioco, i principi base della fisica delle alte energie possono essere assorbiti naturalmente attraverso la concentrazione e la memoria visiva, tipiche del popolare gioco del Memory o della suspense e l’azzardo del poker.

    Proprio come un lungo viaggio verso i più alti picchi del sapere, Quark matter porta grandi e piccini a scalare inaspettatamente l’ascesa dei diversi gradi della conoscenza della fisica particellare, partendo dai livelli più elementari (come poter distinguere i colori fondamentali, che è sufficiente per iniziare la partita). In conclusione, chiunque sia interessato a provare il brivido della scoperta scientifica, a saperne di più sulle catene di decadimento, i raggi cosmici e via dicendo e abbia un’età compresa tra i cinque e i novantanove anni è invitato a partecipare al “miglior gioco di carte del mondo!”, come ha dichiarato il bambino ungherese Bazsika, quando sfidava a Quark matter i suoi compagni di classe nella scuola di Visznek in Ungheria.

    Chissà, forse non è proprio vero che “il gioco è bello quando dura poco”. [Beatrice Bressan]

     

    Per acquistare il gioco di carte:
    http://www.lulu.com/spotlight/Reszecskeskartya

     

    {jcomments on}

  • [as] news

    [as] news

    La tessera mancante nel puzzle dei quark
    Ottobre 2008
    Si chiama eta_b, la sfuggente particella scoperta da poco dai fisici dell’esperimento Babar, una sorta di tassello mancante nella nostra descrizione del comportamento dei quark, i più piccoli costituenti della materia. Dalla previsione della sua esistenza, nella teoria che descrive le proprietà dei quark b (b come bottom o beauty), alla sua cattura sono passati ben trent’anni. Alla fine, si è riusciti a “vederla” grazie al sofisticato apparato sperimentale Babar allo Stanford Linear Accelerator Center (Slac), in California, dove lavorano 500 fra ricercatori e tecnici di tutto il mondo. La scoperta ha il marchio della ricerca dell’Infn e dell’industria italiana: in Babar il grande magnete che incurva la traiettoria delle particelle cariche nel cuore del rivelatore e altre componenti fondamentali dello stesso sono frutto del lavoro dei ricercatori italiani. La particella eta_b è una coppia costituita dal quark b e dal suo antiquark e per i fisici è speciale, perché è lo stato “fondamentale” della coppia, quello con la minor massa possibile. [C.P.]
    GammaBusters
    Ottobre 2008
    11 giugno, 18:05 ora americana. Il satellite per astronomia gamma Glast ha lasciato senza difficoltà la pista di lancio di Cape Canaveral ed è ora pronto a ricevere il racconto di un Universo impercettibile a occhio nudo, descritto dalla forma di luce più energetica del Cosmo: i raggi gamma. In orbita a 550 km dalla Terra, Glast chiarirà alcuni misteri sulle intense esplosioni che generano i gamma-ray-burst, sui buchi neri supermassivi nel cuore di galassie lontane e, in generale, sulle origini dei raggi cosmici. Uno scenario mutevole in cui gli oggetti brillano e si offuscano continuamente su scale di tempo e a energie molto diverse e il cui monitoraggio è possibile grazie al lavoro congiunto degli osservatòri spaziali e di altri esperimenti già attivi a terra. E proprio quando in Florida si preparava il lancio di Glast, lo specchio di 17 metri di diametro di Magic (vd. foto) rivelava la più lontana sorgente di raggi gamma di altissima energia mai osservata prima: un buco nero distante dalla Terra sei miliardi di anni luce, che emette radiazione fagocitando la materia della galassia di cui è parte. Nei prossimi mesi, quando alle isole Canarie sarà attivo un secondo telescopio gemello, la capacità di Magic, il più grande telescopio per raggi gamma oggi esistente al mondo, sarà più che duplicata. A indicare in quale direzione puntare gli enormi specchi sarà pronta una rete di satelliti, tra i quali anche Glast, ribattezzato nell’agosto scorso Telescopio Spaziale Fermi in onore dello scienziato che per primo comprese il meccanismo di accelerazione dei raggi cosmici. [F.S.]
    Avvio di Lhc
    Ottobre 2008
    Il 10 settembre scorso è entrata in funzione la più grande macchina del mondo, l’acceleratore di particelle Large Hadron Collider (Lhc) nei laboratori europei del Cern in Svizzera. Dopo aver verificato in 50 minuti ogni singolo settore, il primo fascio di protoni ha percorso con successo, a una velocità prossima a quella della luce, tutti i 27 km del tunnel che si trova sotto la periferia di Ginevra (vd.: http://cdsweb.cern.ch/record/1125916). Poche ore dopo, un secondo fascio percorreva l’acceleratore in verso opposto. Recentemente, a causa di una fuga di elio in uno dei settori del tunnel, i test sono stati arrestati e ripartiranno dopo la prevista pausa invernale. L’obbiettivo rimane quello di aumentare progressivamente l’energia dei due fasci, fino a 7 TeV, producendo collisioni all’energia di 14 TeV, la massima mai raggiunta in laboratorio. Nell’anello di Lhc sono ospitati i quattro esperimenti principali Atlas, Cms, Lhc-b e Alice: tra i loro obiettivi scientifici, la rivelazione del bosone di Higgs, la particella che fornisce la massa ai componenti della materia, lo studio dell’asimmetria tra materia e antimateria e l’osservazione del plasma di quark e gluoni, cioè uno stato della materia esistito subito dopo il Big Bang. Dal 1994 questa grande impresa è costata lo sforzo di migliaia di ricercatori di tutto il mondo. Il contributo dell’Italia, coordinato e finanziato dall’Infn, è stato essenziale, con oltre 600 ricercatori italiani che lavorano al Cern. [C. P.]

    {jcomments on}

  • [as] radici - Libertà impossibile.

    [as]radici
    Libertà impossibile.

    di Francesca Scianitti


    a.
    Al centro della foto, Murray Gell-Mann riceve il Research Corporation Award nel 1969.

    La caccia ai quark liberi ha inizio con l’idea stessa di quark. Fu l’ideatore dei quark, Murray Gell-Mann, a proporre per primo di verificare l’ipotesi secondo cui non esisterebbero quark isolati, non associati ad altri quark, cercando alle più alte energie prodotte dai grandi acceleratori. I primi esperimenti portano la data del 1964 e furono compiuti al protosincrotrone del Cern e all’acceleratore Ags del Brookhaven National Laboratory, che, lavorando alle alte energie dell’epoca (centinaia di volte inferiori a quelle ottenute oggi da Lhc), permettevano di rivelare nuove particelle in una camera a bolle (vd. in Asimmetrie n. 15 [as] illuminazioni: Particelle nella nebbia., ndr). I risultati, come Gell-Mann stesso si aspettava, furono negativi. Da allora, gli scienziati non hanno mai smesso di cercare i quark liberi, nonostante nessuno si aspetti davvero di trovarli. Sembra che a rendere appetitosa la sfida sia proprio quel pregiudizio iniziale: e se invece esistessero, da qualche parte, nascosti in un luogo diverso da quello in cui si è cercato?

    Componenti della maggior parte delle particelle, e quindi dei nuclei degli atomi, i quark hanno cariche elettriche pari a un terzo o a due terzi di quella dell’elettrone. Se esistessero in forma libera, cioè slegati da altri quark, si dovrebbero poter misurare cariche frazionarie di questo valore, ma fino ad oggi nessun esperimento ha mai osservato cariche frazionarie: i quark sembrano presentarsi sempre in associazione con altri quark (o antiquark), confinati in stati legati a gruppi di due o di tre, dando luogo a cariche intere. Concepire un esperimento per trovare quark liberi è quindi un’impresa coraggiosa, anche perché le aspettative degli scienziati possono influenzare l’analisi dei dati e il loro risultato. Lo scenario non è quindi molto incoraggiante e forse è questo a rendere la sfida ancora più eccitante.

    b.
    William Fairbank (a destra) che, come professore alla Stanford University, ideò e realizzò l’esperimento per la rivelazione dei quark liberi. Fairbank si è dedicato per oltre trent’anni a delicati esperimenti sulla superconduttività alle basse temperature.
    L’esperimento più famoso sulla ricerca dei quark liberi è certamente quello che William Fairbank e i suoi colleghi della Stanford University condussero nel 1977. La fama dell’esperimento di Fairbank si deve al fatto che è stato l’unico nella storia ad avere riportato risultati positivi sull’esistenza di cariche frazionarie, che si sarebbero potute associare naturalmente ai quark. L’esperimento non utilizzava la tecnologia dei grandi acceleratori, prendeva spunto piuttosto dal lavoro del fisico Robert Millikan, che con il famoso esperimento delle gocce d’olio fu in grado di rivelare e misurare quella che per tutti oggi è l’unità elementare della carica elettrica della materia, la carica dell’elettrone. E come avverrebbe oggi se fossero scoperti i quark isolati, questo risultato consegnò a Millikan il premio Nobel nel 1923.
    Fairbank e i suoi colleghi sostituirono alle gocce d’olio delle sfere di niobio, un materiale superconduttore, tenendole in sospensione sfruttando la levitazione magnetica per bilanciare la gravità. Dopo avere monitorato accuratamente il modo in cui le singole sfere si muovevano sotto l’effetto di un campo elettrico variabile, il gruppo di Fairbank affermò di avere misurato la presenza di cariche frazionarie pari a +1/3 e -1/3 dell’unità di carica elettrica. Dopo la pubblicazione di questo risultato, il fisico statunitense Luis Alvarez (premio Nobel nel 1968), animato da giustificato sospetto, suggerì di ripetere l’esperimento facendo un’analisi “alla cieca” dei dati ottenuti, aggiungendo cioè valori casuali e sconosciuti alle cariche elettriche misurate, in modo che chi conduceva l’esperimento non conoscesse il reale valore delle singole cariche fino al completamento dell’analisi dei dati. Metodi analoghi sono applicati anche oggi, nei moderni esperimenti, per evitare che la pressione di eventuali pregiudizi condizioni l’analisi e porti a una falsa interpretazione dei dati, facendo emergere forzatamente il risultato atteso (vd. in Asimmetrie n. 14 [as] traiettorie: Ricerca al buio., ndr). La procedura fu applicata a un nuovo insieme di dati dell’esperimento di Fairbank e, quando l’analisi fu conclusa, il valore dei numeri casuali fu reso pubblico e sottratto alle cariche misurate. Dopo l’“apertura” (in inglese, unblinding) l’esito dell’esperimento non mostrava più la quantizzazione della carica a +1/3 o -1/3. L’analisi “alla cieca” portava quindi a risultati in disaccordo con quanto pubblicato da Fairbank: non c’era alcuna evidenza di cariche frazionarie libere. Già alcuni anni prima, a partire dal 1966 e per una quindicina d’anni a seguire, era stata condotta anche a Genova, dal fisico Giacomo Morpurgo, una lunga sperimentazione che sfruttava la levitazione magnetica di piccole sfere e grani di grafite, senza che fosse mai osservato il minimo segnale della presenza di cariche elettriche frazionarie libere.
    È ormai opinione comune che l’esperimento di Fairbank sia stato affetto da qualche influenza esterna, forse un “effetto di fondo” magnetico, e che dunque non abbia realmente osservato quark liberi. Ma le gocce d’olio di Millikan hanno continuato a ispirare i fisici anche dopo l’esperienza di Fairbank. Sempre con l’idea di verificare la presenza di cariche frazionarie, la sola firma possibile dell’esistenza dei quark liberi, nel 1996 un gruppo di ricercatori condotto da Martin Perl ripropose nei laboratori americani dell’acceleratore Slac di Stanford l’esperimento delle gocce d’olio. L’esperimento condotto da Perl ripercorreva quello di Fairbank, con poche ma significative differenze: l’uso di uno stroboscopio e di una videocamera permise al gruppo di monitorare automaticamente milioni di gocce, ottenendo valori molto precisi del diametro di ogni goccia, della loro velocità finale e della carica elettrica. In tutto, l’esperimento mostrò che, se ci fossero quark isolati con cariche ±1/3 o ±2/3, allora questi sarebbero presenti in quantità inferiori a uno su centinaia di miliardi di miliardi di protoni e neutroni. Questo non permette di affermare che i quark liberi non esistono, e la cosa è per definizione impossibile da dimostrare sperimentalmente. Risultati come quello di Perl consentono soltanto di concludere che è molto improbabile che i quark isolati esistano o che, se esistono, sono estremamente rari.
    c.
    Martin Perl, fisico statunitense dello Stanford Linear Accelerator Center (Slac), insignito nel 1995 del premio Nobel per la fisica (con Frederick Reines) per “i contributi sperimentali pionieristici alla fisica dei leptoni”. Il Nobel a Perl si deve in particolare alla scoperta del leptone tau. Perl ha condotto a Slac nel 1996 l’ultima delle verifiche sperimentali sull’esistenza delle cariche frazionarie associabili ai quark liberi.

    {jcomments on}

  • A tinte forti

    A tinte forti
    Dal colore alla Qcd

    di Paolo Nason


    a.
    Il fisico statunitense George Zweig, che nel 1964, come giovane ricercatore al Cern, ebbe la stessa idea di Gell-Mann sui quark, ma li denominò aces (assi). Ha studiato fisica delle particelle con Richard Feynman. Successivamente si interessò di neurobiologia e trascorse diversi anni come ricercatore al Los Alamos National Laboratory e al Mit (Massachussetts Institute of Technology). Nel 2004 ha abbandonato la carriera di scienziato per andare a lavorare nel settore finanziario.

    Nel 1964, poco dopo che fu postulata l’esistenza dei quark da Gell-Mann e Zweig, Wally Greenberg avanzò l’ipotesi che i quark possedessero un’ulteriore proprietà nascosta che poteva assumere tre valori distinti. In altre parole, il numero di quark nella teoria di Gell-Mann e Zweig doveva essere triplicato. Dovevano esistere perciò tre quark distinti di tipo up, tre di tipo down e tre di tipo strange. Mentre i quark di tipo up e down differiscono tra di loro per la carica elettrica, e lo strange differisce dall’up e dal down per la massa e la stranezza (vd. in Asimmetrie n. 11 Lo strano caso dei mesoni K, ndr), nessuna ulteriore differenza fisica doveva essere associata a questa nuova proprietà.

    La nuova proprietà fu chiamata “colore” (in quanto esistono tre colori primari). È meglio chiarire però che questo “colore” non ha niente a che vedere con la nostra percezione fisiologica del colore. Al posto di blu, verde e rosso, avremmo potuto usare un indice numerico, ed è infatti questo che appare nelle equazioni che governano la dinamica dei quark. La tendenza a utilizzare nomi bizzarri e poco appropriati nella fisica delle particelle elementari è illustrata (forse in modo eccessivamente brutale) da Richard Feynman, che scrive: “Quegli idioti dei fisici, ormai incapaci di farsi venire in mente una bella parola greca, hanno chiamato questo tipo di polarizzazione con l’infelice parola ‘colore’, che non ha niente a che vedere con il colore di senso comune”.

    La necessità del colore è bene esemplificata dall’esistenza della Δ++ (vd. fig. b in Ritorno al futuro, ndr), una particella costituita da tre quark di tipo up. I quark, come gli elettroni, obbediscono al principio di esclusione di Pauli, che sancisce che non vi possono essere due quark nello stesso stato. Nella Δ++ anche la proprietà dello spin è identica per i tre quark, e ciò porterebbe a pensare che vi debba essere una violazione del principio di Pauli. Ammettendo invece l’esistenza del colore, si può assumere che i tre quark up abbiano colori diversi tra loro, rispettando così il principio di Pauli.

    [as] approfondimento
    Tris e colore

    1.
    Più bit ha a disposizione il computer per “sfumare” ognuno dei tre colori di base, più colori si possono costruire: con 5 bit per colore, cioè 32 sfumature di ogni colore di base, possiamo creare circa 32.000 combinazioni. Con 8 bit per colore, invece, cioè 256 sfumature di ogni colore di base, possiamo creare circa 16 milioni di combinazioni.

    Nonostante l’aspro giudizio di Feynman, una certa analogia tra il colore dei quark e il colore di senso comune c’è. Se è vero infatti che questa proprietà dei quark – detta più correttamente carica di colore – non ha nulla a che vedere con i colori che percepiamo con i nostri occhi (luce di diverse lunghezze d’onda), le regole matematiche con cui i colori si sommano sono molto simili a quelle con cui si accoppiano i quark. Con soli tre colori fondamentali, rosso, verde e blu (in inglese la terna red, green e blue, RGB) possiamo “costruire” tutti i colori, basta sommarli con un’opportuna combinazione. Funziona così lo schermo del computer: assegnando il valore zero a tutti e tre i colori (0,0,0) otteniamo il nero, assegnando il valore massimo permesso (MB,MG,MR) otteniamo il bianco e, ad esempio, il viola si ottiene con la combinazione (MB,0,MR). Le particelle adroniche, cioè quelle fatte di quark, non possiedono una carica complessiva di colore. Semplificando la matematica dei colori quantistici – che è molto più complessa – possiamo descrivere i barioni come formati da tre quark di colore diverso. I mesoni, invece, possiamo immaginarli come coppie formate da un quark di un colore e un antiquark che ha colore complementare, cioè quello che neutralizza il corrispondente colore primario. Per definizione, nei colori ordinari il complementare del rosso è il ciano, del verde il magenta e del blu il giallo. Anche i colori complementari formano una terna, CMY (cyan, magenta, yellow), molto usata nella stampa su carta. Ma attenzione, in questo caso la sovrapposizione dei colori genera il nero! Questa analogia ci permette di fare ancora un passo in più: possiamo descrivere l’antiprotone e l’antineutrone come formati da tre antiquark che portano altrettanti anticolori. La matematica dei colori e degli anticolori permetterebbe di formare sistemi ancora più complessi come il tetraquark (due quark e due antiquark), forse osservato di recente (vd. in Fascino svelato, ndr), e il pentaquark (quattro quark e un antiquark), finora mai osservato. [Giorgio Riccobene]

    Dal fatto che differenze di colore non implicano differenze di altre proprietà fisiche, segue che esiste un’invarianza delle leggi fisiche sotto una permutazione del colore. Nel mondo microscopico, tuttavia, tale invarianza risulta più ampia e complessa. La meccanica quantistica ci insegna infatti che non solo è possibile che un sistema abbia valori definiti di una certa grandezza, ma che è anche possibile che il sistema sia in una sovrapposizione di stati con valori diversi di questa grandezza, con ciascuna componente avente un peso diverso. Si può ricorrere all’analogia con un punto dello spazio, che è caratterizzato, in coordinate cartesiane, dalle sue componenti x, y e z. Analogamente lo stato di colore di un quark è caratterizzato dalle sue componenti di colore blu, verde e rosso. Le leggi fisiche sono invarianti, oltre che sotto una permutazione del colore, anche sotto vere e proprie rotazioni nello spazio dei colori (le trasformazioni del gruppo SU(3) di colore), analoghe alle rotazioni spaziali del nostro esempio.

    L’introduzione del colore deve essere accompagnata da una considerevole restrizione degli stati ammissibili. Se così non fosse, per esempio, il pione positivo, una particella composta da un quark up e un antiquark down, dovrebbe essere presente in nove repliche, corrispondenti alle nove possibili scelte per il colore del quark e dell’antiquark. Si postulò quindi che solo gli stati invarianti sotto le rotazioni del colore siano possibili. Utilizzando questa restrizione si arriva a giustificare l’esistenza di tutti gli adroni (le particelle soggette a interazioni forti) effettivamente osservati, senza introdurne altri. In particolare, questa restrizione vieta l’esistenza di quark liberi che, sebbene attivamente cercati, non sono mai stati rivelati (vd. [as] radici: Libertà impossibile., ndr). Inizialmente, i fisici erano incerti se considerare i quark come vere e proprie particelle, o se considerarli invece come un artificio matematico. Successivi sviluppi ci hanno convinto, senza ombra di dubbio, che i quark sono particelle esattamente come lo sono gli elettroni. Sappiamo inoltre che, a distanze inferiori al fermi (pari a 10-15 metri), le interazioni forti si indeboliscono, e i quark si comportano come se fossero liberi (vd. I semi delle cose, ndr).

    [as] approfondimento
    Un rapporto cruciale

    1.
    Misure (punti arancioni con i loro errori sperimentali) del rapporto R per diverse energie. Per energie inferiori alla soglia di produzione delle particelle J/Ψ e della Ψ', i quark prodotti sono solo tre (up, down e strange) e il valore atteso per R è 2 (linea continua azzurra). Al di sopra di questa soglia viene prodotto anche il quark charm e R vale 10/3 (linea continua verde). Se non si tenesse conto del colore, i risultati teorici sarebbero inferiori di un fattore 3 (linee tratteggiate).

    Un’osservazione che conferma brillantemente l’esistenza dei quark e del colore è la misura di R, il rapporto tra la probabilità di produzione di adroni e la probabilità di produzione di muoni in esperimenti di collisione di elettroni e positroni ad alte energie. I muoni sono particelle in tutto simili agli elettroni, che differiscono da questi solo perché più pesanti, cioè dotati di una massa circa 200 volte maggiore di quella degli elettroni. Per quanto riguarda la produzione nelle collisioni elettrone-positrone, essi differiscono dai quark solo nel fatto che questi ultimi hanno carica elettrica frazionaria e portano il colore. Se non fosse per il colore, il valore di R dovrebbe essere uguale alla somma dei quadrati delle cariche elettriche del quark. L’esistenza delle tre repliche di colore porta a un ulteriore fattore 3 nel valore di R, ma porta anche a una correzione dovuta alle interazioni forti che agiscono tra i quark. Ma la meccanica quantistica ci insegna che lo stato di una particella elementare è caratterizzato da un’onda, con una lunghezza d’onda tanto più piccola quanto più alta è la sua energia. Per energie molto al di sopra del GeV (109 elettronvolt), la lunghezza d’onda delle particelle è molto più piccola di un fermi. Quindi le interazioni forti si indeboliscono e la “correzione forte” svanisce. Ne segue che, nel limite delle alte energie, il valore di R è proprio dato da tre volte la somma dei quadrati delle cariche dei quark prodotti.

    Oggi abbiamo una teoria completa delle interazioni forti, nota come cromodinamica quantistica (Qcd), con le interazioni forti determinate dalle cariche di colore (come le interazioni elettromagnetiche sono determinate dalle cariche elettriche). La neutralità in colore corrisponde all’invarianza di un sistema sotto rotazioni di colore. Si può dimostrare che l’intensità dell’interazione forte descritta dalla Qcd diminuisce a piccole distanze e aumenta a grandi distanze. Perciò, è possibile separare a grandi distanze solo particelle prive di carica di colore. La piccola intensità delle interazioni della Qcd a piccole distanze (e quindi ad alte energie) rende la teoria particolarmente trattabile in questi regimi, per cui siamo in grado di calcolare con precisione diversi processi ad alte energie, come, ad esempio, quelli che hanno luogo nelle collisioni tra protoni in Lhc. I calcoli della Qcd sono stati essenziali per la progettazione degli esperimenti di Lhc e sono oggi quotidianamente utilizzati nell’analisi dei dati.

    Biografia
    Paolo Nason si è laureato in fisica all’Università Statale di Milano e ha conseguito il dottorato negli Stati Uniti, all’Università di Stanford. Ha lavorato in diverse istituzioni all'estero: la Columbia University, il Brookhaven National Laboratory, il Politecnico di Zurigo e il Cern. Attualmente è dirigente di ricerca dell'Infn nella sezione di Milano Bicocca.

     

    Link
    http://en.wikipedia.org/wiki/Color_charge


    icon-pdf [scarica pdf]

     

    {jcomments on}

  • Dal mescolamento dei quark un limite alla nuova fisica

    lhcb collaborationIl 27 luglio, a pochi giorni dalla pubblicazione delle misure sui pentaquark, l’esperimento Lhcb, al Large Hadron Collider Lhc del Cern, ha pubblicato su Nature Physics e ha presentato alla conferenza internazionale della European Physical Society (Eps) in corso a Vienna, i risultati di una nuova misura di elevata precisione effettuata sui decadimenti di barioni che contengono il quark b. Lo studio contribuisce a chiarire il quadro sperimentale per la possibilità di esistenza di nuova fisica nelle interazioni elettrodeboli. Questo risultato è stato ottenuto studiando il decadimento della particella barionica chiamata lambda b (Λb) che decade in un protone, un muone e un antineutrino muonico. A livello di quark, in questo processo un quark b della Λb si trasforma in un quark up dando origine a un protone, emettendo nel contempo un bosone W che decade in un muone e nel suo antineutrino. Questo tipo di misura viene detta “esclusiva”, perché considera solamente un preciso tipo di decadimento.

    Il parametro misurato in questo articolo, chiamato Vub, descrive la probabilità di un quark b di trasformarsi in un quark up. Questo parametro fa parte della matrice di Cabibbo-Kobayashi-Maskawa (CKM), che descrive tutti i possibili mescolamenti tra i quark. Poiché il modello standard non è in grado di predire il valore assoluto dei parametri della matrice CKM ma, più semplicemente, relazioni di consistenza alle quali questi devono soddisfare, accurate misure sperimentali di vari processi, che coinvolgono le differenti tipologie di quark, sono di estrema importanza per comprendere se il meccanismo CKM sia l’effettiva chiave di interpretazione di tutti i fenomeni di mescolamento tra i quark nel mondo sub-microscopico. Qualora si riscontrasse un’inconsistenza tra i vari elementi della matrice, ciò rappresenterebbe un’indicazione dell’esistenza di nuova fisica oltre la teoria che oggi conosciamo.

    Il risultato pubblicato da Lhcb non è in accordo con le misure “inclusive” di questo parametro pubblicate in letteratura. In queste misure inclusive Vub viene ricavato studiando tutti i possibili decadimenti di mesoni B nei quali un quark b diventa un quark up, ma senza considerare uno stato finale in particolare. Il valore di Vub da misure inclusive non è compatibile, entro le incertezze sperimentali, con quanto previsto dal modello standard, e questo può essere interpretato con la necessità di correggere il modello standard introducendo nuova fisica. Questa misura di Vub fatta da Lhcb, in perfetto accordo con le misure esclusive precedentemente realizzate dallo stesso Lhcb e dagli esperimenti Babar e Belle, è invece perfettamente consistente con il modello standard così come lo conosciamo, contribuendo così a dissipare i dubbi sulla possibile esistenza di nuovi aspetti delle interazioni elettrodeboli. La discordanza tra misure inclusive ed esclusive di Vub resta però al momento un problema aperto che continuerà a essere indagato nei prossimi anni, sia a livello sperimentale sia teorico. Il risultato è il primo di questo tipo a essere stato ottenuto da un esperimento che utilizza collisioni tra adroni, come Lhc, come anche il primo che si ottiene studiando il decadimento di un barione contenente un quark b. La precisione richiesta per questo tipo di misura è stata ottenuta grazie alle ottime prestazioni di Lhcb e di Lhc.

  • Destra o sinistra: è un supercomputer a dirci la direzione che prendono i quark

    bluegeneRicercatori dell’Infn e dell’Università di Milano-Bicocca hanno per la prima volta elaborato uno studio quantitativo sulla direzione che prendono i quark. Queste sono particelle elementari, "mattoncini" della struttura della materia che compongono i nuclei degli atomi e, quando rompono la simmetria in cui sono organizzati, si ricombinano, prendendo una delle due direzioni: destra o sinistra. Il fenomeno, noto come "rottura della simmetria chirale", fu descritto per la prima volta nel 1960 da Yoichiro Nambu e la teoria gli valse il Nobel nel 2008.

    Lo studio è stato realizzato con complesse simulazioni numeriche operate da due supercomputer: il calcolatore parallelo del gruppo di fisica teorica dell’Università di Milano-Bicocca e il Blue Gene/Q del Cineca di Bologna, quest’ultimo tra i più potenti computer al mondo, in grado di eseguire milioni di miliardi di operazioni al secondo. La ricerca, Chiral Symmetry Breaking in Qcd with Two Light Flavors, pubblicato su Physical Review Letters, è stata condotta dal gruppo guidato da Leonardo Giusti, professore di fisica teorica all’Università di Milano-Bicocca e ricercatore della sezione Infn di Milano-Bicocca, in collaborazione con il gruppo di Desy (Deutsches Elektronensynchrotron), coordinato da Rainer Engel.

    “La simmetria – spiega Leonardo Giusti – si rompe perché la natura sceglie una direzione privilegiata. Sinora, questo comportamento a livello subatomico era noto solo qualitativamente: per la prima volta, il nostro lavoro è riuscito a dimostrare quantitativamente che è proprio così”.

  • Fascino svelato

    Fascino svelato
    Il quark charm, dalla predizione
    teorica alla conferma sperimentale

    di Roberto Mussa


    a.
    Samuel Ting e i colleghi dell’esperimento con cui scoprì la particella J/ψ a Brookhaven.

    Nel 1964, James Bjorken e Sheldon Glashow, per simmetria con il mondo dei leptoni, che qualche anno prima era stato organizzato in due doppietti (elettrone e neutrino elettronico, muone e neutrino muonico), ipotizzano l’esistenza di un quarto quark, oltre ai tre introdotti da Gell- Mann, che chiamano charm (dall’inglese, fascino). L’idea, inizialmente basata solo sul parallelismo leptoni-quark, acquista fondamento fisico nel 1970, grazie allo stesso Glashow, John Iliopoulos e Luciano Maiani, i quali mostrano che il charm spiega in maniera semplice e naturale alcuni fenomeni, altrimenti indecifrabili, riguardanti i mesoni K neutri (particelle composte da un quark down e un antiquark strange, vd. in Asimmetrie n. 11 Lo strano caso dei mesoni K).

    La conferma dell’esistenza del charm arriva nel 1974, con la cosiddetta “rivoluzione di novembre”: tre esperimenti, a Brookhaven, Stanford e, immediatamente dopo, a Frascati, osservano un nuovo mesone, con una massa di 3097 MeV (circa tre volte quella del protone). Alla particella viene dato un doppio nome, J/ψ, per riconoscere il merito dei due scopritori, Samuel Ting e Burton Richter, ai quali sarà conferito il premio Nobel nel 1976. Dieci giorni dopo l’annuncio della scoperta della J/ψ, l’esperimento di Stanford scopre un secondo mesone, chiamato ψ‘, con una massa di 3686 MeV e caratteristiche simili alla J/ψ. Le due nuove particelle sono stati legati del quark charm, molto più pesante degli altri tre, e del suo antiquark: un sistema chiamato genericamente charmonio, in analogia con il positronio (lo stato legato di un elettrone e un positrone).

    Come ogni sistema quantistico, il charmonio è caratterizzato da uno spettro di livelli energetici equivalenti alle masse dei diversi stati: la J/ψ e la ψ‘ sono due di questi stati. Ma, mentre nel caso del positronio, che è legato dalla forza elettromagnetica, la differenza di energia tra gli stati è dell’ordine di alcuni eV, nel caso del charmonio, che è legato dalla forza forte, molto più intensa, la differenza di massa tra gli stati è dell’ordine delle centinaia di MeV, cioè cento milioni di volte superiore. Il modello a quark prevede che esistano anche dei mesoni contenenti il charm e un antiquark leggero, antiquark up o antiquark down. Questi mesoni, chiamati D, sono l’analogo “forte” dell’atomo di idrogeno (che è tenuto assieme dalla forza elettromagnetica): una particella leggera, come l’antiquark (l’elettrone nell’atomo di idrogeno), che orbita intorno a una particella pesante, il quark charm (il protone nell’idrogeno).

    La scoperta del charm, nell’autunno del 1974, venne complicata da una incredibile coincidenza: come si capì qualche mese dopo, nella stessa regione di energie esplorata a Stanford venivano prodotte coppie di un nuovo leptone pesante, il τ, la cui presenza (di cui all’inizio nessuno sospettava) alterava l’interpretazione dei dati sperimentali riguardanti il charmonio. È in questa situazione confusa che Haim Harari suggerisce di introdurre due nuovi quark, che chiama top e bottom, o in alternativa truth e beauty. Sebbene il suo modello si rivelerà sbagliato (perché i risultati di Stanford si spiegano in termini del solo charm), l’idea di una nuova coppia di quark, già proposta per altri motivi da Kobayashi e Maskawa (vd. Specchi imperfetti, ndr), era corretta e i nomi proposti da Harari rimarranno.

    Ci vorranno ancora venti anni per completare sperimentalmente il quadro, con la scoperta del top (il sesto quark), ma l’esistenza del quinto quark non tarderà a essere confermata. Nel 1977, il gruppo di Leon Lederman al Fermilab scopre un nuovo mesone, che viene battezzato particella Υ, con una massa di 9,46 GeV, più di tre volte quella della J/ψ. La Υ è un esempio di bottomonio, stato legato del quark bottom e dell’antiquark corrispondente. Successivamente, nel 1983, viene scoperto l’analogo del mesone D, il mesone B0, composto da un quark bottom e un antiquark down. Il sistema dei mesoni B è particolarmente importante, perché permette di studiare un fenomeno di grande rilevanza per la comprensione dell’universo, la violazione della simmetria CP (vd. Specchi imperfetti, ndr), e le moderne B-factories, come Babar (negli Usa) e Belle (in Giappone), sono state progettate proprio per produrre in abbondanza questi mesoni.

    b.
    Lo spettro degli stati del charmonio. Le particelle indicate sono stati legati di un quark charm e un antiquark charm in diverse configurazioni quantistiche.
    c.
    Composizione a quark degli adroni ordinari, barione e mesone, e composizione ipotetica dei nuovi mesoni (tetraquark) scoperti da Belle e Babar.
    Un dettaglio mancante nel quadro generale sono gli stati legati in cui la rotazione intrinseca (lo spin) del quark ha verso opposto a quella dell’antiquark. Questi stati ricoprono un ruolo rilevante per comprendere le interazioni forti. Nel sistema del charmonio, alla soglia del nuovo millennio, era nota solo la ηc, scoperta nel 1981, che è lo stato fondamentale del sistema, cioè il mesone di massa più piccola composto da un charm e un anticharm. Degli altri due stati previsti dalla teoria, ηc’ e hc, nessuno era stato visto da più di un esperimento. Per quanto riguarda il bottomonio, la situazione sperimentale era ancora peggiore, dato che nel 2006 non si aveva evidenza degli stati ηb e hb. La scoperta della ηc’ (estate 2002) può essere considerata come il punto d’inizio della quarkonium renaissance: nel giro di due anni, gli esperimenti Belle, Cleo e Babar hanno trovato e confermato gli stati mancanti del charmonio. A partire dal 2006, è inoltre ripartita la caccia agli stati ηb e hb del bottomonio, ricerca che ha condotto alla scoperta di questi stati (da Babar nel 2008 e da Belle nel 2010) attraverso meccanismi totalmente inattesi in precedenza. Oltre agli stati previsti dalla teoria, ne sono stati scoperti di nuovi, e stiamo in un certo senso rivivendo l’atmosfera della “rivoluzione di novembre”, quando ipotesi teoriche e scoperte sperimentali si alternavano a passo vertiginoso. La prima di queste nuove particelle, soprannominata X(3872), scoperta nel 2003 da Belle, suggerisce che esistano degli oggetti esotici, composti da 2 quark e 2 antiquark, la cui interpretazione è ancora incerta. Una possibilità è che si tratti di tetraquark (un concetto introdotto da Luciano Maiani), cioè stati legati di un diquark (una coppia correlata di quark) e di un antidiquark (una coppia correlata di antiquark). In alternativa, sono stati ideati modelli di tipo molecolare, in cui due coppie quark-antiquark si combinano a formare stati legati con una debole interazione residua: una molecola adronica di questo tipo è costituita da due mesoni pesanti che interagiscono tramite lo scambio di pioni. La possibilità di avere quark e antiquark di tipo up e down in aggiunta alla coppia charm- anticharm o bottom-antibottom, ha aperto nuove strade alla spettroscopia dei quark pesanti. La recente scoperta di nuovi stati denominati Zc (di massa attorno ai 4 GeV) e Zb (di massa attorno ai 10 GeV), oltre a chiarire ulteriormente lo spettro del charmonio e del bottomonio, apre prospettive nuove per gli esperimenti attuali e futuri in questo settore della fisica, come la Tau-charm factory Bes-III in Cina e la SuperB-factory Belle-II in Giappone.

    Biografia
    Roberto Mussa, laureato a Torino nel 1987, ha studiato la fisica del charmonio negli esperimenti E760 e E835 al Fermilab e del bottomonio nell'esperimento Belle al Kek, in Giappone. Attualmente è impegnato nella realizzazione di Belle-II. Nel 2002 ha co-fondato il gruppo di ricerca teorico-sperimentale Qwg (www.qwg.to.infn.it), finalizzato all'approfondimento degli aspetti della fisica del quarkonio.

     


    icon-pdf [scarica pdf]

     

    {jcomments on}

  • I semi delle cose

    I semi delle cose
    Storia e attualità dei quark

    di Stefano Forte


    a.
    Il fuoristrada di Gell-Mann targato “QUARKS”.

    Introdotti nel 1964 da Murray Gell-Mann, i quark sono particelle alquanto peculiari, che non possono essere osservate direttamente, ma di cui si hanno solo indizi indiretti. Oggi sappiamo che, assieme ai leptoni, essi rappresentano i costituenti elementari della materia. Tuttavia, i quark come sono concepiti dalle moderne teorie delle interazioni fondamentali sono oggetti piuttosto diversi dai quark di Gell-Mann. Ma facciamo un passo indietro.

    Per dare una risposta al problema della proliferazione delle particelle fortemente interagenti (gli adroni), nel 1961 Gell-Mann suggerì che l’interazione forte potesse avere una simmetria descritta matematicamente dal gruppo SU(3) (vd. [as] La forza del gruppo., ndr), cioè che restasse invariata sotto le trasformazioni di questo gruppo. Il modello di Gell-Mann riuscì a fare ordine nella congerie degli adroni noti all’epoca (molte decine) e fu in grado di descrivere con successo la loro fenomenologia. Ma perché la simmetria è proprio SU(3)? Una possibile risposta è che gli adroni non sono particelle elementari, ma stati legati di oggetti più piccoli, i quark appunto, e delle loro antiparticelle, gli antiquark. Gell-Mann ipotizzò tre tipi, o “sapori”, di quark (up, down e strange), e la simmetria SU(3) è quella che scambia i sapori. Le regolarità osservate nelle masse degli adroni e nei loro processi sono conseguenza del fatto che l’interazione forte è invariante (del tutto o in parte) sotto questo scambio.

    [as] approfondimento
    L’eredità di Rutherford

    1.
    Ernest Rutherford (a destra) e Hans Geiger (a sinistra)
    nel celebre laboratorio nell’Università di Manchester, dove nel 1909 fu scoperto il nucleo atomico.

    Gli esperimenti che hanno rivelato la presenza di costituenti elementari all’interno del protone rientrano in un modello di esplorazione della materia che ha una lunghissima storia ed è basato su un’idea molto semplice: studiare la struttura di un sistema sparandogli contro delle particelle e osservando come queste vengono diffuse. I tre elementi base di questa classe di esperimenti sono un fascio di particelle (che fungono da proiettili), un bersaglio e un rivelatore. Il bersaglio è costituito dal sistema che si intende studiare (atomi, nuclei, protoni, ecc.). Le particelle-proiettili sono elementari (cioè prive di struttura interna, come gli elettroni, i muoni o i neutrini) o si comportano come tali. Il rivelatore è posto dietro e attorno al bersaglio e segnala l’arrivo delle particelle diffuse, contandole ed effettuando una serie di misure (identificazione del tipo di particella, misura dell’energia, ecc.). Fu con un apparato di questo genere (che stava tutto su un tavolo da laboratorio) che nel 1909 Hans Wilhelm Geiger ed Ernest Marsden, collaboratori di Ernest Rutherford, scoprirono il nucleo atomico. I due fisici osservarono che, inviando un fascio di particelle alfa (che oggi sappiamo essere costituite da due protoni e due neutroni, ma che nell’urto rimanevano intatte ed erano quindi assimilabili a corpuscoli elementari) su lamine di vari metalli, un certo numero di particelle subiva una notevole deflessione. Persino un sottilissimo foglio d’oro, dello spessore di mezzo millesimo di millimetro, era in grado di deviare alcune particelle di più di 90°. Rutherford capì che ciò era dovuto al fatto che le particelle urtavano contro un oggetto molto piccolo posto al centro dell’atomo – il nucleo – che concentrava in sé quasi tutta la massa atomica (vd. in Asimmetrie n.9 fig. b, ndr). I primi esperimenti di diffusione di elettroni su atomi furono compiuti negli anni trenta. Da allora questo tipo di esperimenti ha permesso di esplorare anche la struttura dei nuclei e dei nucleoni (protoni e neutroni). Negli anni cinquanta, Robert Hofstadter scoprì in questo modo che i nucleoni non sono oggetti puntiformi, ma sferette composite di raggio pari a circa un fermi (10-15 metri). Con elettroni di più alta energia, alla fine degli anni sessanta, i fisici dello Slac, in California, rivelarono l’esistenza dei quark all’interno del protone. Il processo studiato allo Slac, e in seguito con precisione crescente al Cern di Ginevra e all’acceleratore Hera di Amburgo, è la cosiddetta diffusione profondamente anelastica, in cui il protone bersaglio si frammenta in una miriade di particelle che non vengono osservate. Le sole particelle osservate sono gli elettroni diffusi e, come negli esperimenti di Geiger e Marsden, il cospicuo numero di elettroni deflessi a grandi angoli segnala la presenza di corpuscoli più piccoli all’interno del protone: i quark. [Vincenzo Barone]

    Ma i quark esistono davvero? Se sì, dovrebbero essere relativamente facili da individuare, perché hanno una carica elettrica pari a multipli di un terzo della carica dell’elettrone, mentre tutte le particelle note hanno carica pari a multipli interi della carica dell’elettrone. Eppure, i quark liberi sono stati cercati dappertutto, ma non sono mai stati trovati (vd. [as] radici: Libertà impossibile, ndr). D’altra parte, a partire dalla seconda metà degli anni ’60, la presenza di costituenti puntiformi all’interno dei protoni fu rivelata da una serie di esperimenti di diffusione profondamente anelastica (in inglese, deep-inelastic scattering) (vd. approfondimento). In questi esperimenti, l’urto di un elettrone di alta energia su un protone produce uno stato finale che contiene un gran numero di particelle che non vengono rivelate. Sperimentalmente si studia solo la distribuzione angolare degli elettroni deflessi. Ci si sarebbe aspettati, immaginando il protone come una sferetta uniformemente carica, che la probabilità di osservare questi elettroni diminuisse molto rapidamente al crescere del loro angolo di deflessione. Invece, si trovò che, per angoli sufficientemente grandi ed energie sufficientemente alte, essa diventava circa costante.
    b.
    Quando una particella carica come l’elettrone interagisce con un protone, scambia con esso un fotone. È questo che “sonda” il bersaglio. Il parametro importante nel processo è una combinazione dell’energia e della quantità di moto del fotone chiamata Q. Maggiore è Q, maggiore è la risoluzione con cui il fotone-sonda “vede” il protone. A piccolissimi Q, il protone appare costituito da tre quark di Gell-Mann; a grandi Q, appare invece costituito da un gran numero di quark, antiquark e gluoni puntiformi. L’“evoluzione” in Q della struttura del protone è predetta dalla teoria fondamentale dell’interazione forte, la cromodinamica quantistica (Qcd), che trova proprio nella diffusione profondamente anelastica uno dei suoi test di maggior successo.
    Nel 1968 Feynman osservò che ciò poteva essere spiegato supponendo che l’urto avvenisse tra l’elettrone e costituenti elementari (cioè senza struttura interna) e quasi liberi, ossia tali da non accorgersi di essere all’interno di un protone. È stato naturale pensare che questi costituenti, che Feynman battezzò partoni, potessero essere identificati con i quark. In effetti, da questa identificazione seguirono diverse predizioni sperimentali, che furono in seguito verificate con crescente precisione. Questo porta a una conclusione paradossale. Da un lato, è impossibile osservare i quark liberi, il che suggerisce che, se esistono, sono così fortemente legati che l’energia necessaria per spezzare un protone nei suoi costituenti è infinita. Dall’altro, vi sono evidenze della presenza di quark all’interno del protone, i quali però si comportano come quasi liberi, ossia molto debolmente legati. Questa apparente contraddizione è risolta dalla cromodinamica quantistica (Qcd, Quantum ChromoDynamics), la teoria delle interazioni forti, in cui i quark (e gli antiquark) interagiscono con le particelle mediatrici della interazione forte, i gluoni, analogamente a come nell’elettromagnetismo gli elettroni interagiscono con la luce, cioè con i fotoni (particelle mediatrici dell’interazione elettromagnetica). Una delle caratteristiche della Qcd, infatti, è che l’interazione tra quark e gluoni, pur avendo la stessa forma a tutte le distanze, si attenua al diminuire della distanza a cui viene sondata (o, equivalentemente, all’aumentare dell’energia) e tende ad annullarsi a distanze infinitamente piccole, cioè a energie infinitamente elevate (un fenomeno noto come libertà asintotica). Ecco perché negli urti di elettroni di alta energia i quark appaiono come oggetti molto poco interagenti, pressoché liberi.

    In una teoria quantistica dei campi come la Qcd anche le entità fisiche cambiano al variare della risoluzione con cui vengono osservate. Questo vuol dire che un oggetto che, osservato con bassa risoluzione (ossia a bassa energia), può apparire come un singolo quark, visto con una risoluzione più alta (ossia ad alta energia) si rivela essere in realtà un coacervo di molti quark, antiquark e gluoni. Ciò permette di chiarire il vero significato dei quark di Gell-Mann. Questi sono solo indirettamente legati ai quark puntiformi della Qcd: si tratta infatti di oggetti compositi. Hanno le stesse cariche dei quark della Qcd, ma le interazioni tra di essi sono descritte da una diversa teoria, che si ottiene dalla Qcd nel limite di basse energie, cioè quando il protone viene “sondato” con bassa risoluzione. Il protone è fatto da tre quark di Gell-Mann, che in esperimenti di alta energia si rivelano essere composti da infiniti quark, antiquark e gluoni: sono questi, in ultima analisi, i mattoni fondamentali della materia.

    Nel corso degli ultimi vent’anni la Qcd nel regime delle alte energie ha portato a predizioni sempre più precise, che sono state verificate sperimentalmente con grande accuratezza. C’è questa teoria alla base degli esperimenti che hanno recentemente por tato alla scoperta del bosone di Higgs nelle collisioni tra protoni nell’acceleratore Lhc del Cern. Infatti, una descrizione accurata della sottostruttura del protone è un ingrediente indispensabile per ottenere predizioni per qualunque processo in Lhc. Questa informazione è codificata nelle distribuzioni partoniche, che forniscono la probabilità di trovare all’interno di un protone i vari tipi di quark e antiquark, e i gluoni (vd. fig. c). Dal punto di vista della Qcd, la simmetria SU(3) di Gell-Mann, cioè l’invarianza rispetto al cambiamento di sapore dei quark up, down e strange, risulta essere una proprietà accidentale, dovuta al fatto che questi quark sono tutti e tre molto più leggeri del protone. La simmetria fondamentale della Qcd, quella che determina le leggi dell’interazione forte, è un’altra simmetria di tipo SU(3), ma riguardante una diversa proprietà dei quark, anch’essa immaginata nel 1964: il colore (vd. A tinte forti, ndr).


    c.
    Le funzioni di distribuzione partoniche del protone per Q2 = 4 GeV2 determinate dalla collaborazione Neural Network Parton Distribution Functions. Ciascuna banda corrisponde a un tipo di costituente distinto (partone) del protone (quark, antiquark o gluone) e fornisce la probabilità che in una collisione di alta energia esso porti una frazione dell’energia del protone da cui è estratto, indicata sull’asse orizzontale. La larghezza delle bande indica l’incertezza teorica. Per comodità di rappresentazione la banda dei gluoni è ridotta di un fattore dieci.

    Biografia
    Stefano Forte ha conseguito il dottorato di ricerca al Massachusetts Institute of Technology (Mit) e ha successivamente lavorato a Parigi e al Cern. È stato ricercatore dell’Infn a Torino e a Roma ed è attualmente professore ordinario di fisica teorica all’Università di Milano. Si occupa principalmente di teoria dell’interazione forte e coordina la collaborazione Nnpdf (Neural Network Parton Distribution Functions).

     


    icon-pdf [scarica pdf]

     

    {jcomments on}

  • Lhc: Totem potrebbe aver trovato le prime prove dell'esistenza dell'odderone

    totem 2018I ricercatori dell’esperimento Totem, che vede un'importante partecipazione dell'Infn, condotto al Large Hadron Collider (Lhc) del Cern, hanno trovato nei loro dati evidenza della possibile esistenza di una particella, che era stata ipotizzata negli anni ’70 del secolo scorso e allora chiamata Odderone. “Lo scambio di tale particella tra protoni – spiega Nicola Turini, della sezione Infn di Pisa e dell’Università di Siena, vice-responsabile della collaborazione Totem – è uno dei possibili modi, mai osservato finora, in cui i protoni interagiscono senza rompersi, e questa nostra nuova misura potrebbe effettivamente rappresentarne la prima prova sperimentale”.

    Nell’anello sotterraneo lungo 27 km di Lhc, gli scienziati accelerano e fanno scontrare fasci di protoni per vedere che cosa accade in queste collisioni. In particolare, l’esperimento Totem studia le collisioni elastiche, cioè le collisioni in cui i protoni non si spaccano, ma interagiscono tra di loro scambiandosi particolari aggregati di gluoni (le particelle mediatrici della forza nucleare forte). Totem studia cioè i processi di scattering e di assorbimento nelle collisioni elastiche tra i protoni e, poiché gli angoli di scattering in queste collisioni sono estremamente piccoli, i rivelatori di Totem, che si estendono per oltre 400 metri nel punto di interazione condiviso con Cms, sono posizionati a oltre 200 metri su ciascun lato, e devono stare a distanze submillimetriche dal fascio di protoni di Lhc.

    Questi processi di interazione tra protoni sono descritti da un parametro, detto rho. La variazione del parametro rho con l’energia delle collisioni dà indicazione dei diversi “modi” in cui i protoni possono interagire elasticamente, e delle differenze delle collisioni tra protoni e antiprotoni. La misura di Totem del parametro rho è la più precisa che sia mai stata realizzata ed è anche la prima misura di rho all’energia record di 13 TeV di Lhc. Essa dimostra che il valore di rho è significativamente minore di quello atteso in base alle attuali conoscenze e, grazie alla precisione della misura, è stato possibile osservare per la prima volta altri modi di interazione dei protoni. Finora erano stati osservati i modi in cui i protoni interagiscono tra di loro elasticamente scambiandosi un numero pari di gluoni aggregati.

    Secondo diverse pubblicazioni teoriche, Totem ora avrebbe osservato l’interazione tra protoni che prevede lo scambio di un numero dispari di gluoni aggregati, una possibilità prevista dalla cromodinamica quantistica (Qcd), e descritta negli anni ’70 come particella con il nome di Odderone. In tal caso, il risultato di Totem avrebbe anche implicazioni sulla possibile osservazione da parte di altri esperimenti di un particolare tipo (spin=1) delle cosiddette glueball (sfere di gluoni), particelle composte unicamente di gluoni, estremamente difficili da misurare ma anch’esse previste dalla Qcd.

    Altre pubblicazioni teoriche mostrano che, nel caso in cui questa interpretazione non fosse corretta, allora il risultato di Totem rappresenterebbe la prima evidenza sperimentale che, oltre le energie raggiunte da Lhc, la probabilità di interazione tra protoni cresce con l’energia meno rapidamente del previsto. Questo avrebbe implicazioni anche sulla progettazione dei futuri acceleratori di particelle. “In entrambe queste possibilità – nota Angelo Scribano, della sezione Infn di Pisa, chairman del Totem Collaboration Board – i risultati di Totem, approvati e pubblicati dal Cern come preprint, portano un contributo determinante alla conoscenza di questi fenomeni e ne spingono la frontiera ben oltre lo stato attuale”.

    Attualmente i ricercatori dell’esperimento stanno analizzando una imponente mole di dati, raccolti nel 2015 unicamente da Totem grazie all’upgrade del sistema di acquisizione online (Daq), finanziato in gran parte dall’Infn: questo nuovo studio permetterà di portare nuova luce sui diversi aspetti teorici. “Quando abbiamo accettato la sfida di aumentare di oltre 50 volte la capacità del sistema di acquisizione dati potevamo solo sperare che ciò potesse avere un tale impatto di fisica”, sottilinea Francesco Cafagna, della sezione Infn di Bari e responsabile nazionale Infn per l’esperimento Totem.

    La collaborazione scientifica Totem conta circa 100 fisici provenienti da circa 20 Istituti di 8 Paesi tra Europa, Stati Uniti e Russia. [Antonella Varaschin]

  • Lhcb ha scoperto la particella Xi

    particella XiAl Cern è stata scoperta la particella Xi. Ricercata da decenni, potrà aiutare a studiare una delle quattro forze fondamentali della natura, la forza forte. La scoperta, effettuata dall'esperimento Lhcb di Lhc, è stata annunciata oggi durante la conferenza della European Physical Society (Eps) sulla fisica delle alte energie (High Energy Physics, Hep) in corso a Venezia e verrà pubblicata sulla rivista Physical Review Letters.

    La particolarità di "mister Xi" è di avere al suo interno due quark pesanti, due quark charm (oltre a un quark up). Pur essendo prevista dalla teoria, la presenza di due "pesi massimi" all'interno della stessa particella è stata osservata solo oggi per la prima volta. La sua massa, di conseguenza, è particolarmente grande: oltre 3600 MeV, quasi quattro volte quella del protone.

    "Trovare una particella con due quark pesanti è di grande interesse perché può fornire uno strumento unico per approfondire la cromodinamica quantistica, la teoria che descrive l'interazione forte, una delle quattro forze fondamentali", spiega Giovanni Passaleva, il nuovo coordinatore della collaborazione Lhcb. "Queste particelle contribuiranno così a migliorare il potere predittivo delle nostre teorie".

    La maggior parte della materia che vediamo intorno a noi è composta da barioni, particelle comuni composte da tre quark. I più noti sono protoni e neutroni, ma dato che in natura esistono sei tipi di quark diversi, teoricamente le combinazioni di barioni possibili sono molte. Non tutte, però, sono state osservate nella realtà. All'appello mancavano proprio le particelle composte da più di un quark pesante. "In contrasto con le altre particelle finora noti, in cui i tre quark eseguono una elaborata danza l'uno attorno all'altro, ci aspettiamo che il barione con due quark pesanti agisca come un sistema planetario, dove i due quark pesanti giocano il ruolo di stelle che orbitano l'una attorno all'altra, mentre il quark più leggero orbita intorno a questo sistema binario", ha aggiunto Guy Wilkinson, ex-coordinatore della collaborazione. [Catia Peduto]

     

    Leggi anche: https://www.asimmetrie.it/ritorno-al-futuro

  • Massa più precisa per il quark top

    CDFGli esperimenti del Cern e del Fermilab hanno unito le forze per determinare un valore più preciso per la massa del quark top. L’annuncio è stato dato durante la conferenza “Rencontres de Moriond” a La Thuile, in Valle D’Aosta, dagli esperimenti Atlas e Cms (dell’acceleratore svizzero Lhc del Cern, Ginevra) e Cdf e DZero (dell’americano Tevatron al Fermilab, Chicago). Il miglior valore al mondo per la massa del quark top, appena calcolato dai nuovi dati, è pari a 173,34 più/meno 0,76 Ge V/c2.

    Gli esperimenti di Lhc e del Tevatron sono gli unici ad aver mai visto il quark top, la particella più pesante mai osservata, l’ultima dei sei quark previsti dal modello standard, la teoria che descrive le interazioni nucleari. La massa del quark top (ben 100 volte più grande di quella del protone) ha un’importanza per la comprensione della natura dell’universo. Il suo nuovo valore, più preciso dei precedenti, permetterà agli scienziati di analizzare meglio la connessione tra il quark top, il bosone di Higgs e il bosone W, per comprendere gli effetti sull’evoluzione dell’universo.

  • Misure al top

    Misure al top
    Una storia di incertezze

    di Paolo Checchia

    Al concetto stesso di misura si deve accompagnare quello di incertezza (o errore) con cui il risultato della misura è ottenuto. Troppo spesso ci si scorda che il binomio risultato-incertezza costituisce uno dei fondamenti di qualsiasi risultato scientifico. La tanto declamata “certezza scientifica” è in realtà un processo delicato, in cui si valuta se un’affermazione (come ad esempio “esiste il bosone di Higgs”, ma anche “il fumo è dannoso alla salute”) è suffragata da risultati sperimentali, la cui incertezza è tanto piccola da rendere irragionevole l’affermazione opposta. Nella fisica, e non solo, ci sono quantità che vanno misurate con la massima precisione (ovvero con il minor errore possibile) per tutta una serie di motivi, non ultimo per il fatto che una misura con un errore troppo grande non servirebbe a nulla. Se ad esempio il Gps ci desse la nostra posizione con un errore di un chilometro, è evidente che non ci sarebbe utile quando in automobile siamo alla ricerca della strada migliore. A volte è possibile ottenere misure indirette di una certa quantità in aggiunta a misure più dirette. Supponete di trovarvi in una valle in montagna e di voler sapere quanto distanti si trovano le pareti che la delimitano. Se emettete un grido e riuscite a distinguere l’eco, con un buon cronometro potete misurare il tempo intercorso tra grido ed eco e, conoscendo la velocità del suono, calcolare la distanza dalle pareti. Ovviamente questa misura (indiretta) non può essere molto precisa ma è senz’altro più immediata di una faticosa misurazione del terreno (misura diretta). In alcuni casi, poi, la misura diretta non è assolutamente realizzabile, e quella indiretta costituisce l’unica possibilità a disposizione: se vi chiedete a che distanza è avvenuto un lampo, potreste contare i secondi che vi separano dall’arrivo del tuono, ma non potreste mai recarvi nel punto in cui si è sviluppata la scarica.
    Entriamo ora nel mondo delle particelle elementari, occupandoci della particella più pesante di tutte: il quark top. A partire da quando è stata ipotizzata (alla fine degli anni ’70), è stata sempre indicata come la più pesante tra i membri delle famiglie dei “fermioni”, le particelle di spin semi-intero del “modello standard”, la teoria che descrive il mondo delle particelle elementari. Ma quanto pesante? Prima di tutto si è stabilito che il quark top non poteva avere massa minore di circa la metà di quella dello Z, il bosone neutro scoperto assieme al bosone carico W da Carlo Rubbia. Nel collisore a elettroni e positroni del Cern, il Lep, si sono infatti prodotti milioni di Z e, se il quark top avesse avuto una massa sufficientemente bassa, una frazione degli Z prodotti sarebbe decaduta in una coppia formata dal top e dalla sua antiparticella, dotata della stessa massa, l’antiquark top. La mancata scoperta si è però trasformata comunque in un’informazione scientifica: un limite inferiore alla massa del quark. Non una vera misura, ma una limitazione alla nostra ignoranza, come si può vedere in fig. b, dove il limite è rappresentato dalla linea continua verde. I risultati del Lep (e di altre macchine) hanno però prodotto anche una misura indiretta della massa del top. Il Lep ha misurato, con estrema precisione, alcune proprietà di altre particelle, come le masse dei bosoni Z e W, l’intensità della loro produzione, i loro modi di decadimento ecc. Quantità apparentemente indipendenti l’una dall’altra, ma che il modello standard è in grado di mettere in relazione tra loro. È cruciale notare che le varie relazioni dipendono dalla massa del quark top, per cui è possibile ottenere un valore della massa che metta d’accordo al meglio tutte le misure. Tanto più i risultati al Lep diventavano precisi (con errori sempre più piccoli), tanto più l’incertezza nella misura indiretta della massa del top calava, come si vede dai punti verdi e dalle loro barre d’errore nella fig. b. Supponendo valido il modello standard, la massa del top era già stata misurata (circa 160 GeV/c2) con un errore del 20% prima ancora che il quark venisse scoperto. Misure effettuate a un’energia più bassa di quella necessaria per produrre il quark top, hanno permesso di estrapolare la conoscenza in regioni di energia ancora non accessibili.
     
    b.
    Misure della massa del top in funzione dell’anno. La linea e i punti verdi sono i risultati del Lep, la linea e i punti viola i risultati combinati del Tevatron, con i risultati di Cdf (triangoli azzurri) e DZero (triangoli rossi), i triangoli marroni i risultati di Cms, i triangoli blu i risultati di Atlas mentre il quadrato arancione rappresenta la media mondiale nel 2014. In questi grafici, il simbolo viene posizionato sul valore più probabile, mentre le "barre d'errore", ovvero i segmenti sopra e sotto il simbolo, rappresentano l'incertezza sul risultato della misura.

     
    c.
    L’esperimento Cdf del Fermilab di Chicago, che nel 1995 scoprì il quark top.
     
    L’errore che si ottiene da una misura indiretta, che proviene da misure estremamente precise, ma che risente dell’incertezza di altri parametri previsti dalla teoria, non può però competere con quello di una misura diretta. La scoperta di una particella come il quark top praticamente coincide con una misura della sua massa: il top è altamente instabile in quanto, appena prodotto e ancora allo stato di quark “libero”, decade in altre particelle. La misura diretta della sua massa si può ottenere solo con la misura di energia e direzione delle particelle prodotte dal suo decadimento. Supponendo di conoscere quali siano queste particelle e di poter osservare un certo numero di decadimenti, il segnale della presenza del top viene osservato come un picco, la cui sommità coincide proprio con la massa e la cui larghezza dipende da un’altra caratteristica (l’instabilità) e dagli errori di misura. Osservare il segnale, quindi, vuol dire misurare la massa (vd. anche Per un pugno di sigma, ndr). Consideriamo ancora la fig. b: a partire da una certa data appaiono dei punti (i triangoli blu) con barre d’errore più piccole rispetto a quelle che corrispondono alle misure indirette. Questi punti provengono dai dati dell’esperimento Cdf del Tevatron al Fermilab (nei pressi di Chicago), che portarono alla scoperta del quark top con conseguente misura diretta della sua massa nel 1995. Si vedono apparire a breve distanza di tempo anche altri punti (i triangoli rossi), che corrispondono al segnale prodotto dal top rivelato da un altro esperimento del Fermilab, l’esperimento DZero. Si vede anche che, con l’andar del tempo, le barre d’errore dapprima si riducono rapidamente, per poi rimanere abbastanza stabili, con un andamento che permette di capire l’incertezza della misura. Al momento della scoperta, infatti, la massa della particella è misurata con un numero limitato di decadimenti: quelli sufficienti a dichiarare la scoperta, ma soggetti a grandi fluttuazioni dovute al numero statisticamente non molto significativo di dati raccolti. Queste fluttuazioni producono un’incertezza, che chiamiamo “errore statistico”, che si riduce man mano che si accumulano dati. Va notato che l’errore statistico si riduce in funzione della radice quadrata del numero di decadimenti raccolti (quella della radice quadrata è una legge del tutto generale in statistica), per cui per dimezzarlo basterebbero quattro volte tanti dati, mentre per ridurlo a un terzo del valore iniziale servirebbe un campione nove volte più grande. L’errore statistico è, però, solo una delle componenti che determinano l’incertezza totale della misura, rappresentata dalle barre d’errore: ve ne sono altre che, accumulando più dati, si riducono poco o nulla e che a lungo andare diventano dominanti.
     

    d.
    Scorcio del Fermilab, nei sobborghi di Chicago (Usa).

     
    Queste componenti le chiamiamo “errori sistematici”. Ad esempio, i rivelatori che ricostruiscono l’energia delle particelle che provengono dal decadimento del top possono essere soggetti a errori di scala nella valutazione dell’energia, che si ripercuotono sul valore della massa misurata. Oppure ci possono essere errori nell’individuazione dei segnali di fondo che, inevitabilmente, si accompagnano al segnale. O anche incertezze teoriche sulla differenza tra la massa misurata in modo diretto e quella che risulta dalle misure indirette. In sintesi: un esperimento, con lo stesso tipo di misura, non riuscirebbe ad andare oltre una certa precisione nemmeno raccogliendo moltissimi dati. In fig. b appaiono punti (quadrati viola) con errori più piccoli di quelli finora considerati: si tratta delle combinazioni delle varie misure di entrambi gli esperimenti del Tevatron. Combinare misure diverse, specie se ottenute da collaborazioni diverse, serve a diminuire l’incertezza, sia per la riduzione dell’errore statistico che per la diminuzione di alcuni effetti sistematici, qualora non fossero correlati tra gli esperimenti. L’avvento di Lhc, con il gran numero di decadimenti del top raccolti e la qualità dei rivelatori Atlas e Cms, ha permesso di migliorare ulteriormente la precisione con cui la massa del top è stata misurata: come si vede dal cambio di scala in fig. b, ora le misure di Lhc permettono di dare la massa con un errore inferiore allo 0,3%. Siamo entrati nell’era delle misure di estrema precisione della massa del top con importanti implicazioni per alcuni modelli teorici.
     

    Biografia
    Paolo Checchia è un fisico sperimentale delle particelle elementari della sezione Infn di Padova. Ha partecipato a molti esperimenti al Cern, tra cui Delphi e Cms, per cui è stato responsabile del gruppo di Padova. Inoltre, come referente scientifico di progetti europei e nazionali per l’Infn nel campo della tomografia muonica, lavora all’applicazione della fisica delle particelle per usi civili.


    Link
    http://www.treccani.it/enciclopedia/errori-di-misura_(Enciclopedia-dei-ragazzi)/
    http://appuntidifisica.wikidot.com/l-errore-di-misura
    https://press.cern/backgrounders/top-quark
    https://it.wikipedia.org/wiki/Quark_top


    icon-pdf [scarica pdf]

     

     
    DOI: 10.23801/asimmetrie.2017.22.2
     

    {jcomments on}

  • Prima misura precisa della forza debole tra elettrone e quark

    Quark JLab2Pubblicata il 6 Febbraio su Nature la prima misura ad alta precisione della violazione da parte della forza debole, negli urti tra elettrone e quark, di una della simmetrie fondamentali della natura chiamata “parità”. L’articolo è il risultato dell’esperimento Pvdis (Parity Violating Deep Inelastic Scattering) condotto ai laboratori del Jefferson Laboratory, negli Stati Uniti, da una collaborazione di fisici di una decina di paesi, tra i quali sono numerosi i ricercatori dell’Istituto Nazionale di Fisica Nucleare.

    La forza debole è l’unica delle quattro forze fondamentali (elettromagnetica, debole, forte e gravitazionale) a violare questa simmetria, con importanti implicazioni sull’evoluzione del nostro universo dal Big Bang a oggi.

    In generale, la simmetria di parità P garantisce che, osservando un qualsiasi processo fisico in un sistema di coordinate spaziali o in un sistema nel quale le coordinate siano invertite rispetto al primo, il fenomeno si ripeta in modo identico, senza alcuna differenza. Se la parità si conservasse, quindi, elettroni identici in moto lungo la stessa direzione ma in versi opposti dovrebbero comportarsi nello stesso modo quando interagiscono con un quark. Proprio l’osservazione delle differenze, al contrario, ha permesso ai ricercatori di verificare e misurare la violazione di parità nelle interazioni elettrone-quark.

    “Misurare la violazione della parità è un metodo molto efficace per ottenere informazioni dettagliate sull’interazione debole tra elettrone e quark, altrimenti difficili da determinare a causa dell’estrema debolezza di questa interazione", ha commentato Guido Maria Urciuoli, ricercatore della sezione Infn di Roma e uno dei responsabili nazionali dell’esperimento. “L'osservazione della violazione di parità è esclusivamente legata alla presenza dell’interazione debole e ne costituisce una preziosa misura indiretta”. [Francesca Scianitti]

     

    http://www.nature.com/nature/journal/v506/n7486/full/nature12964.html

  • Quark e sapori

    Quark e sapori
    Ricette per l'universo.
    di Paolo Gambino

    Nella simmetria risiede in buona parte la nostra capacità di descrivere la struttura fondamentale di ciò che conosciamo: su di essa poggia la teoria delle particelle elementari e delle interazioni fondamentali, il modello standard, e nelle simmetrie si realizza quella sintesi meravigliosa di leggi che la realtà fisica sembra manifestare. Ma se tutte le simmetrie fossero rispettate rigidamente – se la preziosa simmetria di gauge, in particolare, non fosse "rotta" – il mondo sarebbe tremendamente noioso e noi non saremmo qui a osservarlo. Il mondo che conosciamo, la sua varietà e la sua bellezza, il suo inafferrabile mistero, emergono proprio dal dialogo incessante tra simmetria e sua negazione. Uno dei misteri più profondi dell'universo subnucleare riguarda la classificazione delle particelle elementari, quei mattoni fondamentali della materia, i quark e i leptoni, che per le loro caratteristiche possono essere suddivisi in tre famiglie, o generazioni. E l'esistenza stessa di tre generazioni di quark e leptoni è ancora oggi un aspetto misterioso e affascinante della fisica delle particelle elementari. Leptoni e quark si differenziano tra loro innanzitutto per la loro carica elettrica, avendo i primi – elettroni, muoni, tau e neutrini – carica elettrica di valore intero +1, -1 o 0 (i neutrini), mentre i secondi, i quark, hanno tutti carica elettrica frazionaria, +2/3 o -1/3. Ciò che differenzia però quark e leptoni di famiglie diverse è la massa di queste particelle, che aumenta considerevolmente passando dalla prima alla terza generazione. L'etichetta che si usa per identificare i quark di tipo diverso è in inglese il flavor (sapore, in italiano). Così, quark e leptoni esistono in tre generazioni di sapore (in tre gusti, come fossero caramelle), che sarebbero identiche repliche se non fosse appunto per la massa, diversa per ogni sapore.

    a.
    Le particelle elementari, quark e leptoni, sono suddivise in base alla loro massa in tre famiglie o generazioni, in ordine di massa crescente (qui espressa in MeV/c2). Nel caso dei leptoni, i neutrini sono elettricamente neutri e hanno massa molto piccola, dell'ordine di una frazione di eV/c2. Un'analoga tabella contiene le antiparticelle, che si indicano con una linea sopra al loro simbolo.

    Le masse di queste particelle elementari sono molto diverse tra loro. Se la massa del neutrino è meno di un milionesimo di quella dell’elettrone, il quark top – un peso massimo – ha massa paragonabile a quella di un atomo di tungsteno e cento miliardi di volte maggiore di quella dei neutrini. Com’è possibile? Da dove hanno origine queste differenze gigantesche? La teoria che abbiamo non dà risposte. Le speculazioni naturalmente abbondano specialmente riguardo ai neutrini, la cui massa, piccolissima, si riteneva essere addirittura nulla fino al decennio scorso. Tuttavia, la ragione per cui le particelle elementari hanno masse così diverse tra loro rimane uno dei misteri più impenetrabili della fisica attuale.

    b.
    Tabella delle possibili transizioni tra quark di tipo diverso. Esse sono mediate dal bosone W e permettono di collegare generazioni diverse. Le transizioni più probabili sono sempre quelle all'interno della stessa generazione (frecce verticali). Le relazioni matematiche tra le forze associate a ognuna di esse costituiscono il meccanismo di Cabibbo, Kobayashi e Maskawa. Nella figura, le linee con uno spessore maggiore rappresentano le transizioni più probabili.

    Le forze attraverso cui queste particelle interagiscono sono completamente determinate dalla simmetria di gauge che ha originato l’interazione stessa e la massa non è altro che una conseguenza della rottura spontanea della simmetria. Se la simmetria di gauge fosse esatta, tutte le particelle dovrebbero avere massa nulla, come la particella mediatrice della forza elettromagnetica, il fotone o quanto di luce. A partire dalle tre generazioni, uno strano fenomeno permette di realizzare scenari inaspettati. Si tratta del mescolamento tra generazioni, introdotto per la prima volta nel 1963 da Nicola Cabibbo con due sole generazioni, ed esteso a tre generazioni dai giapponesi Kobayashi e Maskawa, nel 1973. Il mescolamento delle generazioni è strettamente legato all’origine delle masse: in assenza di masse le tre generazioni sono indistinguibili e il mescolamento non è osservabile.
    c.
    Il mescolamento dei quark avviene sempre attraverso lo scambio del bosone carico W. Nella figura è rappresentato il diagramma di Feynman del decadimento di un quark beauty in un quark strange e un fotone. I decadimenti di un quark in un altro quark di carica uguale, come il caso rappresentato, sono possibili solo facendo agire due volte il W sui quark. I fenomeni di questo tipo sono chiamati Fcnc (Flavor Changing Neutral Currents) e sono molto rari.
    Per capire di che cosa si tratti, consideriamo le cosiddette forze deboli, responsabili dei decadimenti radioattivi di alcuni nuclei atomici. Queste forze possono trasformare un quark di carica +2/3 (cioè un quark di tipo up, charm o top) in un quark di carica -1/3 (di tipo down, strange o beauty), e viceversa. La differenza di carica che si genera in questa trasformazione è trasferita ad altre particelle (leptoni o quark) dal bosone W mediatore dell’interazione debole, una sorta di fotone pesante con carica elettrica positiva o negativa in base alla particolare interazione in cui è coinvolto (indicato in quei casi W+ o W-). Nel caso dei decadimenti beta, per esempio, un quark down all’interno di un neutrone è trasformato in un quark up con emissione di un elettrone e di un antineutrino. Il neutrone decade così in un protone e una coppia di leptoni. In linea di principio il quark up potrebbe anche trasformarsi in un quark strange o beauty, ma questi ultimi sono troppo pesanti per essere prodotti in un decadimento beta: si violerebbe la conservazione dell’energia! In processi caratterizzati da energie più grandi, invece, le transizioni indicate in fig. b sono tutte possibili, ma non tutte con la stessa probabilità. La forza debole totale che agisce su un quark up è fissata dalla simmetria di gauge, ma come un fiume che si divide in tre canali essa si ripartisce tra le varie generazioni, e non tutte le transizioni hanno la stessa probabilità di realizzarsi. Di fatto, il bosone W interagisce quindi con una combinazione di sapori: se associamo un colore primario (rosso, blu, giallo) a ogni sapore di quark, possiamo immaginare che solo una combinazione di colori primari, per esempio arancione o verde, sia legata al bosone W. La simmetria di gauge impone quindi dei vincoli al modo in cui la forza debole si può ripartire tra le generazioni ed esistono semplici relazioni matematiche tra le forze che intervengono nelle varie transizioni mediate dal bosone W. Queste relazioni sono al centro del meccanismo del mescolamento, chiamato CKM dalle iniziali dei suoi scopritori (Cabibbo, Kobayashi e Maskawa). A determinarne il trionfo è stata la sua verifica sperimentale; l’impegno in questo senso è culminato nello studio dei decadimenti dei quark beauty negli esperimenti Babar (negli USA) e Belle (in Giappone) che hanno recentemente concluso la presa dati, con il contributo essenziale di molti ricercatori dell’Infn nel caso di Babar. Ma non si è trattato solamente di un impegno sperimentale: anche i fisici teorici hanno contribuito in maniera determinante. I quark infatti non possono essere osservati da soli, ma solo a gruppi di due o tre all’interno di una sorta di “bozzolo” (l’adrone), creato dalle interazioni forti per trattenerli. Per riuscire a interpretare correttamente nell’ambito del meccanismo CKM i risultati di esperimenti molto precisi, diventa allora indispensabile saper individuare il “bozzolo” dovuto all’interazione forte tra i quark e valutarne le caratteristiche. Si tratta di un problema molto difficile, una sfida formidabile, per la quale ci si avvale anche di simulazioni numeriche su supercomputer.

    d.
    L’esperimento Babar presso lo Stanford Linear Accelerator Center (Slac) in California. L’obiettivo principale di Babar è stato lo studio della violazione della simmetria CP, osservando il diverso comportamento dei mesoni B e delle loro antiparticelle, i mesoni B (Bbar), prodotti nelle collisioni di un fascio di elettroni e un fascio di positroni (le antiparticelle dell’elettrone) accelerati rispettivamente all’energia di 9,0 GeV e 3,1 GeV nell’acceleratore PEP-II di Slac. Le misure effettuate a Babar e Belle hanno permesso di confermare la validità del meccanismo CKM.

    La teoria del meccanismo CKM presenta due aspetti misteriosi. Il primo ha a che fare con la simmetria CP, la cui violazione mostra che il nostro mondo differisce da quello a esso speculare fatto di antiparticelle. L’aspetto sorprendente è che la violazione della simmetria CP è una conseguenza del mescolamento dei quark: esistono pertanto relazioni precise tra le asimmetrie di CP e il mescolamento dei sapori. Questo sorprende perché implica una connessione tra proprietà apparentemente molto diverse delle particelle. E d’altra parte non possiamo illuderci di avere compreso la violazione di CP, dal momento che la violazione di CP osservata nel settore dei quark non è sufficiente a spiegare l’asimmetria tra materia e antimateria nell’universo. Il secondo aspetto misterioso è che il fenomeno del mescolamento dei quark è fortemente gerarchico: le transizioni favorite sono sempre quelle tra quark della stessa generazione. Questa gerarchia sembra suggerire un ordine nascosto, forse il residuo di una simmetria originaria, che il meccanismo CKM si limita a registrare.
    Un altro aspetto caratteristico del meccanismo CKM è che il mescolamento dei quark non può avvenire attraverso lo scambio di particelle elettricamente neutre, come il fotone o il bosone Z0, il terzo mediatore, privo di carica, delle interazioni deboli. Il mescolamento avviene sempre attraverso lo scambio del bosone carico W. Il decadimento di un quark in un altro quark con la stessa carica può allora avvenire solo facendo agire due volte il W sui quark, il che diminuisce drasticamente l’intensità della forza debole e rende il decadimento molto meno frequente. I rari fenomeni di questo tipo, chiamati Fcnc (Flavor
    Changing Neutral Currents
    ), sono importantissimi e permettono verifiche di precisione del modello standard.
    Quanto detto finora riguarda i quark. Per i leptoni vale qualcosa di analogo, ma in questo caso i misteri si infittiscono. Intanto, non conosciamo ancora l’esatta natura degli sfuggenti neutrini.
    Nel settore dei leptoni non sono mai state osservate sperimentalmente transizioni fra leptoni carichi di sapore diverso: si tratta delle Fcnc del settore leptonico che nel modello standard sono praticamente impossibili. Nuovi risultati in questo senso sono attesi da Meg (Muone in Elettrone e Gamma), un esperimento coordinato dall’Infn e condotto in Svizzera, al Paul Scherrer Institut di Zurigo.
    Abbiamo oggi alcune indicazioni che il grandioso edificio del modello standard nasconde probabilmente qualcosa di ancora più mirabile, una nuova fisica che agisce a distanze ancora più piccole di quelle che abbiamo esplorato finora, e che forse potrà spiegare alcuni dei misteri sopra accennati. Ma è difficilissimo osservare gli effetti di quello che succede a distanze più piccole di quelle accessibili con le collisioni prodotte nei grandi acceleratori di particelle come Lhc, al Cern di Ginevra: i segnali sono inevitabilmente molto deboli, e per poterli rivelare è necessario limitare la raccolta di eventi “non interessanti”, ovvero abbassare il rumore di fondo, per usare il dialetto dei fisici. I decadimenti rari mediati da Fcnc sono importanti proprio perché permettono di abbassare il rumore di fondo dovuto alle forze del modello standard, e possono quindi diventare lo spiraglio da cui osservare la nuova fisica. Nuove particelle finora sconosciute potrebbero infatti affiancarsi al bosone W in processi come quello di fig. c e far sentire la loro debole voce, rendendo un poco più frequente un decadimento molto raro. Forse si tratterà di particelle supersimmetriche, che come suggerisce il nome sono i fossili di una nuova e profondissima simmetria. Forse, potendo studiare le relazioni di CKM in maggiore dettaglio, scopriremo che non sono poi così ben soddisfatte in natura, e che la nuova fisica le modifica in modo sistematico. È quindi evidente che gli studi di fisica del sapore sono complementari alla ricerca di nuove particelle al grande acceleratore Lhc e permetteranno di comprendere meglio le scoperte che tutti ci auguriamo. E, chissà, di azzardare forse qualche risposta ai misteri del sapore.
    [as] approfondimento
    Meg e il sapore dei leptoni


    1.
    Il calorimetro elettromagnetico a xenon liquido dell'esperimento Meg, equipaggiato con 846 fotomoltiplicatori.



    L’esperimento Meg (Muone in Elettrone e Gamma) ha come principale obiettivo la ricerca della violazione del sapore leptonico nel rarissimo decadimento del muone in elettrone e fotone (raggio gamma).
    Meg sfrutta un fascio di circa 100 milioni di muoni per secondo, ottenuto facendo incidere su un bersaglio di grafite il fascio di protoni dell’acceleratore del Paul Scherrer Institut a Zurigo, in Svizzera. I muoni hanno vita breve, di circa due milionesimi di secondo, e decadono nella maggior parte dei casi in un elettrone e due neutrini. Per rivelare gli eventuali rarissimi decadimenti in elettrone e fotone, Meg è dotato di rivelatori in grado di misurare contemporaneamente la direzione, l’energia e il tempo di arrivo di queste particelle. Il calorimetro elettromagnetico a xenon liquido, in particolare, equipaggiato con 846 fotomoltiplicatori, permette di rivelare la luce di scintillazione prodotta dai fotoni quando attraversano il mezzo sensibile. Compatibili con lo stesso decadimento, un elettrone e un fotone rivelati in coincidenza temporale sarebbero la prima prova sperimentale di un processo che viola il sapore leptonico. La loro rivelazione dimostrerebbe in modo inconfutabile la necessità di superare il modello standard.
     

    Biografia
    Paolo Gambino è professore di fisica teorica all'Università di Torino dal 2006, dopo aver lavorato in Germania, al Cern e all'Infn. Si occupa di ricerche sulla fisica del sapore.

     

    Link
    http://www-public.slac.stanford.edu/babar
    http://meg.pi.infn.it

     

    icon-pdf [scarica pdf]



     

    {jcomments on}

  • Ritorno al futuro

    Ritorno al futuro
    Idee e scoperte di un annus mirabilis

    di Giovanni Battimelli

    “It is an ideal, for which I am prepared to die”. Termina così il discorso al processo per sabotaggio pronunciato nell’aprile del 1964 dall’avvocato sudafricano Nelson Mandela, a quel tempo praticamente uno sconosciuto al di fuori del Sudafrica. Mandela sarebbe diventato successivamente uno dei simboli della lotta contro l’apartheid e insignito del premio Nobel per la pace nel 1993. Sempre nell’aprile di quello stesso 1964, i primi vasetti di una crema di cioccolato alle nocciole escono da una piccola industria dolciaria del Piemonte. La crema è la Nutella e sarebbe diventata un mito per generazioni di bambini. Nel 1964 anche nella fisica delle particelle nulla di particolare sembra accadere. Ma, come Mandela e la Nutella oggi, a cinquanta anni di distanza, sono passati alla storia, così anche nella fisica le idee nate in quell’anno hanno acquisito un’importanza tale da far ricordare il 1964 come un annus mirabilis.

    Nel febbraio del 1964 su Scientific American apparve un articolo di rassegna sullo stato della fisica delle particelle, dedicato in particolare alle particelle soggette all’interazione forte, quelle che oggi chiamiamo genericamente adroni, dal nome introdotto nel 1962 dal fisico russo Lev Borisovich Okun, allora ancora poco usato. L’articolo iniziava sottolineando la proliferazione del numero di particelle scoperte, la conseguente difficoltà di assegnare loro lo status di particelle elementari (cioè di oggetti privi di una struttura interna), nonché la situazione di stallo della teoria, apparentemente incapace di fornire un quadro complessivo coerente.

    Nel breve volgere di anni tra il 1957 e il 1963, mentre la famiglia dei leptoni (le particelle soggette solo all’interazione debole) era cresciuta di un solo elemento (si era scoperto che il neutrino associato al muone era diverso da quello associato all’elettrone), portandone il numero totale a quattro, il numero di adroni noti era passato da 23 a 82. La situazione era paragonata a quella della fisica atomica negli anni venti, prima della formulazione della meccanica quantistica: una ricca e crescente fenomenologia di righe spettrali, in assenza di un qualunque quadro teorico che permettesse di classificarle, spiegarle e (soprattutto) prevederle.

    Un promettente passo avanti era stato fatto negli anni precedenti da uno degli autori dell’articolo apparso su Scientific American, Murray Gell-Mann. L’idea era riconoscere una regolarità nell’apparente caos delle par ticelle classificandole in strutture formali secondo alcuni principi generali di simmetria. Il linguaggio matematico che permetteva di dare corpo a questa classificazione basata sulle simmetrie era quello della teoria dei gruppi, una branca della matematica il cui uso in fisica teorica era stato pioneristicamente introdotto, tra gli altri, da Eugene Wigner, negli anni ’30. La teoria dei gruppi, guardata inizialmente con sospetto dai fisici, esprime in forma rigorosa la connessione profonda tra principi di simmetria e leggi di conservazione: e il suo ruolo era stato riconosciuto come fondamentale dalla comunità dei fisici con l’assegnazione del premio Nobel del 1963 a Wigner stesso.

    a.
    La prima campagna pubblicitaria della Nutella del 1964.
    Nello schema proposto nel 1961 da Gell-Mann e, in modo indipendente, dal fisico israeliano Yuval Ne’eman, gli adroni potevano essere raggruppati in multipletti (ottetti, decupletti, ecc.), sulla base di un gruppo di simmetria denominato matematicamente SU(3) (vd. [as] La forza del gruppo). Similmente a come, circa un secolo prima, la costruzione del sistema periodico aveva permesso di individuare un ordine nell’insieme eterogeneo degli elementi chimici, così la simmetria SU(3) di Gell-Mann e Ne’eman metteva ordine nella classificazione degli adroni. E soprattutto, proprio come era accaduto per la chimica, laddove nello schema si presentavano delle caselle vuote, il modello consentiva di prevedere l’esistenza di particelle che avrebbero dovuto esistere, con ben determinate proprietà, per riempire quelle caselle. Una di quelle assenti, il mesone η, era stata da poco effettivamente individuata. Per completare lo schema, mancava all'appello un’ulteriore particella, la Ω. La sua scoperta, considerata “una prova stringente della correttezza della teoria”, avvenne per mezzo della camera a bolle di Brookhaven proprio nei giorni in cui usciva in edicola il numero di Scientific American sugli adroni. Negli stessi giorni, con un articolo di due pagine su Physics Letters, Gell-Mann pubblicava un’idea su cui aveva riflettuto nei mesi precedenti: i multipletti in cui aveva raggruppato gli adroni conosciuti si ottenevano in modo naturale, se si faceva l’ipotesi che tutte le particelle fossero ricostruibili a partire dalla combinazione di tre entità primarie che Gell-Mann stesso battezzò quark, riprendendo un termine dal verso “Three quarks for Muster Mark!”, contenuta nell’ultima opera di James Joyce, Finnegans Wake. I tre tipi (detti sapori) di quark, che permettevano di ricostruire tutti gli adroni noti all’epoca, sono chiamati (con nomi di fantasia) up, down e strange. Il protone, per esempio, si ottiene combinando due quark up e un quark down; il neutrone, due quark down e un quark up; la particella Ω, tre quark strange. Un aspetto fortemente problematico dell’ipotesi dei quark era che queste entità avrebbero dovuto avere cariche frazionarie, una proprietà che non era mai stata osservata in natura. Questa difficoltà poteva essere aggirata, considerando gli ipotetici quark non come oggetti reali, ma solo come entità matematiche, e infatti lo stesso Gell-Mann chiudeva il suo articolo affermando che “la ricerca di quark stabili negli acceleratori di energia più elevata ci aiuterà a rassicurarci sulla non esistenza di quark reali”. Contemporaneamente, George Zweig, allora giovane ricercatore del Cern, ebbe la stessa idea di Gell-Mann, e la rese pubblica in un rapporto interno del Cern del gennaio 1964. Per Zweig, però, le ipotetiche particelle con carica frazionaria (che aveva denominato aces, assi) non erano semplici costrutti formali, ma veri e propri “mattoni fondamentali”, oggetti realmente esistenti in natura. Era un’idea talmente ardita che Zweig non riuscì a fare pubblicare il suo lavoro su alcuna rivista.
    Le difficoltà incontrate da Zweig erano solo il riflesso delle difficoltà più generali con cui si scontravano, nel 1964, i tentativi di fondare una teoria delle interazioni tra particelle elementari sul modello dell’elettrodinamica quantistica (QED, dall’inglese Quantum ElectroDynamics), la teoria quantistica del campo elettromagnetico.
    b.
    Il decupletto barionico, costituito dalle particelle Δ, Σ*, Ξ* e Ω, quest’ultima scoperta nel 1964. Per ogni particella è indicata la composizione in quark up (u), down (d) e strange (s), mentre la griglia identifica carica e stranezza delle diverse particelle.
    Tra i numerosi problemi irrisolti, c’erano in particolare due ostacoli apparentemente insormontabili. Da un lato, per grandezze fisicamente osservabili, i calcoli fornivano valori infiniti (per la QED il problema era stato risolto con successo oltre un decennio prima). Dall’altro, le simmetrie su cui ci si aspettava che fossero basate le teorie delle interazioni fondamentali (le cosiddette simmetrie di gauge) richiedevano che le particelle mediatrici delle forze avessero massa nulla. Questa condizione è soddisfatta nella QED, dove il ruolo di mediatore è svolto dal fotone, ma appariva inconciliabile con le proprietà delle interazioni deboli e forti, la cui natura a corto raggio richiedeva la presenza di particelle mediatrici dotate di massa.

    Una soluzione sembrava quasi impossibile e, per un numero crescente di fisici, neanche più desiderabile. Il sostenitore più tenace di questo punto di vista era un altro degli autori dell’articolo di Scientific American, Geoffrey Chew. Nello scenario proposto da Chew nessuno degli adroni poteva essere considerato più “elementare” degli altri. Abbandonata l’idea di ricostruire le proprietà del mondo subnucleare a partire dalle relazioni tra pochi mattoni fondamentali, l’obiettivo che ci si proponeva era piuttosto quello di edificare uno schema coerente delle relazioni tra gli adroni, in cui ciascuna particella doveva la propria esistenza all’interazione con le altre particelle, senza alcuna struttura gerarchica, e dove tutti sono sullo stesso piano. Una “democrazia delle particelle” che ben si adattava al terreno di coltura della Berkeley della metà degli anni ’60, dove Chew lavorava e dove ben altri movimenti aspiravano a un allargamento della democrazia.

    È questo il programma di ricerca che domina il panorama della fisica delle particelle nel 1964 e negli anni seguenti. Ancora nel 1970, Chew affermava che “sarebbe una drammatica delusione se nel 1980 tutta la fisica degli adroni potesse essere spiegata in termini di poche entità arbitrarie”. Ma, proprio nei mesi precedenti, alcuni esperimenti all’acceleratore di Stanford (Slac), in California, avevano messo in luce la presenza di componenti elementari all’interno del protone, e un decennio dopo, non solo i quark erano riconosciuti come i costituenti elementari degli adroni, ma si disponeva anche di una teoria completa delle loro interazioni.


    c.
    Murray Gell-Mann in una foto del 1969, anno in cui è stato insignito del premio Nobel per la fisica per “il contributo alle scoper te inerenti la classificazione delle particelle elementari e delle loro interazioni”.
    Che la storia successiva abbia poi deluso le aspettative di Chew non deve impedire di riconoscere che, nel 1964, quelle aspettative erano legittime e largamente condivise. E questo aiuta a comprendere perché quelli che, a posteriori, ci appaiono come pezzi fondamentali della sintesi emersa con il modello standard, abbiano suscitato, al momento della loro prima apparizione, entusiasmi moderati, se non addirittura indifferenza.

    È quanto è accaduto ad altre due idee apparse per la prima volta nel 1964 senza produrre conseguenze di rilievo, e che si rivelarono invece due fondamentali punti di svolta quando vennero riprese pochi anni più tardi in un contesto modificato. Attratti dalla prospettiva di istituire una simmetria tra la famiglia degli adroni e quella dei leptoni, James Bjorken e Sheldon Glashow avanzarono l’ipotesi dell’esistenza di un quarto quark, che battezzarono charm, da aggiungere ai tre quark proposti da Gell-Mann (negli anni Settanta, furono poi introdotti il quinto e il sesto quark, il top e il bottom). Inoltre, per eliminare alcune difficoltà del modello a quark, fu introdotta più o meno contemporaneamente da Oscar Wallace “Wally” Greenberg, Moo-Young Han e Yoichiro Nambu un’ulteriore proprietà quantistica dei quark, denominata poi colore, che si sarebbe rivelata la chiave giusta per costruire la teoria fondamentale delle interazioni forti, la cromodinamica quantistica (Qcd, dall’inglese Quantum ChromoDynamics) (vd. A tinte forti, ndr).

    Intanto, un risultato sperimentale inatteso agitava il panorama della fisica delle interazioni deboli. Già nel 1957 era stato provato che nelle interazioni deboli era violata quella che sembrava essere una naturale simmetria, detta di parità. In termini grossolani, la natura sembrava distinguere tra destra e sinistra. Combinando però la parità P con la simmetria C, che sostituisce le particelle con le corrispondenti antiparticelle, si costruiva la simmetria CP che sembrava rispettata dalla natura. Ma nel giugno del 1964, gli esperimenti condotti dal gruppo di James Cronin e Val Fitch a Brookhaven stabilirono che anche la simmetria CP era, sia pure in piccola misura, violata (vd. Specchi imperfetti, ndr). Si proponeva nuovamente il problema della compatibilità tra i principi di simmetria richiesti dalle strutture teoriche e la loro violazione nei processi osservati in laboratorio.

    d.
    Uno degli autori dell’articolo su Scientific American, Geoffrey Chew.
    e.
    Il laboratorio di Brookhaven, dove James Cronin e Val Fitch scoprirono la violazione di CP nel 1964.
    La domanda al cuore del problema era: perché se le leggi generali della natura obbediscono a certe simmetrie, queste non sono rispettate dagli stati fisici particolari che sono effettivamente osservati? Quali sono i meccanismi che provocano la “rottura della simmetria”? Quest’ultimo aspetto era noto e studiato da tempo dalla fisica della materia, in particolare per spiegare la superconduttività. Uno dei teorici, attivo nell’intersezione tra fisica della materia e fisica delle particelle, era proprio Nambu, cui nell’estate del 1964 fu sottoposto dalla rivista Physical Review Letters un breve articolo, in cui si mostrava come il meccanismo detto di rottura spontanea di simmetria fosse rilevante per la fisica delle particelle elementari e come questo meccanismo conducesse ad assegnare una massa non nulla ai quanti del campo. Autore dell’articolo era un fisico teorico di Edinburgo, Peter Higgs. Negli stessi giorni la rivista aveva pubblicato un lavoro indipendente di due fisici belgi, Francois Englert e Robert Brout, che esponeva essenzialmente la stessa idea di Higgs. Non apparve subito chiaro, ma l’idea in questione era la risposta a uno dei problemi che affliggevano le teorie di gauge delle interazioni fondamentali, l’origine della massa delle particelle elementari e dei mediatori delle forze (vd. Rotture spontanee, ndr), premiata pochi mesi fa, nell'ottobre 2013, con il Nobel conferito a Peter Higgs e Francois Englert. E mentre la teoria dei campi faticava a dimostrare tutta la potenza che sarebbe emersa nei decenni successivi, altri fisici avevano continuato a scandagliare le implicazioni profonde della meccanica quantistica, una delle due grandi intuizioni degli inizi del 900 alla base della teoria dei campi, assieme alla relatività. La meccanica quantistica aveva implicazioni filosofiche che lasciavano perplessi molti. Già negli anni ’30, insieme a Boris Podolsky e Nathan Rosen, Albert Einstein aveva ideato un esperimento mentale, noto come paradosso Einstein-Podolsky-Rosen (Epr), che metteva in luce, a loro giudizio, la natura contraddittoria della meccanica quantistica.
    f.
    Il fisico John Bell che nel 1964 introdusse l’omonima disuguaglianza.
    Bisognava aspettare altri trent’anni di studi teorici perché, sempre nel 1964, John Bell formulasse la disuguaglianza omonima, che avrebbe permesso di dimostrare sperimentalmente, altri 20 anni dopo in modo definitivo, che non c’è nulla di paradossale nella meccanica quantistica.

    Un’altra affascinante ipotesi ha trovato conferma nel 1964. Sulla base di pochi indizi il fisico americano George Gamov, ultimo di una nutrita schiera di scienziati, aveva teorizzato l’esistenza di un momento iniziale dell’universo: ipotesi affascinante ma priva di una vera conferma sperimentale. Non è raro oggi incontrare bambini delle elementari affermare che “l’universo è nato dal Big Bang”. La loro sicurezza sfacciata e cristallina nasce proprio nei primi mesi del 1964, quando i radioastronomi Arno Penzias e Robert Wilson scoprono la radiazione di fondo cosmico, interpretata subito come la debole eco del Big Bang da cui tutto era nato 13 miliardi di anni fa (vd. in Asimmetrie n. 4 Lampi dal passato, ndr).

    La scoperta del Ω, della violazione CP e la conferma della teoria del Big Bang, sul terreno sperimentale, e l’invenzione dei quark, del charm e del colore e la formulazione del meccanismo di Higgs, sul piano teorico: con uno sguardo retrospettivo, è facile giustificare l’appellativo di annus mirabilis per la fisica delle particelle al 1964. Ma è altrettanto utile ricordare che, per l’appunto, di uno sguardo retrospettivo si tratta: parecchio tempo sarebbe passato prima che i pezzi del puzzle emergessero pienamente dalla grande confusione teorica e sperimentale del momento in cui furono proposti e trovassero il proprio posto in un quadro complessivo coerente del mondo particellare.

    Biografia
    Giovanni Battimelli è professore associato presso il Dipartimento di Fisica della Sapienza, Università di Roma, dove insegna storia della fisica. Ha fatto ricerca su vari aspetti della storia della fisica dell'Ottocento e Novecento, occupandosi in particolare delle vicende della fisica italiana dall’Unità ad oggi e curando la conservazione degli archivi personali di alcuni dei protagonisti di queste vicende.

     


    icon-pdf [scarica pdf]

     

    {jcomments on}

  • Una fabbrica di fascino e bellezza

    Una fabbrica di fascino e bellezza
    SuperB, un laboratorio italiano per il futuro.
    di Marcello Giorgi

    Oggi i grandi programmi sperimentali di fisica delle interazioni fondamentali hanno l'obiettivo di capire se le diverse teorie che descrivono i fenomeni fisici possano derivare da una teoria generale e unificatrice. Una teoria cioè che sia in grado di spiegare i meccanismi che stanno alla base dell'origine dell'universo. Il laboratorio ideale per ricreare le condizioni dei primi istanti di vita dell'universo, frazioni infinitesimali di tempo dopo l'attimo iniziale del Big Bang, sono le grandi macchine acceleratrici, come Lhc al Cern di Ginevra, in grado di produrre eventi rari e nuove particelle elementari. All'interno degli anelli degli acceleratori a fasci incrociati (i collisori), pacchetti di particelle circolano a velocità prossima a quella della luce in versi opposti. Queste particelle vengono fatte collidere in alcune regioni di incrocio, le zone di interazione. Nello scontro (che può avvenire tra elettroni e positroni, oppure tra protoni e protoni, o tra protoni e antiprotoni) si creano le condizioni per la produzione di particelle, che vengono viste e registrate nei rivelatori. I collisori sono le macchine ideali per gli studi delle interazioni fondamentali. Questi seguono principalmente due vie diverse ma complementari. La via classica è quella dell'altissima energia, utilizzata a Lhc, in modo da disporre nella collisione di protoni dell'energia sufficiente a creare nuove particelle di grande massa e studiarne la dinamica. La seconda via consiste invece nell'aumentare a bassa energia il numero di reazioni prodotte nell'unità di tempo in laboratorio.In questo modo, attraverso lo studio di processi estremamente rari di decadimento di particelle già note, si possono evidenziare piccolissimi effetti non previsti dalle teorie oggi universalmente accettate. Questa seconda via consente di raggiungere l'obiettivo a costi decisamente inferiori, a condizione di costruire un acceleratore, per esempio un collisore elettrone-antielettrone (e+ e-), in grado di raggiungere una luminosità (cioè la grandezza proporzionale alla frequenza delle collisioni) circa cento volte più elevata rispetto alle macchine attuali. Ma è necessario anche costruire rivelatori assai resistenti alle radiazioni e in grado di registrare eventi con frequenze cento volte più elevate rispetto agli apparati attuali. È questa la strada seguita nel progetto SuperB.

    a.
    Rappresentazione schematica dell'evoluzione dell'universo. SuperB riuscirà ad andare "indietro nel tempo", come Lhc. Se il punto di forza di Lhc è l'altissima energia a cui avvengono le collisioni, SuperB studierà eventi rarissimi grazie all'elevatissima luminosità che potrà raggiungere.

    Il programma completo di SuperB richiede alta luminosità, ma anche alta polarizzazione (80-90%) di un fascio, e possibilità di operare a energie diverse, inclusa la bassa energia, per produrre esclusivamente quark charm e leptoni tau. Pertanto SuperB, guardando a violazioni della simmetria CP e della conservazione del sapore leptonico, esplorerà i vari settori della fisica del sapore, un ambito di ricerca che ha ricevuto contributi fondamentali sia dal punto di vista teorico che sperimentale da parte dei fisici italiani. Nel suo complesso, SuperB, intesa come macchina acceleratrice e rivelatore, avrà la sensibilità sufficiente per garantire la misura di piccole asimmetrie nel decadimento di particelle instabili: leptoni pesanti come il tau e quark pesanti beauty e charm. Le asimmetrie che si intende misurare sono legate a piccole deviazioni da quanto previsto dalla teoria standard delle particelle elementari. SuperB ha questa capacità di scoperta come altri progetti scientifici di grande respiro, incluso il progetto di esperimento nella macchina giapponese SuperKekB. L'unicità di SuperB poggia su tre punti. Primo, una luminosità più elevata e aumentabile fino a un fattore quattro, che significa la possibilità di raccogliere un numero di eventi fino a cinque volte superiori a quello ottenibile ad esempio con SuperKekB. Secondo, la possibilità di avere fasci polarizzati, cioè con lo spin degli elettroni allineati lungo la direzione del moto delle particelle che collidono. Questa caratteristica, attraverso lo studio delle correlazioni delle particelle prodotte dopo la collisione, permette di studiare violazioni di simmetria e inoltre di eliminare parte di eventi non desiderati che possono mascherare piccoli effetti. Infine, la possibilità di variare l'energia dei fasci e arrivare a produrre coppie di mesoni con caratteristiche che consentano alla macchina di guadagnare ancora in sensibilità per lo studio della violazione della simmetria CP nel decadimento del quark charm. Il collisore ad alta luminosità SuperB, oltre al programma di fisica delle interazioni fondamentali, si presta a impieghi multidisciplinari con importanti ricadute nello sviluppo di nuove tecnologie. A questo proposito è evidente il ruolo importante che riveste la sinergia con i programmi dell'Istituto Italiano di Tecnologia (Iit). È infatti possibile, ad esempio, sfruttare l'acceleratore come sorgente di luce pulsata ad alta brillanza. La macchina sarà dotata di varie linee di luce per poterla così utilizzare anche nella scienza dei materiali e in applicazioni biotecnologiche. Ben al di là del normale tempo di vita di un acceleratore dedicato alla fisica fondamentale, che è solitamente dell'ordine di un decennio, è prevedibile che si possa impiegare SuperB come sorgente di luce per alcune decadi.
    b.
    In primo piano i magneti di Pep II, il collisore che era in funzione al laboratorio Slac di Stanford negli Stati Uniti. Questi magneti saranno impiegati per la costruzione di SuperB.
    Il programma di ricerca di SuperB richiede la minuziosa analisi di una quantità di eventi tale che il collisore elettrone-positrone più luminoso attualmente disponibile (KekB) impiegherebbe ben più di un secolo per fornirci la stessa messe di dati. Com'è possibile ottenere questo risultato con SuperB? Il tempo necessario per produrre un determinato numero di particelle in un collisore è inversamente proporzionale alla densità di ciascuno dei due pacchetti nel punto di collisione e alla frequenza con cui essi collidono. Dunque la ricetta per ridurre un'attesa secolare è di far collidere pacchetti di densità massima il più frequentemente possibile. La strada seguita nel progetto SuperB consiste nel ridurre considerevolmente le dimensioni dei pacchetti che nelle attuali B factories hanno lunghezza dell'ordine del centimetro, larghezza dell'ordine del decimo di millimetro e altezza dell'ordine di qualche millesimo di millimetro. La soluzione di SuperB è frutto del lavoro degli esperti dei vari laboratori, ma si basa su idee sviluppate soprattutto in Italia e sperimentate dalla divisione acceleratori dei Laboratori Nazionali di Frascati dell'Infn con l'acceleratore Dafne, come l'originale idea dell'incrocio ad angolo dei fasci (crab waist transformation), che costituisce uno dei punti di forza del progetto. Gli esperimenti e le simulazioni sin qui compiute mostrano che SuperB sarà in grado di soddisfare la richiesta della fisica e produrre 1.000 coppie di mesoni B, altrettante coppie di leptoni tau e diverse migliaia di mesoni D per ogni secondo di operazione a pieno regime. I ricercatori non dovranno attendere più di un secolo per accumulare il campione di SuperB, ma solo pochi anni. Il laboratorio di appoggio privilegiato per gli sviluppi e il lavoro preparatorio per SuperB è quello dei Laboratori Nazionali di Frascati, dove tradizionalmente si sono concentrate le attività di ricerca di fisica delle particelle elementari. Basti ricordare il sincrotrone, il primo esperimento di collisioni elettrone-positrone con il piccolo anello Ada a opera di Bruno Touschek, successivamente Adone e infine Dafne che ha prodotto interessanti risultati proprio per la fisica del sapore con l'esperimento Kloe. Un'impresa basata su una concentrazione così elevata di tecnologie avanzate come quelle richieste per la realizzazione della macchina, dei rivelatori, dell'elettronica e dei mezzi informatici necessari alla digestione dei dati avrà certamente una ricaduta positiva sulle imprese italiane. E costituisce anche uno stimolo forte per il miglioramento delle loro capacità di innovazione. L'esperimento SuperB, con una presenza costante di oltre duecento collaboratori stranieri, oltre a un flusso di visitatori valutabili in cinquecento scienziati all'anno, si propone come il luogo ideale per la formazione di personale tecnico-scientifico di alto livello e come un'opportunità di prestigio internazionale per la ricerca scientifica italiana.

    Biografia
    Marcello Giorgi è ricercatore dell'Infn e professore all'Università di Pisa. Ha lavorato all'esperimento Aleph al Cern e ha diretto l'esperimento Babar allo Slac (USA). Ora guida la collaborazione internazionale del progetto SuperB.

     

    Link
    http://web.infn.it/superb/
    http://www.kek.jp/intra-e/feature/2009/SuperKEKB.html

     

    icon-pdf [scarica pdf]



    {jcomments on}

 ©asimmetrie   Istituto Nazionale di Fisica Nucleare / via E. Fermi 40 / 00044 Frascati [Roma] Italia
Ufficio Comunicazione INFN / P.zza dei Caprettari 70 / 00186 Roma Italia
Registrazione del Tribunale di Roma n. 336/2012 del 7 dicembre 2012
powered by Multimedia Service e INFN-LNF servizio di calcolo
Informativa sulla Privacy e Cookie Policy