rivelatori

  • [as] illuminazioni
    Particelle nella nebbia.

    Al termine di ogni lezione gli studenti mi fanno sempre la stessa domanda: “Come si possono vedere le particelle?”. Sembra strano, ma per riuscire a “vederle”, basta entrare in un negozio di casalinghi! Qui, infatti, è possibile trovare buona parte del materiale necessario per costruire una camera a nebbia: uno strumento che permette di rivelare le tracce dei raggi cosmici, che continuamente “piovono” sulla Terra, provenienti dalle regioni più remote dell’universo. Una camera a nebbia non è altro che una scatola ben chiusa, contenente vapore di alcool sovra-saturo, tanto concentrato da essere pronto a condensarsi non appena interviene qualcosa a cambiare le sue condizioni. Ecco perché quando il rivelatore è attraversato dalle particelle cosmiche, che sono elettricamente cariche, il vapore di alcool condensa in minutissime goccioline. La traccia delle particelle diventa così subito visibile sotto forma di una lunga e sottile nuvoletta bianca, che si dissolve nel giro di uno, due secondi. Costruire una camera a nebbia non è difficile ed è poco costoso.
    a.
    A livello microscopico accade che le particelle cariche, attraversando il vapore, lo ionizzano: cioè, passando vicino alle molecole, sottraggono loro gli elettroni più esterni, caricandole così elettricamente. Le molecole cariche attirano quelle vicine (come fa una biro strofinata su un maglione di lana su dei pezzettini di carta), aumentando così la loro densità, proprio nel punto in cui è passata la particella carica. Questo fa sì che le molecole si uniscano tra loro, provocando la transizione da vapore a liquido e la formazione delle goccioline lungo tutto il percorso della particella all’interno della camera a nebbia.
    Ci servono:

    - un contenitore trasparente, come una ciotola di plastica dalle pareti lisce, di circa trenta centimetri di diametro
    - due vaschette d’alluminio, di quelle usa e getta, abbastanza grandi da contenere la ciotola capovolta
    - un mattoncino di spugna per fiorista (servirà come serbatoio per l’alcool)
    - alcool isopropilico necessario per creare il vapore all’interno dello strumento
    - abbastanza ghiaccio secco da riempire una vaschetta (un paio di chili)
    - un tubetto di silicone e nastro isolante per assemblare le diverse parti
    - forbici per tagliare uno dei contenitori di alluminio
    - un chiodo per forare il fondo della ciotola

    - un accendino per scaldare il chiodo e fondere la plastica

    - pinze per manipolare il chiodo quando è caldo

    - una siringa per iniettare l’alcool nel contenitore
    - una lampada da tavolo per illuminare la camera
    - guanti per criogenia, per maneggiare il ghiaccio secco o, in alternativa, guanti da forno

    - un cartoncino nero di almeno 50x50 cm

     

    Eccoci pronti per il montaggio:

     

    1. Ritagliamo la spugna per fioristi ricavandone un blocchetto alto tre dita, la cui superficie si adatti al fondo della ciotola (un cubetto di 5x5 cm di base dovrebbe andare bene).

    2. Dopo aver pulito la ciotola con della carta da cucina asciutta (senza usare prodotti detergenti), con il silicone incolliamo sul fondo il blocchetto di spugna appena ricavato e aspettiamo che il silicone si asciughi.

    3. Dal fondo di una delle due vaschette d’alluminio ritagliamo un disco più ampio del diametro del nostro contenitore trasparente, che fisseremo con il nastro isolante all’imboccatura della ciotola, per chiuderla bene. Questa operazione va fatta lavorando in un ambiente pulito e con poca umidità.

    4. Scaldiamo il chiodo, tenuto con le pinze, con un accendino e, con la punta sufficientemente calda, facciamo uno o due piccoli fori sul fondo della ciotola in corrispondenza della spugna.
    5. Attraverso il foro introduciamo l’alcool con la siringa: per una spugna di 5x5 cm di base dovrebbero essere sufficienti 150 ml di alcool. Il foro sarà utile anche per rifornire lo strumento, se necessario, senza essere costretti ad aprirlo.

    6. La spugna va imbevuta per bene, ma non troppo: bisogna evitare che l’alcool cominci a gocciolare.
    7. Per mettere lo strumento in funzione si deve favorire la condensazione dei vapori di alcool che si liberano dalla spugna e riempiono il volume della ciotola. Per farlo, disponiamo la ciotola, capovolta, sopra uno strato di ghiaccio secco versato nel secondo vassoio e aspettiamo qualche minuto.

    8. Per verificare se la camera è pronta, proviamo a picchiettare delicatamente in corrispondenza della spugna. Si provoca così la caduta di qualche goccia di alcool che, a contatto con il fondo freddo, forma − quando la camera è pronta − una bella nuvola bianca a forma di anello, che si allarga e scompare rapidamente.
    9. Per vedere bene le tracce delle particelle cosmiche bisogna stare al buio, illuminando la camera di lato con una lampada da tavolo e disponendo un fondo nero dalla parte opposta rispetto a quella dalla quale si guarda.
    Dove trovare i materiali necessari:

    - Possiamo acquistare la spugna da fiorista presso un qualsiasi vivaio.
    - Procurarsi l’alcool isopropilico può non essere facilissimo, non perché sia merce rara, ma perché è venduto con nomi commerciali diversi. Lo si può trovare nei negozi di componenti elettronici, di modellismo, in farmacia, in ferramenta, in un colorificio e talvolta al supermercato. Noi l’abbiamo trovato da un restauratore di mobili (5 litri costano 20 euro).
    - Il ghiaccio secco si trova in laboratori specializzati, che trovate su Internet, in qualche gelateria ben fornita o nei laboratori di analisi cliniche, al prezzo di un paio d’euro al chilo.

     

     

    Attenzione!
    Il ghiaccio secco va maneggiato usando guanti adeguati e occhiali di protezione. Facendo la dovuta attenzione al posto dei guanti speciali si possono usare comuni presine, ma bisogna stare attenti a non versarsi il ghiaccio addosso.

    Se qualcosa non va…:
    Se all’inizio non riuscite a vedere nessuna traccia, non vi scoraggiate. Smontate, pulite tutto e ricostruite il rivelatore. Se vedete una sottile pioggerellina all’interno della camera significa che avete messo troppo alcool. Può succedere anche che ce ne sia troppo poco e che non si riescano a creare le condizioni di saturazione necessarie a visualizzare le tracce. Anche l’eccessiva umidità è da evitare (quando possibile). Con un po’ di pazienza il successo è assicurato.
    Alcune tracce, che si vedono con una frequenza dell’ordine di una al minuto, possono essere davvero spettacolari!
    [Giovanni Organtini]

    Pensate che sia difficile?Allora guardate questo video, realizzato dagli studenti del Liceo Virgilio di Roma che, seguendo le istruzioni sopra riportate, hanno realizzato in poche ore e da soli due camere a nebbia perfettamente funzionanti. Nella prima parte del video si vedono le fasi della costruzione, mentre nella seconda si possono ammirare numerose tracce lasciate dai raggi cosmici nello strumento.

    {jcomments on}

  • [as] illuminazioni
    Rivelatori fai da te.


    Assemblare a scuola o a casa un vero rivelatore di particelle con tanto di sistema di acquisizione, come quelli funzionanti in questi giorni al Cern di Ginevra, può diventare un gioco da ragazzi. Questo grazie alla scheda Arduino Shield “Ardusipm”, sviluppata per esigenze sperimentali reali nella sezione di Roma dell’Infn, e al suo software. Con materiali reperibili in rete è possibile costruire un rivelatore di particelle con annessa elettronica e sistema di acquisizione dati, che nulla ha da invidiare ai suoi fratelli maggiori funzionanti in Lhc (vd. in Asimmetrie n. 8 p. 24, ndr). Il progetto proposto può essere realizzato usando un Arduino Due, una piattaforma elettronica open-source pensata per chiunque voglia sviluppare progetti interattivi. Sono necessari soltanto altri tre componenti: un Ardusipm, un fotomoltiplicatore e uno scintillatore. I dati raccolti da uno o più rivelatori potranno essere condivisi tramite wi-fi su una piattaforma social visibile su internet o visualizzati da uno smartphone, un tablet o un Pc. Vediamo in dettaglio di che cosa si tratta. Uno dei compiti principali dei rivelatori di particelle è registrare il passaggio di particelle, come elettroni, muoni, fotoni ecc. Tra i sistemi di rivelazione possibili è stato scelto quello che utilizza la proprietà di alcuni materiali di scintillare, ossia di emettere deboli quantità di luce quando vengono attraversati dalle particelle. La luce emessa viene convertita in segnale elettrico tramite un fotomoltiplicatore. I fotomoltiplicatori, ancora in uso, sono oggetti costosi costituiti da un tubo di vetro fragile e ingombrante e che per funzionare hanno bisogno di tensioni di qualche migliaio di Volt. Grazie all’evoluzione tecnologica alla fine degli anni ’90 sono stati sviluppati dei fotomoltiplicatori a stato solido, chiamati Sipm (Silicon Photo Multiplier), molto più piccoli dei loro progenitori (appena qualche millimetro), che funzionano con tensioni di poche decine di Volt e che costano qualche decina di euro (a confronto delle migliaia di euro di quelli tradizionali). L’esperimento che vi proponiamo è di accoppiare un Sipm a uno scintillatore, e “osservare” la luce prodotta al passaggio dei raggi cosmici, particelle cariche – principalmente muoni – che raggiungono continuamente la Terra. Niente vieta, utilizzando scintillatori opportuni, di rivelare altre particelle come fotoni gamma o neutroni prodotti dalla radioattività ambientale o artificiale, trasformando il sistema in un rivelatore di radiazioni nucleari. In sintesi, il sistema sopra descritto consente di avere uno strumento compatto, non fragile, con bassi consumi e che non necessita di un computer sempre acceso per funzionare. La struttura proposta replica in piccola scala tutte le componenti degli “esperimenti veri”. [Valerio Bocci]
     
    Istruzioni per l'acquisto dei materiali e il montaggio del rivelatore di particelle:
     

    {jcomments on}

  • A caccia di raggi cosmici nella Pampa
    Una rete di rivelatori su un territorio grande più di trenta volte la città di Firenze.
    di Giorgio Matthiae e Francesca Scianitti

    Malargüe, Argentina. Sull'altipiano Pampa Amarilla, a 1.400 metri di quota, migliaia di occhi sono in allerta. Osservano i raggi cosmici che inondano la Terra a energie anche mille volte più alte di quelle degli acceleratori più potenti del mondo, prodotti da eventi cosmici di proporzioni inimmaginabili. Il clima secco e temperato, il cielo libero, l'atmosfera rarefatta, l'inquinamento luminoso pressoché assente fanno di questo luogo a ridosso delle Ande un punto d'osservazione ideale. Distribuiti su 3.000 chilometri quadrati di terreno pianeggiante, gli occhi volti a cielo sono i rivelatori di Auger, il più grande osservatorio per raggi cosmici di altissima energia mai realizzato e il più imponente esperimento di fisica delle astroparticelle oggi esistente.
    Le particelle e i fotoni che bombardano ininterrottamente la Terra sono originati da fenomeni relativamente ordinari nel complesso degli avvenimenti cosmici. Ma ognuno di questi eventi, per noi invisibili e silenziosi, ha dimensioni colossali e libera enormi quantità di materia e di energia, di particelle e radiazione.
    Le energie dei raggi cosmici possono variare moltissimo, raggiungendo anche valori superiori a centinaia di miliardi di miliardi di elettronvolt. I più energetici raggiungono l'atmosfera a velocità molto vicine alla velocità della luce, accelerati da meccanismi naturali di cui sappiamo ancora molto poco. E non sappiamo molto sull'origine dei raggi cosmici. A causa della carica elettrica, infatti, le particelle cosmiche sono soggette a numerose interazioni e deviazioni, dovute ai campi magnetici galattici ed extragalattici, che rendono difficile identificare il luogo che le ha generate. Queste deviazioni, tuttavia, sono importanti per i raggi cosmici di energia più bassa, ma hanno effetti più limitati sul percorso dei raggi cosmici di altissima energia. È quindi possibile, in questo secondo caso, risalire alla direzione di provenienza e ottenere preziose informazioni sulla sorgente che li ha emessi.

    a.
    Mappa del sito occupato da Auger, nella provincia argentina di Mendoza. Lo sciame cosmico che investe il territorio è visto dai rivelatori di superficie sottostanti e dai quattro telescopi a fluorescenza di Auger. Ogni telescopio registra la crescita e lo sviluppo dello sciame, fatto di miliardi di particelle secondarie.

    b.
    Uno dei 1.600 rivelatori di superficie di Auger, nella pampa argentina. Ogni rivelatore è dotato di antenna per la trasmissione dei dati ed è autoalimentato grazie alle batterie e ai pannelli solari.

    In prossimità della superficie terrestre, le informazioni portate dai raggi cosmici sono mediate dall'intervento dell'atmosfera. I raggi cosmici primari, infatti, perdono buona parte della loro energia nell'interazione con i nuclei dell'atmosfera, dando luogo a nuove particelle in un processo a cascata che si propaga verso terra lungo traiettorie ramificate, a formare un vero e proprio sciame di raggi cosmici secondari.
    Una prolifica fase di ricerca sulle proprietà di questi fenomeni a cascata seguì, alla fine degli anni '20, la scoperta degli sciami atmosferici da parte del fisico francese Pierre Auger. Fu subito chiaro, infatti, che lo studio degli sciami secondari avrebbe permesso di risalire alle caratteristiche dei raggi cosmici primari di alta energia. I rivelatori estesi per sciami atmosferici, come quelli dell'esperimento Auger, rivelano particelle secondarie in numero proporzionale all'energia del raggio cosmico primario e i rari raggi cosmici di altissima energia sono in grado di produrre particelle secondarie in numero elevatissimo. L'osservatorio Auger è dedicato proprio allo studio dei raggi cosmici di altissima energia, al limite superiore dello spettro.

    c.
    Rappresentazione artistica della rivelazione di uno sciame cosmico da parte dei rivelatori di superficie di Auger.

    Il sistema di rivelazione di Auger è di tipo "ibrido" perché comprende rivelatori di diversa natura. È costituito, infatti, dalla combinazione di rivelatori "di superficie" (figg. b, c, f) e di telescopi a fluorescenza (figg. d, e). I primi, 1.600 taniche d'acqua a 1,5 chilometri l'una dall'altra, osservano il fronte dello sciame di raggi cosmici quando colpisce la superficie terrestre, rivelando e contando le particelle prodotte al livello del suolo. I 24 telescopi distribuiti intorno ai rivelatori di superficie, d'altra parte, raccolgono i lampi di luce di fluorescenza prodotti nell'aria dalle particelle cariche dello sciame, osservandone così lo sviluppo longitudinale, lungo la direzione di provenienza. I rivelatori di superficie devono il loro funzionamento al fenomeno fisico che si manifesta quando una particella carica attraversa un mezzo materiale – l'acqua, nel caso di Auger – a velocità sufficientemente alta.

    d.
    Schema di uno dei 24 telescopi di fluorescenza di Auger.

    1. specchio sferico;
    2. fotocamera PMT;
    3. diaframma;
    4. filtro;
    5. otturatore.

    È l'effetto Cherenkov: un lampo di luce ultravioletta prodotto dal passaggio di particelle cariche nel liquido, a una velocità superiore a quella della luce nello stesso mezzo. La luce Cherenkov è dunque una sorta di "onda d'urto"che i rivelatori possono raccogliere grazie ai fotomoltiplicatori di cui sono dotati.
    Nel caso dei telescopi, invece, il mezzo usato per la rivelazione è l'atmosfera stessa, i cui atomi emettono luce ultravioletta al passaggio dello sciame, per un effetto di fluorescenza. Nell'attraversare l'atmosfera, infatti, le particelle cariche dello sciame eccitano le molecole di azoto che, tornando allo "stato fondamentale", emettono luce ultravioletta. Grazie a entrambi questi metodi di rivelazione i ricercatori possono ottenere le informazioni necessarie a ricostruire l'energia e la direzione con la quale i raggi cosmici sono pervenuti fino alla Terra, con una precisione molto superiore rispetto a precedenti esperimenti. Questo consente di formulare ipotesi sulla natura delle sorgenti di raggi cosmici di alta energia e sui meccanismi con cui essi sono accelerati alle enormi energie con cui raggiungono l'atmosfera terrestre.

    [as] approfondimento
    L'effetto Cherenkov


    Nell'immagine a sinistra, un aereo supersonico crea al suo passaggio un cono d'aria condensata: l'effetto è dovuto all'onda d'urto generata dal moto dell'aereo in aria a una velocità superiore alla velocità del suono. Nella figura di destra è rappresentato l'effetto Cherenkov dovuto al passaggio di una particella carica in un mezzo materiale, come l'acqua, a una velocità superiore alla velocità della luce nello stesso mezzo. È mostrato in particolare l'istante t in cui la particella si trova nella posizione P4. Il cono di luce che segue la particella è dovuto all'inviluppo delle onde elettromagnetiche emesse ad ogni passo precedente: all'istante t i diversi fronti d'onda sferici si sovrappongono a formare un cono. L'apertura del cono Cherenkov dipende dalla velocità della particella e dall'indice di rifrazione dell'acqua, n (in un mezzo con indice di rifrazione n, infatti, la velocità della luce si riduce al valore c/n). I due fenomeni sono accumunati dal fatto che l'aereo e la particella viaggiano a una velocità superiore a quella con cui si trasmette il segnale generato dal loro passaggio: l'onda sonora nel caso dell'aereo che rompe la barriera del suono, e l'onda elettromagnetica per la particella. "Superando" il segnale, l'aereo e la particella provocano un effetto d'urto che si manifesta in un caso, come una vera e propria onda d'urto, mentre nel caso della particella il moto provoca un flash ultravioletto, la luce Cherenkov.

    In funzione già da diversi anni, Auger ha raggiunto il massimo potenziale operativo con tutta la rete di rivelatori attivi nell'autunno dello scorso anno. I primi risultati sono stati pubblicati nel 2007 e hanno permesso di ottenere preziose informazioni sulle proprietà delle particelle di altissima energia. In particolare, l'andamento del flusso dei raggi cosmici in funzione dell'energia mostra una "caviglia", cioè una variazione netta di andamento, in corrispondenza dell'energia di 4x1018 eV.

    e.
    Uno dei quattro edifici contenenti ciascuno 6 dei 24 telescopi a fluorescenza. I quattro edifici si trovano sul perimetro della zona occupata dall’intera rete di rivelatori di Auger.

    Questa struttura è probabilmente collegata al passaggio, a energie elevate, da particelle di origine galattica a particelle di origine extragalattica (fig. h). I ricercatori impegnati in Auger hanno potuto inoltre confermare l'evidenza di un calo nel flusso dei raggi cosmici alle più alte energie.

    f.
    Uno dei rivelatori di superficie o tank. La tank è un contenitore di plastica riempito di acqua dove le particelle cariche dello sciame (elettroni, positroni e muoni) producono luce Cherenkov rivelata da tre fotomoltiplicatori (PMTs). L’analisi dei segnali è fatta in loco e i dati sono trasmessi via radio al sistema di acquisizione dell’Osservatorio. La sincronizzazione delle diverse tank avviene mediante il sistema Gps.

     

    1. antenna Gps;
    2. antenna per la comunicazione;
    3. elettronica;
    4. pannello solare;
    5. fotomoltiplicatori;
    6. contenitore di plastica;
    7. batteria

    g.
    L’Osservatorio Pierre Auger, a cui l’Argentina ha anche dedicato un francobollo, è stato progettato e realizzato da una vasta collaborazione internazionale che include più di 70 enti di ricerca da Argentina, Australia, Bolivia, Brasile, Repubblica ceca, Francia, Germania, Italia, Messico, Paesi Bassi, Polonia, Portogallo, Slovenia, Spagna, Regno Unito, Usa e Vietnam.

    Questa diminuzione sembrerebbe consistente con l'idea che attraversando lo spazio extragalattico, i raggi cosmici interagiscano con i fotoni del fondo cosmico a microonde (Cmb, Cosmic Microwave Background) – la radiazione residua del Big Bang – perdendo parte della loro energia. L'interazione dei raggi cosmici con il fondo a microonde fu prevista teoricamente dallo scienziato americano Kenneth Greisen e dai sovietici Georgiy Zatsepin e Vadim Kuz'min, nel 1966, e si manifesta con un calo netto di flusso nella distribuzione energetica (taglio Gzk) per energie superiori a circa 4x1019 eV. Se dotati di energia sufficientemente elevata, infatti, i protoni possono interagire con i fotoni della radiazione cosmica di fondo, producendo pioni e perdendo quindi parte della loro energia iniziale. L'effetto Gzk pone così un limite all'energia massima dei raggi cosmici provenienti da altre galassie e osservabili sulla Terra. Se l'osservazione del taglio Gzk costituisce già di per sé un'indicazione del fatto che i raggi cosmici rivelati al limite dello spettro di energia sono di origine extragalattica, gli scienziati della collaborazione Auger stanno ora cercando di identificare le sorgenti: le galassie, cioè, in cui queste particelle sono generate. Lo studio è eseguito confrontando le direzioni dei raggi cosmici misurate a terra con la posizione nella sfera celeste delle galassie riportate nei cataloghi oggi disponibili, in particolare con i cataloghi di galassie con nuclei attivi (Agn, Active Galactic Nuclei). Al loro centro, queste galassie mostrano una regione compatta caratterizzata da un'elevata emissione di radiazione, estesa su tutto lo spettro elettromagnetico, dalle onde radio ai più energetici raggi gamma. Si ritiene che il fenomeno sia dovuto al processo di accrescimento di un buco nero al centro della galassia, che inglobando materia produrrebbe intensi getti di radiazione elettromagnetica. A causa del taglio Gzk, i raggi cosmici che raggiungono la Terra a energie molto elevate non possono avere percorso distanze eccessive. Per questo, le possibili sorgenti di raggi cosmici di altissima energia possono essere individuate solo tra le galassie Agn più vicine, con distanze dell'ordine di circa 300 milioni di anni luce. Entro queste distanze la distribuzione spaziale della materia extragalattica, in particolare delle galassie Agn, è molto disomogenea.

    h.
    Flusso dei raggi cosmici primari, provenienti dallo spazio esterno alla Terra, in funzione dell'energia E. Nella regione ad alta energia sono rilevanti i dati dell'esperimento HiRes e quelli più recenti di Auger. È anche riportata per confronto l'energia ottenibile con gli acceleratori Lhc, al Cern, e Tevatron negli Stati Uniti, per le collisione tra protoni. Ad alta energia sono chiaramente visibili: - una variazione della pendenza all'energia di circa 4x1018 eV, chiamata caviglia (ankle, ininglese); - una forte riduzione dell'intensità per energie superiori a circa 4x1019 eV, chiamata taglio Gzk.

    i.
    Si ritiene che tra le sorgenti più probabili di raggi cosmici di alta energia vi siano le galassie con nuclei attivi, regioni compatte al centro della galassia caratterizzate da un’elevata emissione di radiazione, dovuta con buona probabilità al processo di accrescimento di un buco nero.

    l.
    Mappa del cielo in coordinate galattiche. I 58 eventi dell’Osservatorio Auger con energia superiore a 5,5x1019 eV sono rappresentati con punti neri, mentre con diverse gradazioni dal giallo al rosso è rappresentata la densità di galassie Agn dal catalogo Swift-Bat, entro una distanza di circa 600 milioni di anni luce. Si nota una concentrazione di eventi nella zona ad alta densità di galassie (marrone scuro).

    La collaborazione Auger ha confrontato le direzioni osservate dei raggi cosmici di alta energia con la distribuzione delle galassie Agn emettitrici di raggi X, classificate in base ai dati del satellite Swift della Nasa – una collaborazione, alla quale partecipano anche Italia e Regno Unito, che studia l'origine dei gamma ray burst e l'Universo lontano (fig. l). Il catalogo Swift-Bat (Burst Alert Telescope di Swift) mostra una correlazione con gli eventi di alta energia di Auger, che sono difatti localizzati preferenzialmente nella regione della sfera celeste dove è presente una maggiore densità di galassie. A causa dello scarso numero di eventi osservati fino a oggi, questa osservazione non può essere conclusiva, ma dà una forte indicazione sulla provenienza dei raggi cosmici di alta energia da particolari tipi di galassie.

     

    Biografia
    Giorgio Matthiae è professore del Dipartimento di Fisica dell'Università di Roma Tor Vergata. Partecipa all'esperimento Auger dal 1998 e dal 2007 è responsabile internazionale della collaborazione.

     

    Link
    www.auger.org

    http://auger-ed.lngs.infn.it/ED/

    www.phys.psu.edu/~coutu/Auger_Google_Earth.htm


     

    icon-pdf [scarica pdf]



    {jcomments on}

     

  • Dall’11 al 13 marzo i ricercatori Infn che lavorano agli esperimenti di Lhc si incontrano alla Fondazione Bruno Kesslera Povo (Trento), per discutere i progetti di potenziamento dei rivelatori di Lhc, in vista della ripartenza dell’acceleratore e dell’aumento della luminosità istantanea. In particolare, a Trento si discuteranno i progetti di Ricerca e Sviluppo per la realizzazione di tracciatori, calorimetri, sistemi per muoni con associata elettronica, trigger e sistemi per l’acquisizione e il calcolo dati. Al workshop partecipano anche rappresentanti delle aziende coinvolte nelle attività di R&D al fine di promuovere l’interscambio con l’industria anche nell’ambito del programma europeo Horizon2020. Nei prossimi dieci anni, il Large Hadron Collider raggiungerà progressivamente una luminosità istantanea fino a cinque volte superiore a quella di disegno, accumulando una statistica dieci volte superiore a quella raccolta . "L’esplorazione al Lhc è solo all’inizio – spiega Anna Di Ciaccio, rappresentante Infn dell’esperimento Atlas – stiamo già adesso lavorando al potenziamento dei nostri rivelatori per essere pronti a riprendere dati nel 2015 con un’energia di Lhc quasi raddoppiata e dare la caccia a nuove particelle previste dalla maggior parte dei modelli di estensione del Modello Standard"."Il programma di fisica ad alta luminosità (Hl-Lhc) è considerato di primaria importanza nella Strategia Europea per la fisica delle particelle e deve essere inteso come il motore per sviluppo di tecnologie d'avanguardia", commenta Nadia Pastrone, rappresentante Infn dell’esperimento Cms. [Eleonora Cossi]

  • Canto a due voci
    Dual, cilindri concentrici che vibrano al passaggio dell'onda.
    di Massimo Cerdonio Chiaromonte

    Durante la loro vita, stelle di neutroni e buchi neri “stellari” vibrano violentemente, generando onde gravitazionali a frequenze del kHz e superiori. Rivelarle ci permetterebbe di sondare in modo diretto la dinamica di regimi estremi della materia che non sarebbero altrimenti osservabili. L’interesse per tali onde quindi è forte, ma la loro rivelazione si presenta più che mai difficile: al crescere della frequenza oltre il kHz, infatti, decrescono sia le ampiezze dei segnali attesi, sia le sensibilità dei grandi interferometri. Le barre, invece, sarebbero più sensibili, ma solo su una esigua banda di frequenze. Per migliorare le loro prestazioni, quindi, dovremmo “accorciare” un interferometro

    perché non perda sensibilità oltre il kHz, e rendere “a banda larga” una barra. Il rivelatore criogenico Dual, di cui è stato recentemente proposto il progetto, soddisfa ambedue queste richieste.
    a.
    Schema concettuale di un rivelatore Dual realizzato con cilindri concentrici.
    b.
    Deformazione indotta da un’onda gravitazionale diretta lungo l’asse.

    Il principio di funzionamento di Dual si basa essenzialmente su due cilindri concentrici, che vibrano al passaggio di un’onda gravitazionale. Se i due cilindri hanno una dimensione dell’ordine del metro (che implica una massa di alcune tonnellate), quello esterno risuona a una frequenza di circa 1 kHz e quello interno a circa 5 kHz. Sollecitati da onde gravitazionali con una frequenza all’interno di questa banda, i due cilindri rispondono vibrando in controfase, poiché il primo è sollecitato sopra la sua frequenza di risonanza e il secondo sotto: in sostanza, quando quello esterno tende a dilatarsi, l’altro tende a comprimersi e viceversa. L’intercapedine tra i due cilindri così si deforma massimamente. Dalla misura di questa deformazione, possiamo risalire all’ampiezza dell’onda gravitazionale che ha attraversato Dual. Dobbiamo però essere in grado di selezionare, tra le vibrazioni, quelle compatibili con un’onda gravitazionale da quelle che possono essere prodotte da altre sollecitazioni.
    I sensori (ottici o di altro tipo) disposti a croce sono in grado di farlo perché riescono a misurare la differenza di deformazione tra i due bracci della croce.
    Per ogni sensore c’è però un prezzo da pagare,che ne stabilisce il limite. Esso consiste nel cosiddetto “rumore di ritorno” prodotto dalla “forza di ritorno” esercitata dallo stesso sensore.
    Se usiamo come sensori delle cavità ottiche “riempite” di luce, incastonate nell’intercapedine, i fotoni al loro interno esercitano una pressione sulle sue pareti. Poiché il numero dei fotoni non è costante nel tempo, la pressione che essi esercitano varia, modificando la deformazione dell’intercapedine. Questa fluttuazione determina appunto il rumore di ritorno, che “inquina” la misura. Il caso di Dual è però speciale: nella banda utile di frequenza, che ha come limiti le frequenze di risonanza dei due cilindri (1 kHz e 5 kHz), poiché essi rispondono in controfase alle sollecitazioni esterne, la deformazione dovuta ad una pressione nell’intercapedine è minima. In conclusione, per “effetto Dual”, nella banda utile il segnale è massimo e il rumore di ritorno è minimo. Usando come sensori di deformazione cavità ottiche di Fabry-Pérot “corte” (di circa 1 cm), ma estremamente riflettenti e con pochissime perdite di luce dovute ad assorbimento e diffusione (per conservare all’interno della cavità la luce necessaria alla misura il più a lungo possibile), la sensibilità di Dual si manterrebbe costante su tutta la larga banda utile e sarebbe migliore rispetto a quella degli interferometri, anche nella loro versione “avanzata”.
    Al momento è in corso una intensa attività di ricerca e sviluppo da parte di gruppi dell’Infn rivolta a scegliere la configurazione ottimale di Dual (esso equivale a due interferometri messia 45°), allo studio delle cavità ottiche, dei laser e del materiale adatto per i cilindri.

    Biografia
    Massimo Cerdonio ha iniziato con Edoardo Amaldi circa 40 anni fa a sviluppare rivelatori di onde gravitazionali a barra criogenica risonante. Dal 1990 è responsabile nazionale Infn dell’esperimento Auriga. È responsabile nazionale Infn di Dual per la ricerca e lo sviluppo dell’esperimento.

     

    Link
    http://www.dual.lnl.infn.it/
    http://igec.lnl.infn.it/

     

    icon-pdf [scarica pdf]



    {jcomments on}

  • L’esperimento Cuore (acronimo per Cryogenic Underground Observatory for Rare Events) che si trova ai Laboratori Nazionali del Gran Sasso (Lngs) dell’Istituto Nazionale di Fisica Nucleare ha completato l’installazione delle 19 "torri" che compongono il rivelatore. L’operazione, delicatissima e di estrema precisione, ha richiesto la collaborazione di un team di scienziati, ingegneri e tecnici e si è conclusa il 26 agosto.

    “Tutte le 19 torri che costituiscono il rivelatore, composto da 988 cristalli di ossido di tellurio e con un peso di quasi 750 kg, sono ora sospese al punto più freddo del criostato dell'esperimento, “ commenta Oliviero Cremonesi, spokesperson dell'esperimento . “Ora la collaborazione si sta preparando per gli ultimi ritocchi al sistema per poi procedere, nei prossimi mesi, alla chiusura del criostato, al suo raffreddamento e all'inizio delle operazioni scientifiche”. Cuore è un esperimento ideato per studiare le proprietà dei neutrini. In particolare, l’esperimento cerca un fenomeno raro chiamato doppio decadimento beta senza emissione di neutrini (vd. in Asimmetrie n. 14 Con passo leggero, ndr). Rivelare questo processo consentirebbe, non solo di determinare la massa dei neutrini, ma anche di dimostrare la loro eventuale natura di particelle di Majorana fornendo una possibile spiegazione alla prevalenza della materia sull’antimateria nell’universo. L’esperimento è una collaborazione internazionale formata da circa 157 scienziati provenienti da trenta istituzioni in Italia, Usa, Cina e Francia. Per l’Infn partecipano le sezioni di Bologna, Genova, Milano Bicocca, Padova e Roma oltre ai Laboratori Nazionali di Frascati, Gran Sasso e Legnaro. (Photo credit: Yury Suvorov/ Ucla, Lngs; and Cuore Collaboration). [Eleonora Cossi]

  • kloeSi conclude oggi, 30 marzo, la fase di presa dati dell’esperimento Kloe-2, rivelatore dell’acceleratore Dafne dei Laboratori Nazionali di Frascati dell’Infn, tra gli esperimenti più importanti dei Lnf. Kloe-2 ha avuto come principali obiettivi lo studio degli spettacolari fenomeni di interferenza quantistica dei mesoni K neutri e lo studio ad altissima precisione delle proprietà intrinseche delle particelle di materia (kaone) rispetto a quelle di antimateria (anti-kaone). 

    Con oggi l’esperimento Kloe-2 ha completato la seconda fase di presa dati (chiamata in gergo run) e grazie all’eccellente lavoro del team di macchina di Dafne, che ha  sperimentato in questi anni una tecnica innovativa ideata per aumentare la luminosità chiamata “crab-waist”, è riuscito ad acquisire più di 5 Femtobarn inversi di luminosità, corrispondente a circa 15 miliardi di mesoni  prodotti.

    “Kloe ha rappresentato molto per Frascati e per la fisica delle particelle dell’Infn”, sottolinea il direttore dei Lnf, Pierluigi Campana. Nel prossimo futuro ci attendendo sfide altrettanto ambiziose. Tra pochi mesi comincerà la presa dati di Padme, dedicato alla ricerca del fotone oscuro ed entro il 2018 verrà installato l’esperimento Siddarta2, che studierà le interazioni forti e la struttura energetica del nucleo attraverso l’impianto di una particella K nel nucleo atomico del deuterio. [Eleonora Cossi]

    Immagine: KLOE - Joseph Paul Boccio, la foto ha vinto l’edizione del concorso internazionale Photowalk 2012.

  • I giganti a caccia
    Due enormi esperimenti sono pronti nel sottosuolo di Ginevra.
    di Maria Curatolo

    a.
    Visione del calorimetro di Atlas nel luglio del 2007. Sono visibili le otto bobine del magnete toroidale che circondano il calorimetro.

    Scoprire il bosone di Higgs è uno degli scopi principali del Large Hadron Collider (Lhc) e, in particolare, dei due esperimenti Atlas (A Toroidal LHC ApparatuS) e Cms (Compact Muon Solenoid).
    Questa particella, che riveste un ruolo molto importante nei meccanismi della natura descritti dall’attuale teoria delle particelle elementari (il Modello Standard), è stata già cercata, ma nessuno l’ha mai potuta osservare sperimentalmente. Il Modello Standard non fissa il valore della massa del bosone di Higgs, ma indica per essa soltanto un intervallo piuttosto ampio di valori possibili. Gli esperimenti finora effettuati, pur consentendo di stabilire che essa deve avere un valore contenuto tra poco più di 100 GeV/c2 e 1.000 GeV/c2, non hanno esplorato questo intervallo di valori nella sua totalità.
    L’acceleratore Lhc e gli esperimenti Atlas e Cms sono stati progettati e realizzati in modo da garantire che l’Higgs possa essere scoperto ovunque sia posizionata la sua massa in tale intervallo. E nel caso in cui non venisse scoperto, i fisici dovrebbero sviluppare una teoria completamente nuova per spiegare l’origine delle masse delle particelle.
    Avere due esperimenti, progettati indipendentemente e capaci di effettuare le stesse misure, è di cruciale importanza per una reciproca conferma dei risultati ottenuti. Questo è ancora più importante nel caso delle altre nuove scoperte che si attendono a Lhc. L’Infn partecipa a entrambi gli esperimenti con due grossi gruppi di circa 200 ricercatori e ha dato un contributo molto rilevante sia nella progettazione degli apparati sperimentali che nell’assunzione di responsabilità per la loro costruzione, coinvolgendo l’industria nazionale nelle fasi di disegno e di realizzazione. Sia Atlas che Cms sono due rivelatori di particelle, ossia degli esperimenti atti a “vedere” (rivelare) le particelle che si producono nello scontro frontale di due fasci circolanti nel tunnel di Lhc. Tutti i moderni apparati sperimentali operanti presso collisionatori di particelle sono costituiti di strati di sotto-rivelatori, ciascuno specializzato per rivelare un particolare tipo di particella o una sua particolare proprietà. I principali tipi di sotto-rivelatori utilizzati sono i rivelatori di tracce (o tracciatori), che “vedono” il percorso delle particelle cariche, i calorimetri, che misurano l’energia delle particelle, e i rivelatori per l’identificazione del tipo di particella. Altre componenti molto importanti, che costituiscono parti fondamentali di questo tipo di apparati, sono i magneti. Le particelle cariche che attraversano un campo magnetico assumono una traiettoria curva, e dalla curvatura si può risalire all’impulso (il prodotto di massa e velocità) della particella e alla sua carica elettrica.
    Atlas e Cms sono entrambi costituiti da sotto-rivelatori con le funzionalità sopra descritte. Le scelte costruttive sono il risultato di un intenso programma di ricerca e sviluppo per conseguire le migliori caratteristiche e i progetti e le soluzioni tecniche adottate nei due esperimenti, in alcuni casi, sono simili, in altri completamente diversi.

    b.
    Una vista dall’alto del percorso sotterraneo del tunnel di Lhc nei pressi della città di Ginevra, in Svizzera. Il tunnel ha una circonferenza di 27 km. Nella foto è indicata l’ubicazione dei due esperimenti Atlas e Cms.

    In particolare, i sistemi magnetici adottati sono l’esempio di una scelta molto differente. Una inconfondibile caratteristica di Atlas, infatti, è il suo enorme sistema magnetico. Esso consiste di otto avvolgimenti di cavo superconduttore a forma rettangolare, percorsi da elevate correnti, lunghi ben 25 m, alti circa 5 m e sistemati a raggiera attorno alla linea dei fasci. Al loro interno si genera un campo magnetico toroidale(così detto perchè il volume magnetizzato ha la forma di un anello cilindrico), nel quale sono disposti rivelatori in grado di “tracciare” le particelle. Una importante caratteristica di questo magnete è di poter essere usato per la misura di precisione dei muoni in modo autonomo, anche senza l’ausilio di altre parti dell’apparato. Infatti, l’assenza di ferro che elimina il limite dovuto allo scattering multiplo (piccole deviazioni, dovute all’interazione con la materia, che perturbano la traiettoria “ideale” delle particelle) e la grande estensione del campo magnetico consentono una misura dell’impulso con ottima precisione. Altri due magneti toroidali forniscono in Atlas il campo magnetico necessario alla misura delle particelle prodotte con un angolo piccolo rispetto alla linea dei fasci collidenti. Per la misura dell’impulso delle particelle cariche nel tracciatore interno è utilizzato un solenoide superconduttore che fornisce un campo magnetico di intensità pari a 2 Tesla: un valore 50.000 volte più intenso del campo magnetico terrestre.

    c.
    Schema dell’esperimento Atlas (in alto) e del campo magnetico di Atlas (in basso). Atlas, con la sua lunghezza di 46 m, un’altezza di 25 m e una larghezza di 25 m (si confronti con la dimensione delle persone disegnate nello schema), è il più grande rivelatore mai costruito. Il suo peso ammonta a ben 7.000 tonnellate.

    Il sistema magnetico di Cms, invece, è costituito da un solo grande solenoide superconduttore. Esso fornisce al suo interno un campo magnetico molto intenso (di 4 tesla) nel quale sono immersi il tracciatore interno e i calorimetri. La struttura del magnete comprende inoltre quattro cilindri di materiale ferromagnetico posti all’esterno del solenoide e concentrici con esso. Tra tali strati sono posizionati i rivelatori di muoni. Nel caso di Cms, la precisione di misura dell’impulso dei muoni viene ottenuta combinando l’informazione delle tracce dei rivelatori per muoni con quella del tracciatore interno vicino al punto di collisione tra i fasci.
    Mentre i sistemi magnetici dei due esperimenti sono così differenti, le tecnologie utilizzate per la realizzazione dei rivelatori di muoni sono le stesse: per esempio, nella regione centrale sono utilizzati rivelatori a gas a deriva di carica per la misura di precisione delle tracce e i cosiddetti Resistive Plate Chambers, rivelatori con un’ottima risoluzione temporale (ovvero la capacità di distinguere due segnali che si susseguono a brevissimo intervallo di tempo, misurabile in miliardesimi di secondo).
    Atlas e Cms hanno scelto di realizzare calorimetri elettromagnetici (per misure di energia di elettroni, positroni e fotoni) di grande precisione, per avere la possibilità di rivelare un eventuale Higgs “leggero” (con massa dell’ordine di un centinaio di volte quella del protone!) che decada in due fotoni, ma hanno adottato tecniche diverse per la loro realizzazione.

    d.
    Schema dell’esperimento Cms (fig. e) e del campo magnetico di Cms. Cms (dimensioni: 21x15x15 m), pur essendo un rivelatore più piccolo di Atlas, pesa ben 12.500 tonnellate, quindi quasi il doppio. In particolare, il magnete soleinodale di Cms è il più grande mai costruito al mondo.

    Atlas ha sviluppato un calorimetro elettromagnetico ad argon liquido e piombo di nuova concezione, con una geometria a “fisarmonica” che consente una buona uniformità e risoluzione spaziale. Esso individua, cioè, con buona precisione il punto di impatto del fotone o dell’elettrone sul calorimetro. Cms, invece, ha adottato un calorimetro elettromagnetico a cristalli di tungstato di piombo (PbWO4). I cristalli che lo compongono hanno prestazioni eccezionali in termini di risoluzione intrinseca, migliore di quella di Atlas.
    Le soluzioni adottate per la misura di energia delle particelle sensibili alle interazioni forti, come protoni e pioni, nel settore centrale (la cosiddetta calorimetria adronica) sono invece simili per Atlas e Cms. La scelta è caduta per entrambi gli esperimenti su calorimetri a lastre di scintillatore, formate da un materiale plastico che emette luce se attraversato da particelle cariche e alternate ad assorbitori, che inducono la produzione a valanga delle particelle secondarie, tanto più abbondante quanto maggiore è l’energia della particella iniziale. Anche per il tracciatore interno sono state scelte soluzioni molto simili: strati sovrapposti di rivelatori al silicio, con una suddivisione estremamente elevata (80 milioni di celle solo per il rivelatore a pixel di Atlas), per permettere la misura di precisione dell’impulso delle particelle cariche e misurare i vertici secondari, ossia determinare dove avvengono i decadimenti delle particelle a vita media lunga (dell’ordine del millesimo di miliardesimo di secondo!), come lo sono ad esempio alcune particelle contenenti il quark b (b come beauty, uno dei sei tipi di quark). Il tracciatore interno di Atlas contiene inoltre un rivelatore a gas, il cosiddetto Transition Radiation Tracker, che ha la capacità di identificare gli elettroni mediante i raggi X, che solo essi generano in questo rivelatore.

    e.
    Installazione, nel gennaio del 2007, di una parte dell’apparato di Cms nella caverna che alloggia l’esperimento. Queste operazioni sono state molto delicate, dato che le dimensioni dei pezzi calati corrispondevano quasi esattamente a quelle del foro attraverso cui venivano posizionati nella caverna. La caverna di Cms si trova a 100 m di profondità.

    Il fatto che l’intensità del campo magnetico nel tracciatore interno sia maggiore in Cms che in Atlas, fornisce a Cms una precisione maggiore nella misura del momento della particella.
    Grazie dunque alle prestazioni di Lhc e degli apparati Atlas e Cms, siamo pronti a osservare l’Higgs qualunque sia la sua massa nell’intervallo in cui se ne sospetta l’esistenza. L’osservazione da parte di entrambi gli esperimenti di altri processi estremamente rari e difficili da individuare sarà un elemento di conferma importante delle scoperte che Lhc potrà offrire. Lhc e gli esperimenti Atlas e Cms possono fornire risposte a quesiti fondamentali sulle leggi e sui costituenti della natura ed esplorare una nuova frontiera di energia, alla ricerca di fenomeni inaspettati di Nuova Fisica.

    Biografia
    Maria Curatolo è ricercatrice presso i Laboratori Nazionali di Frascati dell’Infn. Attualmente è responsabile nazionale dell’esperimento Atlas, al quale ha partecipato fin dalle prime fasi di progettazione circa 15 anni fa. Ha contribuito alla progettazione e realizzazione dello spettrometro per muoni di Atlas.

     

    Link
    http://atlas.ch/
    http://cms.cern.ch/
    http://web.infn.it/cms
    http://www.youtube.com/cern

     

    {jcomments on}

  • Bocci BRUXELLESAnche l’Infn è in questi giorni allo Square Meeting Centre di Bruxelles, per la #Makerstown, un’occasione di confronto tra i protagonisti della tradizione manifatturiera europea, promossa dalla Commissione Europea e da Maker Faire Rome, di cui l’Infn è partner dal 2015. Primo evento del suo genere a Bruxelles, #Makerstown riunisce esperti del Do-It-Yourself, imprenditori e decisori politici europei, allo scopo di mostrare, condividere e creare occasioni di impresa in settori che vanno dalla stampa 3D, alla robotica, dalla tecnologia indossabile alle nuove Tecnologie dell’Informazione e della Comunicazione (Tic), dal cibo alla moda, anche grazie alla condivisione di idee e strumenti web 3.0, tecnologie e metodologie per il crowdfunding. Selezionati lo scorso anno tra i primi 50 migliori maker della Maker Faire Rome 2015, i ricercatori dell’Infn Valerio Bocci e Francesco Iacoangeli hanno presentato a #Makerstown un rivelatore di raggi cosmici (vd. anche [as] illuminazioni: Rivelatori fai da te.) e uno scanner per fasci di particelle accelerate, realizzati con software e scheda Arduino Shield “Ardusipm” e sviluppati a scopo di ricerca dalla sezione di Roma1 dell’Infn. “Il rivelatore di particelle home-made non ha nulla da invidiare ai suoi fratelli maggiori, utilizzati ad esempio nell’acceleratore Lhc, al Cern, per lo studio delle collisioni tra particelle ad altissima energia”, spiega Valerio Bocci, “mentre il bassissimo costo di realizzazione lo rende adatto a numerose applicazioni di tipo didattico.” I maker dell’Infn sono stati inoltre selezionati tra gli 8 (sui 45 presenti) che nell’ambito di #Makerstown presenteranno il loro progetto il 31 maggio al Parlamento Europeo. L’iniziativa #Makerstown è organizzata dal Wilfried Martens Centre for European Studies e da Think Young, organismo per la promozione della cultura di impresa in Europa. [Francesca Scianitti]

     

    Maggiori informazioni: http://europeanmakerweek.eu/eu-maker-faire/

  • INFN Asimmetrie19 pag16 img1Il kit per costruire il rivelatore di particelle fai da te, presentato in Asimmetrie n. 19 (vd. qui), da oggi, è acquistabile online a questo link. L’acquisto permette di ricevere a casa tutto il necessario per costruire un rivelatore di particelle da connettere al proprio computer, tablet o smartphone, con cui “osservare” la luce prodotta al passaggio dei raggi cosmici. Il rivelatore che si ottiene non ha nulla da invidiare ai suoi fratelli maggiori, utilizzati ad esempio nell’acceleratore Lhc, al Cern di Ginevra. Il basso costo di realizzazione, inoltre, lo rende adatto a numerose applicazioni di tipo didattico. Il rivelatore fai da te, presentato dal suo ideatore Valerio Bocci, assieme ai collaboratori, alla Maker Faire nello scorso ottobre, è realizzabile grazie alla scheda Arduino Shield “Ardusipm”, sviluppata per esigenze sperimentali reali nella sezione di Roma dell’Infn, e al suo software. Per facilitare gli utenti meno esperti, il kit contiene anche un Arduino Due già pre-programmato. È stato creato anche un gruppo, sempre online (vd. qui), in cui tutti gli utenti o i semplici curiosi possono scambiarsi opinioni e utili informazioni per la sua costruzione. [Catia Peduto]

     

    Per acquistare il kit: http://www.robot-domestici.it/joomla/component/virtuemart/Arduino/13176-sistema-di-misura-ardusipm-shield-kit 

     

    Istruzioni di montaggio: http://www.asimmetrie.it/images/19/pdf/as-illuminazioni_rivelatori_fai_da_te_istruzioni.pdf 

     

    Link all’articolo di Valerio Bocci su Asimmetrie n. 19: http://www.asimmetrie.it/index.php/as-illuminazioni-rivelatori-fai-da-te 

  • ixpe 340x240Si chiama Ixpe (Imaging X-Ray Polarimetry Explorer) e sarà una missione, cui l’Italia partecipa con l’Infn e l'Istituto Nazionale di Astrofisica (Inaf), con il coordinamento dell’Agenzia Spaziale Italiana (Asi), dedicata completamente allo studio della polarimetria X di sorgenti celesti, come buchi neri, stelle di neutroni, magnetar, pulsar, e allo studio di effetti di fisica fondamentale in ambienti estremi, come la gravità quantistica, la birifrangenza del vuoto e la manifestazione di nuove particelle esotiche come le axion like particles (Alp) (vd. Lo zoo oscuro, ndr). La Nasa ha approvato il progetto Ixpe come la prossima missione spaziale del programma Explorer. La data di lancio prevista è per la fine del 2020.

    Il cuore di Ixpe sarà costruito attorno a innovativi rivelatori per raggi X sensibili alla polarizzazione, inventati, sviluppati e portati alla qualificazione spaziale all'interno dell’Infn in collaborazione con l’Inaf e con il supporto dell'Asi, che metterà anche a disposizione la sua base di Malindi per la ricezione dei dati. In particolare, tre dei rivelatori di Ixpe verranno posizionati al fuoco di tre telescopi per raggi X alloggiati all'interno del satellite. I rivelatori (gas pixel detectors) saranno realizzati sotto la responsabilità di gruppi Infn delle sezioni di Pisa e Torino.

    “Penso possiamo essere tutti giustamente orgogliosi di aver introdotto e sviluppato una nuova tecnologia di rivelazione destinata ad aprire una nuova finestra osservativa sull'universo”, commenta Ronaldo Bellazzini, della sezione Infn di Pisa, co-responsabile italiano del progetto e ideatore del concetto dei gas pixel detectors. È solo dopo l'introduzione di questi rivelatori che è stato finalmente possibile trasformare in realtà quello che fino ad allora era rimasto un sogno irrealizzato di tutta l'astrofisica e fisica astroparticellare delle alte energie. Il gas pixel detector è il primo rivelatore capace di misurare contemporaneamente tutte le proprietà trasportate dai fotoni X emessi da sorgenti celesti. È, infatti, in grado di misurare la direzione di arrivo del fotone (quindi la posizione della sorgente), la sua energia, il tempo di arrivo e, per la prima volta, anche la direzione del campo elettrico associato al fotone assorbito dal rivelatore. Misurando la direzione del campo elettrico di un numero adeguato di fotoni emessi da una sorgente X sarà quindi possibile per la prima volta misurare con grande efficienza e sensibilità la polarizzazione della radiazione emessa dalla sorgente. La misura della polarizzazione fornisce informazioni uniche e finora inaccessibili sulla geometria delle distribuzioni di massa e dei campi della sorgente stessa.

    “Sono molto contento che si stia concretizzando una missione pensata già molti anni fa da Enrico Costa dell’Inaf con il contributo decisivo di Ronaldo Bellazzini dell’Infn, che permetterà finalmente di aprire una nuova finestra nell’astronomia dei raggi X”, commenta Paolo Soffitta, a capo del team che coordina le attività di Ixpe per l’Inaf. [Antonella Varaschin]

  • makerfair2L’Infn partecipa all’edizione 2016 di Maker Faire l’appuntamento dedicato a innovazione e tecnologia dove maker e appassionati si incontrano per presentare i propri progetti e condividere le proprie conoscenze e scoperte. Maker Faire si svolge a Roma da venerdì 14 a domenica 16 ottobre e l’Infn partecipa con quattro appuntamenti.

    Si comincia domani, venerdì 14 ottobre alle 11:00, con la conferenza “L'X Factor delle grandi scoperte della Fisica Moderna” di e con Catalina Curceanu, fisica dei Laboratori Nazionali di Frascati al Padiglione 9, Room 11.

     

    Link: http://explore.makerfairerome.eu/evento/Event_525

     

    Nel padiglione Università (P.6), presso lo stand Infn, i ricercatori dell’Infn presentano due progetti costruiti da un team di maker capitanati da Valerio Bocci e Francesco Iacoangeli, della sezione Infn di Roma1: un rivelatore di particelle fai da te e uno scanner per fasci di particelle home made. Entrambe le invenzioni sono realizzate con software e scheda “Ardusipm”, sviluppati a scopo di ricerca dalla sezione di Roma dell’Infn.

     

    Link: http://explore.makerfairerome.eu/poi/Exhibit_5962 

     

    Per approfondire: http://www.asimmetrie.it/index.php/as-illuminazioni-rivelatori-fai-da-te 

     

    Oltre a presentare il lavoro dei suoi maker, nella Kids Area è allestita l’installazione “il tappeto gravitazionale” dedicata alla sperimentazione e alla visualizzazione delle onde gravitazionali e della forza di attrazione gravitazionale e realizzata dall’associazione DiScienza in collaborazione con l’Infn.

     

    Link: http://www.makerfairerome.eu/it/area-kids/ 

     

    Maker Faire Rome – The European Edition è promossa dalla Camera di Commercio di Roma e organizzata dalla sua Azienda speciale Innova Camera. La manifestazione si svolge alla Fiera di Roma dal 14 al 16 ottobre. Per l’edizione 2016 sono stati selezionati 700 progetti su 1500 ed è stata allestita un’area espositiva di oltre 55mila mq. [Eleonora Cossi]

     

    Sito web: http://www.makerfairerome.eu/it/ 

     

  • L’assedio all’Higgs
    Una sfida che continua da un quarto di secolo, dal Lep a Lhc.
    di Chiara Mariotti

    a.
    Due ingegneri controllano uno dei 1.232 magneti dipolari distribuiti lungo il tunnel di Lhc che fino al 2000 ospitava il suo precursore, il Lep (Large Electron-Positron Collider). Il tunnel si trova a 100 m di profondità sotto la periferia della città di Ginevra, alla frontiera tra Svizzera e Francia.

    Il 10 settembre 2008 è stata una giornata memorabile. Il Cern è entrato in una nuova era di scoperte scientifiche: un fascio di protoni ha circolato nei due anelli di Lhc, il Large Hadron Collider, facendo il giro completo del più grande acceleratore al mondo.
    È stato un momento di grande emozione seguito dalle televisioni di tutto il mondo. Un successo non solo per chi ha lavorato nella messa a punto dell’acceleratore, ma anche per i ricercatori che lavorano negli esperimenti che misureranno cosa accadrà quando i due fasci di protoni accelerati da Lhc si scontreranno.
    Tra i quattro esperimenti che compongono Lhc, Atlas (A Toroidal LHC ApparatuS) e Cms (Compact Muon Solenoid) hanno come scopo primario quello di capire l’origine della massa delle particelle, ovvero scoprire se il bosone di Higgs esista o meno. Saranno questi due esperimenti che finalmente, dopo quasi 40 anni di ricerche, riusciranno a dare una risposta definitiva all’enigma della massa.
    Studiando la struttura interna del mondo in questi ultimi decenni, siamo riusciti a raffigurarlo come costituito da particelle fondamentali (i leptoni e i quark – facenti parte della più vasta famiglia dei fermioni), che interagiscono tra loro scambiandosi energia e impulso tramite altre particelle (i bosoni). Il bosone di Higgs è la particella che corrisponde a una nuova interazione che spiega l’origine della massa.

    Si può anche immaginare l’Higgs come un “etere”, o una melassa, presente ovunque e in cui le particelle non si possono muovere alla velocità della luce, ma si muovono faticosamente con una certa inerzia, acquistando così massa. La teoria che descrive le particelle e le loro interazioni è il Modello Standard. Nel Modello Standard la massa del bosone di Higgs non è predetta esattamente, ma è prevista essere inferiore a 1.000 GeV/c2 (equivalente a circa 10-21 grammi, ossia un millesimo di miliardesimo di miliardesimo di grammo, cioè pari alla massa di ben mille protoni).
    L’esperimento Gargamelle al Cern nel 1973, la scoperta dei bosoni W e Z sempre al Cern nel 1983 (che hanno valso il premio Nobel a Carlo Rubbia), i quattro esperimenti al Lep (l’acceleratore precedente a Lhc, ospitato al Cern) e infine gli esperimenti al Tevatron (l’acceleratore di protoni e anti-protoni) al Fermilab (Fermi National Accelerator Laboratory), nei pressi di Chicago, hanno confermato il successo del Modello Standard. L’unico mattone mancante è proprio il bosone di Higgs, che finora è stato cercato senza successo. D’altronde l’energia degli acceleratori costruiti fino ad ora non consentiva l’esplorazione dell’intera regione di massa permessa dalla teoria. Solo Lhc potrà farlo, perché raggiungerà energie elevate (14 TeV, ovvero 14.000 GeV) potendo dunque produrre un Higgs anche di massa pari a 1.000 GeV/c2, il limite superiore consentito dalla teoria.
    L’Higgs è una particella che si disintegra (“decade”) immediatamente dopo la sua creazione, producendo una coppia di fermioni o di bosoni (W e Z o fotoni). Anche i bosoni W e Z a loro volta decadono immediatamente in coppie di fermioni. Quello che dunque si cerca negli esperimenti sono le particelle provenienti dalla disintegrazione del bosone di Higgs. Queste particelle sopravvissute hanno caratteristiche simili a quelle che vengono prodotte da altri fenomeni dovuti alle collisioni ma, se ne ricostruiamo la massa totale, essa corrisponderà alla massa dell’Higgs. È dunque necessario accumulare un campione statistico sufficiente a osservare un picco nella distribuzione della massa misurata delle particelle prodotte. Sarà come cercare una montagna (il segnale) che spicca tra un profilo di colline (il fondo), e tutto dipende da quanto sono alte le colline e la montagna, ovvero da quanti eventi di Higgs si riuscirà a produrre e identificare.

    b.
    Se l’Higgs avesse una massa di 250 GeV/c2, dopo un anno di presa dati si otterrebbe un diagramma della distribuzione della massa misurata simile a quello riportato in figura. In blu si vedono gli eventi che potrebbero essere interpretati come segnali di Higgs ma non lo sono (il rumore di fondo). Si vede come il segnale spicca intorno ai 250 GeV/c2 (in rosso), ovvero che gli eventi ricostruiti che provengono da un Higgs, si accumulano a un particolare valore della massa. Il segnale è molto pulito perché il picco rosso è stretto e ben visibile e il fondo blu è abbastanza regolare e mai troppo alto. Sono questi gli eventi che si spera di osservare in Atlas e Cms per la scoperta dell’Higgs!

    Al Lep, l’acceleratore precedente a Lhc, gli urti avvenivano tra due particelle elementari (elettroni e positroni). Poiché la semplicità dello stato iniziale (un elettrone e un positrone, particelle puntiformi e prive di struttura) viene trasmessa allo stato finale, se l’Higgs avesse avuto una massa accessibile al Lep, la composizione degli eventi sarebbe stata molto semplice, includendo solamente l’Higgs e un bosone Z, che a loro volta decadono in due particelle ciascuno. Lo stato finale al Lep, dopo i decadimenti, sarebbe stato dunque formato da solo 4 particelle (leptoni o quark). Le caratteristiche degli eventi attesi erano semplici, come mostrato in fig. c. Le efficienze previste erano alte. L’Higgs sarebbe stato individuato anche se ci si aspettava la produzione di solo una decina di eventi. I quattro esperimenti al Lep (Aleph, Delphi, L3 e Opal) hanno disperatamente cercato l’evidenza di produzione del bosone di Higgs senza trovarne traccia.
    Gli ultimi mesi di presa dati al Lep nell’anno 2000, quando l’energia raggiunse il massimo possibile, videro un vero assedio al bosone di Higgs. I fisici sperimentali erano incollati ai terminali; telefonarsi in piena notte era normale perché tutti sapevano di essere svegli a cercare di migliorare le analisi, cercando di riuscire a estrarre dai dati tutte le informazioni possibili per capire se effettivamente si stava producendo l’Higgs o se sfortunatamente non era alla portata del Lep e si poteva dunque fermare la macchina per lasciare il futuro a Lhc. Erano giorni in cui una sana competizione animava i fisici delle varie collaborazioni per assicurarsi di essere i primi a rivelarlo, ma nello stesso tempo si lavorava insieme perché più passava il tempo più diventava evidente che il campione statistico del singolo esperimento non sarebbe stato sufficiente ed era necessario mettere insieme i vari risultati.
    Alla fine del 2000, ovvero con la fine del Lep, combinando i risultati dei quattro esperimenti e non avendo nessuna evidenza di produzione di segnale, si ottenne un limite inferiore sulla sua massa di 114,3 GeV/c2, il che significa che la massa di questa particella, se esistente, deve essere superiore a questo valore.
    A quel punto il testimone passò agli acceleratori adronici, nei quali si scontrano adroni (protoni in Lhc) e non più leptoni. Nel 2001 il Tevatron, l’acceleratore del Fermilab di Chicago, inaugurò una nuova era con collisioni di protone-antiprotone a 1,96 TeV (1.960 GeV), aprendo la strada verso nuove masse ancora inesplorate.
    I due esperimenti al Tevatron (Cdf e DZero) da anni lavorano accanitamente per riuscire a estrarre un possibile segnale di Higgs. I ricercatori si aspettano di raccogliere circa 250 candidati di Higgs, nel caso la sua massa sia compresa tra i 110 e i 180 GeV/c2. Gli eventi aspettati sono molti, ma la ricerca in un acceleratore adronico è molto più ardua rispetto a quella in uno leptonico (come lo era il Lep), perché gli urti avvengono tra due particelle composte (protoni e anti-protoni sono adroni, ovvero particelle composte da quark e gluoni). Lo stato finale è dunque complesso, perché coesistono tutti i prodotti degli urti dei vari gluoni e quark appartenenti ai due adroni iniziali. Il numero di particelle nello stato finale è molto alto (si hanno un centinaio di particelle prodotte per ogni evento), e dunque individuare tra queste i prodotti del decadimento dell’Higgs è un’impresa non facile.
    Per la ricerca di particelle di massa ignota, nonostante lo stato finale sia più complesso, un collisionatore adronico è preferibile a un collisionatore leptonico perché si possono raggiungere energie molto più alte (nello stesso anello che è usato da Lhc si acceleravano elettroni fino ad energie di 100 GeV, mentre in Lhc si accelereranno protoni a 7.000 GeV). Inoltre l’urto avviene tra quark e/o gluoni che trasportano una frazione variabile dell’energia del protone, permettendo di esplorare uno spettro di masse molto ampio.

    c.
    Un evento osservato nell’esperimento Delphi del Lep. L’elettrone e il positrone incidenti hanno interagito e prodotto 2 bosoni nello stato finale. Questi a loro volta decadono in 2 quark ciascuno, che a loro volta producono un jet ciascuno. Un jet è un insieme di particelle che hanno la stessa origine e sono racchiuse in un cono con uno stretto angolo di apertura. La massa può essere determinata dalle variabili cinematiche (in questo caso l’energia) dei due jet di decadimento. Se si associa il jet 1 al jet 2 e il jet 3 al jet 4, si risale alla produzione di due bosoni Z. Viceversa, se si sceglie l’accoppiamento del jet 1 con il 4 e il 2 con il 3, si ha un bosone Z e un candidato di Higgs di massa 113 GeV. L’analisi su eventi simulati, tuttavia, determinava che questo evento era compatibile con la produzione di due bosoni Z e che quindi, probabilmente, non si era prodotto un bosone di Higgs.
    d.
    Questa figura illustra cosa ci si aspetta di vedere in un evento di Higgs che decade in 4 muoni in Atlas. I 4 muoni attraversano tutto il rivelatore e sono tracce abbastanza dritte in quanto hanno un impulso alto. Tutte le altre tracce prodotte dall’interazione tra gli altri quark e gluoni hanno un impulso minore e dunque hanno una grande curvatura oppure “spiraleggiano” nell’intenso campo magnetico.

    I fisici al Tevatron sono partiti verso una nuova frontiera e stanno spingendo al limite le loro analisi per riuscire a identificare la frazione più alta possibile di queste centinaia di eventi di Higgs aspettati tra i milioni di altri eventi prodotti.
    Il quadro sperimentale è in continua evoluzione: proprio l’estate scorsa dal Tevatron è arrivata la notizia che i loro dati escludono che l’Higgs abbia una massa di circa 170 GeV/c2. La prima metà dei dati analizzata sembra non indicare la presenza dell’Higgs in tutta la zona in cui sono sensibili, ma i risultati non sono ancora conclusivi.
    Questo ha delle ripercussioni sullo stato d’animo dei fisici del Cern. Da un lato si attendono con ansia i risultati del Tevatron e la curiosità scientifica è insopprimibile: l’Higgs esiste davvero oppure è un’altro il meccanismo che dà origine alla massa delle particelle? D’altro canto, il senso di competizione è forte e si spera che sia il Cern a vivere questo momento glorioso e determinante per la fisica delle particelle.
    A partire dal prossimo autunno Lhc inizierà a far collidere i fasci. Ci saranno ben 40 milioni di collisioni dei fasci al secondo, producendo circa un’interazione tra protone e protone ogni miliardesimo di secondo. Valori da record per un acceleratore di particelle!
    L’Higgs resta un “prodotto” raro, dato che potrà essere creato solo ogni miliardo di eventi. Nonostante il fondo (ovvero gli eventi che potrebbero essere interpretati come segnali di Higgs ma non lo sono) sia dominante, la quantità enorme di eventi che produrrà Lhc permetterà di affinare la selezione e scoprire se esiste l’Higgs in tutto lo spettro di masse permesso dalla teoria. Saranno prodotti a sufficienza anche stati finali molto facilmente riconoscibili, per esempio quelli con 4 leptoni (muoni oppure elettroni) ad alto impulso e ben isolati dal resto delle altre particelle prodotte.
    In Lhc i due esperimenti dedicati alla ricerca dell’Higgs (Atlas e Cms) gareggeranno in una olimpiade scientifica per chi potrà affermare per primo di aver visto l’Higgs.
    Bisognerà sedersi insieme poi e combinare le misure per ottimizzare le potenzialità di scoperta. Purtroppo non accadrà di “scoprire” un evento di Higgs al primo scontro dei fasci, ci vorrà molto lavoro e tempo per raggiungere la convinzione scientifica della scoperta.

    Biografia
    Chiara Mariotti è ricercatrice Infn presso la sezione di Torino. Ha svolto attività di ricerca in fisica delle alte energie al Fermilab e al Cern. Ha coordinato per 10 anni il gruppo di fisica dell’esperimento Delphi del Lep e attualmente coordina il gruppo che ricerca il bosone di Higgs all’esperimento Cms di Lhc.

     

    Link
    http://www.cern.ch/
    http://public.web.cern.ch/Public/en/Science/Higgs-en.html
    http://lepewwg.web.cern.ch/LEPEWWG
    http://arxiv.org/pdf/0902.0293

     

    {jcomments on}

  • La febbre dell’energia
    Calorimetri e bolometri per rivelare particelle

    di Ezio Previtali

    a.
    Otto “supermoduli” del calorimetro elettromagnetico dell’esperimento Cms, al Cern, durante l’installazione nell’apparato nel 2007.
    Può sembrare difficile da comprendere, ma ogni secondo migliaia di particelle prodotte dalla radioattività o dai raggi cosmici interagiscono con il nostro corpo e in esso rilasciano tutta o parte della loro energia: ma noi non ce ne accorgiamo. Nessuno dei nostri sensi è in grado di rivelare la presenza di tali particelle e tanto meno di misurare quanta energia sia stata da esse rilasciata nel nostro organismo. Questo fatto si spiega facilmente, se si considera che sommando l’energia rilasciata da tutte quelle particelle in un secondo, si arriva a qualcosa dell’ordine di solo dieci miliardesimi dell’energia consumata dal corpo umano nello stesso tempo: una potenza troppo piccola da poter essere da noi avvertita. Per individuare queste particelle e misurare l’energia da esse rilasciata nell’attraversamento di un mezzo facciamo uso di specifici strumenti: i “rivelatori di particelle”. Questi strumenti sono in grado di convertire l’energia rilasciata dalle particelle in un segnale elettrico proporzionale all’energia stessa. Di fatto, l’energia rilasciata nel mezzo attraversato viene convertita in energia di altre particelle, il cui numero ed energia sarà strettamente legato a quella della particella primaria. Dobbiamo a questo punto distinguere i possibili meccanismi di interazione con il mezzo attraversato sulla base dell’energia e del tipo di particella. Gli elettroni di alta energia (> 10 MeV) interagiscono principalmente per Bremsstrahlung (“radiazione di frenamento”) generando fotoni di alta energia, che a loro volta interagiscono producendo coppie elettrone/positrone, i quali a loro volta generano fotoni e così via: questo processo genera i cosiddetti sciami elettromagnetici. Mano a mano che le generazioni di particelle si susseguono, l’energia da esse posseduta sarà sempre minore, fino ad arrivare a una soglia minima di energia sotto la quale questo processo di moltiplicazione non può più aver luogo. Anche le particelle adroniche, come i protoni, producono cascate di particelle: in questo caso l’interazione di un adrone con un nucleo produce adroni secondari che potranno ulteriormente interagire oppure decadere a seconda della loro vita media. All’interno degli sciami adronici si possono generare elettroni o fotoni che poi daranno vita a sciami elettromagnetici secondari. Volendo misurare l’energia dell’elettrone o dell’adrone che ha dato vita allo sciame, adronico o elettromagnetico che sia, dovremmo misurare le energie trasferite a tutte le particelle prodotte e sommarle tra di loro. Questo processo, per cui l’energia iniziale si può misurare degradandola in energie via via minori, ricorda il calorimetro della termologia, nel quale la misura della quantità di calore di un corpo si determina attraverso la quantità di ghiaccio che viene disciolta, disperdendo in tal modo il calore inizialmente posseduto dal corpo. Questo è il motivo per cui questi strumenti sono detti “calorimetri”: un calorimetro è un rivelatore in cui una particella incidente deposita tutta la sua energia sotto forma di sciame di particelle, ognuna con energia inferiore a quella primaria ma la cui somma è (nel caso ideale) uguale all’energia della particella iniziale. Normalmente solo una piccola frazione, costante, dell’energia depositata nel calorimetro viene trasformata in segnale. Per particelle che possiedono alta energia la bassissima efficienza con cui trasferiamo l’energia posseduta dalle particelle al segnale che possiamo rivelare non è così cruciale, in quanto il numero di particelle secondarie generate sarà così elevato da consentirci misure precise dell’energia. Ad esempio, gli sciami estesi che i raggi cosmici generano nell’atmosfera possono essere rivelati attraverso la “luce Cherenkov”, che viene emessa solo dalle particelle che viaggiano con velocità maggiore di quella della luce nell'aria (vd. A spasso per la Pampa, ndr). Quando vogliamo una misura molto precisa dell’energia iniziale, o quando questa energia è piccola, dell’ordine del MeV o meno, il segnale più accurato che possiamo rivelare è quello legato alla ionizzazione degli atomi che compongono la materia attraversata dalla particella incidente. In questo modo, dalla perdita di energia vengono liberati elettroni, i quali contribuiscono alla formazione di un segnale elettronico proporzionale all’energia iniziale. Ma anche in questo caso otteniamo comunque un’efficienza relativamente bassa: nella migliore delle ipotesi il rapporto tra l’energia iniziale e quella effettivamente raccolta dal segnale risulta essere di un terzo. Volendo misurare particelle con energie ancora più basse, sulla scala del keV, risulterà necessario migliorare ulteriormente il meccanismo di trasferimento di energia dalla particella al segnale rivelato. Ma dove finisce tutta l’energia che non viene trasferita agli elettroni ionizzati? Semplicemente va ad aumentare l’agitazione termica del materiale del rivelatore, aumentando, seppur impercettibilmente, la sua temperatura. Misurando quindi la variazione di temperatura del materiale prodotta dalla particella interagente, di fatto, misureremmo integralmente la sua energia. Esiste un rivelatore in grado di effettuare questa misura: il cosiddetto “bolometro”. In esso si misura la variazione di temperatura indotta dall’interazione di una particella: tale variazione sarà proporzionale all’energia rilasciata rapportata alla capacità termica, che rappresenta l’inerzia termica dell’oggetto. Se la capacità termica è sufficientemente piccola anche l’energia rilasciata da una particella produce una variazione di temperatura apprezzabile.
     
    b.
    Rappresentazione artistica del funzionamento di un bolometro: il materiale di cui è costituito (solitamente una struttura cristallina) è rappresentato dal liquido contenuto in un recipiente. La linea ondulata rappresenta la particella che trasferisce in un urto parte della sua energia cinetica a un nucleo del materiale. La sua energia cinetica viene termalizzata attraverso vibrazioni trasmesse al resto del materiale, che viene complessivamente riscaldato. Questo riscaldamento viene misurato da un particolare termometro (rappresentato come un comune termometro a mercurio) in grado di apprezzare variazioni di temperatura dell’ordine del milionesimo di grado.

     

    Per ottenere questo scopo i bolometri sono raffreddati a temperature molto basse, prossime allo zero assoluto (-273,14 gradi Celsius), e, sfruttando opportuni “termometri”, si apprezzano variazioni di temperatura dell’ordine del milionesimo di grado, ottenendo così strumenti particolarmente sensibili alla misura dell’energia delle particelle. In questo modo possiamo affermare che il bolometro risulta essere l’unico vero calorimetro, capace cioè di misurare integralmente l’energia della particella che con esso ha interagito. Un esperimento che utilizza dei bolometri per misurare l’energia delle particelle è Cuore (vd. Assenti giustificati, ndr.), che recentemente ha iniziato a raccogliere dati ai Laboratori Nazionali del Gran Sasso. In questo esperimento si devono misurare con grande precisione le energie degli elettroni di un particolare decadimento del tellurio, che depositano complessivamente circa 2500 keV. Questa energia riscalda i cristalli di appena cento milionesimi di grado. L’esperimento è costituito da 988 cristalli di tellurio che devono essere raffreddati a circa 10 mK ed è dedicato alla ricerca del rarissimo fenomeno del doppio decadimento beta senza emissione di neutrini. Rivelare questo processo consentirebbe non solo di determinare la massa dei neutrini, ma anche di dimostrare la loro eventuale natura di particelle di Majorana, fornendo una possibile spiegazione della prevalenza della materia sull’antimateria nell’universo.

     
    c.
    Il Presidente della Repubblica Sergio Mattarella riceve in omaggio un cristallo dell’esperimento Cuore dal Presidente Infn Fernando Ferroni, durante la visita ai Laboratori del Gran Sasso (Lngs) del 15 gennaio scorso.

     

    Biografia
    Ezio Previtali è ricercatore dell’Infn presso l’Università degli Studi di Milano Bicocca. Ha partecipato allo sviluppo dei rivelatori bolometrici di particelle fin dagli albori ed è stato uno dei promotori dell’esperimento Cuore, il più grande rivelatore criogenico di particelle mai costruito. Partecipa attivamente agli esperimenti Cupid (di cui è responsabile nazionale) e Juno.

     

    Link
    http://people.na.infn.it/~barbarin/MaterialeDidattico/00+approfondimento%20corso%20rivelatori%20/rilevatoriparticelle.pdf


    icon-pdf [scarica pdf]

     
    DOI: 10.23801/asimmetrie.2018.24.9
     

    {jcomments on}

  • Lo scatto giusto
    Un grilletto per i rivelatori di particelle

    di Umberto Marconi e Barbara Sciascia

    La bocca di un vulcano che erutta lava incandescente o il gesto rapido di un ghepardo che ghermisce un’antilope. Immagini che colgono l’essenza di un fatto più di tante parole o filmati. Basta che sia “lo scatto giusto”. Anche nella fisica delle particelle a un certo punto divenne necessario fare lo scatto giusto, con la difficoltà aggiuntiva di dover fotografare qualcosa che, però, non si può vedere!

    Andiamo con ordine: le particelle elementari non si possono vedere ma i rivelatori di particelle le “rendono visibili” sfruttando alcune loro proprietà, come per esempio la carica elettrica. Un po’ come un animale che lascia impronte sulla neve: dal loro studio possiamo capire molto dell’animale che le ha lasciate. Uno dei primi rivelatori che ha permesso di “vedere” le particelle è stata la camera a bolle (vd. approfondimento), dove era necessario scattare una foto alla traccia lasciata dalla particella appena transitata. Il problema era quando scattare, e fu risolto aggiungendo un altro tipo di rivelatore che emetteva un segnale al passaggio della particella, ben prima che si formasse la traccia nella camera a bolle, segnale usato per scattare la foto.

    Negli anni, la crescente complessità degli esperimenti e i vari tipi di rivelatori sviluppati hanno portato a ideare sofisticate alternative alla macchina fotografica, note nel loro insieme come sistema di trigger o trigger tout- court (in italiano, “grilletto”).

    Prima di entrare nei dettagli di un sistema di un moderno trigger, dobbiamo definire altri due aspetti: la firma, o signature in inglese, e il tempo morto, o dead time. Con la firma si indica l’insieme delle caratteristiche degli eventi interessanti, un po’ come la firma autografa sulla carta di credito che ci dovrebbe identificare in maniera univoca. Per tempo morto si intende il tempo minimo tra uno scatto e l’altro, tempo in cui la macchina fotografica non può scattare foto, come se fosse inutilizzabile, “morta”.

    Insomma ogni fotografia fatta a un evento, buono o cattivo che sia, implica che per un po’ di tempo non potrò scattare altre foto, anche nel caso ci fossero eventi buoni. E la strategia perseguita da tutti i moderni sistemi di trigger è definire la miglior signature, in modo da scattare foto solo agli eventi buoni (il segnale) e non a quelli inutili (il fondo), e aver il minor dead time possibile, in modo da perdere meno eventi buoni possibili.

    Fino a che la frequenza con cui accadono gli eventi è bassa, è abbastanza facile costruire buoni sistemi di trigger. Ma dal prossimo anno i fasci di protoni di Lhc (il Large Hadron Collider al Cern di Ginevra) si incontreranno quaranta milioni di volte al secondo (in gergo si dice che dal 2015 Lhc “funzionerà a 40 MHz”) al centro di ciascuno dei quattro esperimenti (Alice, Atlas, Cms e Lhcb) presenti lungo il tunnel di Lhc. E ognuna di queste volte potrebbe succedere qualcosa di “interessante”, come la produzione di un bosone di Higgs (vd. Asimmetrie n. 8 e n. 14, ndr) o addirittura la produzione di qualche particella ancora mai osservata come quelle che potrebbero spiegare la natura della materia oscura (vd. Asimmetrie n. 4, ndr).

    [as] approfondimento
    Guardare le bolle
    1.
    Elaborazione artistica delle tracce lasciate da particelle cariche nella camera a bolle Bebc (Big European Bubble Chamber) al Cern nei primi anni ’70.

     

    “Butta la pasta!”: una tipica espressione italiana che sottintende la più ampia “l’acqua bolle, butta la pasta!”. E quante volte attendendo affamati che l’acqua bollisse, abbiamo notato speranzosi le prime bollicine? “Guardare le bolle” è quello che facevano i fisici che tra gli anni ’50 e gli anni ’80 usavano una camera a bolle, un rivelatore inventato nel 1952 dall’americano Donald Glaser, con un brevissimo articolo di meno di una colonna, che gli valse il premio Nobel nel 1960. La camera a bolle mette insieme tre diverse idee. La prima è che una particella carica che attraversa un gas o un liquido lo ionizza (separa elettroni dalle molecole che li includevano, lasciando ioni carichi positivamente). La seconda è che un liquido che “sta per bollire” inizia a farlo di preferenza attorno a uno ione. La terza è che le singole bollicine che si formano al passaggio della particella carica sono fotografabili, prima che tutto il liquido si metta a bollire. In pratica, il rivelatore consiste in un contenitore, posto all’interno di un campo magnetico, in cui un liquido, spesso idrogeno, è mantenuto in condizioni di pressione e temperatura subito al di sotto del punto di ebollizione. Pochi millisecondi prima dell’arrivo del fascio di particelle parte la sequenza, antesignana dei moderni sistemi di trigger, necessaria a fotografare le particelle stesse. Il liquido viene espanso tramite un pistone, in modo da provocare un calo di pressione, rendendolo “pronto a bollire”. Quando le particelle cariche attraversano il liquido ionizzandolo, singole bolle si formano attorno agli ioni e pochi millisecondi dopo il passaggio delle particelle vengono scattate fotografie stereo, cioè da più direzioni diverse, in modo da poter ricostruire la traiettoria tridimensionale. Negli anni sono state costruite più di cento camere a bolle e sono state raccolte più di cento milioni di fotografie stereo. La complessa analisi di queste immagini, che richiedeva molte persone opportunamente specializzate, ma che poteva essere fatta anche in laboratori lontani dall’esperimento, è stata uno degli elementi chiave nello sviluppo delle collaborazioni internazionali per effettuare i grandi esperimenti.

    a.
    Negli ultimi mesi del 2014 finiranno i lavori a Lhc, iniziati ad aprile 2013, che permetteranno una nuova raccolta di dati a un’energia di fascio molto maggiore di prima.
    A complicare il tutto, gli eventi prodotti all’interno dei quattro esperimenti di Lhc contengono molta informazione (in media ciascuno occupa 1 MB) a causa del numero e della complessità dei rivelatori utilizzati, informazione che non può essere elaborata nei 25 nanosecondi a disposizione tra una collisione e l’altra. La soluzione può essere quella di utilizzare sistemi di trigger che lavorino in parallelo e/o su più livelli. Di solito si usano entrambi gli approcci e ciascuno dei quattro esperimenti ha implementato un proprio sistema trigger con caratteristiche peculiari equivalenti. I vari esperimenti stanno preparando l’upgrade dei loro sistemi di rivelazione, incluso il trigger; nel seguito descriveremo la soluzione scelta da Lhcb, il cui sistema può già ora funzionare a 40 MHz, ma può registrare al più una metà degli eventi interessanti che saranno prodotti grazie alla maggiore energia di Lhc. Quest’ultimo esperimento studia in particolare gli eventi in cui siano stati prodotti quark di tipo charm o beauty e deve distinguerli dalla maggioranza degli altri casi, in cui non è successo nulla di interessante.
    Un tipico accorgimento è quello di usare una sequenza di meccanismi di selettività e latenza progressivamente crescenti. In altre parole, le prime richieste (selettività) devono essere semplici e veloci, in modo da ridurre il numero di eventi da esaminare con più attenzione e in più tempo (latenza). Complessivamente il tempo di elaborazione richiesto dalla procedura di trigger per completare la valutazione è dell’ordine di 10 millisecondi: molto maggiore del tempo utile di 25 nanosecondi. La scelta necessaria per sostenere il ritmo imposto dalle collisioni in Lhc è allora usare molte procedure di selezione in parallelo. Nel caso di Lhcb, dove il flusso aggregato dei dati è di circa 40 Tb/s, è possibile realizzare un sistema di trigger che impieghi esclusivamente reti di computer (senza alcun altro filtro intermedio) che elaborino circa quattrocentomila procedure in parallelo, permettendo al trigger stesso di funzionare alla frequenza desiderata.
    b.
    Schema di un tipico sistema di trigger: i fasci prodotti dall’acceleratore collidono all’interno di un rivelatore producendo segnali nei vari sotto- rivelatori (rivelatore di muoni, calorimetro ecc.). Ciascuno di essi invia i segnali relativi a una determinata collisione a una medesima CPU del primo livello di trigger. Il primo livello esegue un’analisi veloce di ciascun evento e decide se rigettarlo o passarlo al livello successivo per un’analisi che potrà essere più lunga e quindi più accurata. Solo una piccola parte degli eventi prodotti nelle collisioni verrà salvata per formare il campione di dati che sarà studiato in dettaglio.
     
    Dai primi anni 2000, è diventato comune l’uso di processori (CPU) multi-core, in cui più processori sono montati sul medesimo supporto in modo da aumentare la potenza di calcolo del singolo computer. Oggi si trovano in commercio processori fino a 12 core per CPU, ma anche così il numero di computer necessari per eseguire 400.000 procedure di trigger in parallelo sarebbe troppo grande. Entro qualche anno però i progressi nella tecnologia di produzione dei chip permetteranno d’avere processori con centinaia di core per CPU. Attorno al 2018/19, anno previsto per la realizzazione del nuovo progetto di trigger, saranno a disposizione per il mercato di largo consumo nuovi computer dotati di sistemi dual CPU (cioè in cui uno stesso server gestisce due CPU), ciascuna dotata di 200 core: questo permetterà di eseguire le operazioni necessarie con una rete di computer costituita da 1000 nodi di calcolo.
    Le informazioni per “ricostruire l’evento” consistono in segnali prodotti da rivelatori disseminati lungo i 21 metri di lunghezza e i più di 10 metri di altezza di Lhcb, che è quasi un nano rispetto agli altri due esperimenti giganteschi, Atlas e Cms (vd. in Asimmetrie n. 8 L'assedio all'Higgs, ndr). I tanti “frammenti” dell’evento sono trasmessi, attraverso circa diecimila fibre ottiche, a un altro sistema, per essere riaggregati a ricostituire l’evento completo. Come nella costruzione di un enorme puzzle, ciascun frammento deve avere una sua “forma particolare” che permetta di “metterlo al posto giusto”; questa “forma”, chiamata in gergo indirizzo, deve essere codificata secondo un protocollo di rete standard, cioè nello stesso modo usato per i dati che viaggiano su internet (vd. in Asimmetrie n. 13 [as] Le vie segrete dei bit., ndr). Il compito, chiamato event-building, di mettere insieme i frammenti “riconoscendone la forma” e ricostruire ciascun evento, è svolto da una rete di computer dedicata, chiamata in Lhcb Event Builder Farm, che impiega connessioni di rete veloci da 100 Gb/s che permettono di riaggregare gli eventi con la massima efficienza.
     
    c.
    Particolare del Velo, il rivelatore di Lhcb più vicino al punto di interazione dei fasci di protoni. Le informazioni raccolte dal Velo sono uno degli ingredienti fondamentali del trigger di Lhcb.
     
    Tutti i computer dell’Event Builder Farm ricevono continuamente i frammenti degli eventi dall’elettronica di lettura del rivelatore; ciascuno di essi, a turno, riceve i dati da tutti gli altri computer, in maniera da avere tutti i frammenti corrispondenti a un determinato evento da riaggregare, per ricostituire l’evento completo. I dati prodotti dal rivelatore arrivano ai computer dell’Event Builder Farm attraverso schede elettroniche d’interfaccia che saranno realizzate appositamente.
    Una volta ricomposto, l’evento è inviato a un altro sistema, l’Event Filter Farm in Lhcb, che grazie ai suoi mille nodi di calcolo potrà selezionare eventi alla frequenza di 40 MHz e gestire il flusso aggregato di 40 Tb/s. Gli esperimenti di Lhc sono a più di 100 metri di profondità sotto terra e sono sottoposti a un enorme flusso di radiazioni. Per la trasmissione dati è quindi necessario impiegare un chip resistente alla radiazione, prodotto dal Cern e capace di trasmettere fino a 4,8 Gb/s. È necessario un gran numero di canali di trasmissione (circa 10.000) per sostenere il traffico dati verso l’Event Builder Farm. Per sfruttare al meglio i mille nodi di calcolo nel riconoscimento o analisi degli eventi, è necessario un controllore, che da una parte sappia quale dei nodi è meno carico di lavoro e, dall’altra, invii – usando gli indirizzi – tutti i frammenti di un medesimo evento allo stesso nodo. Questo ruolo di “regolatore del traffico” è svolto da un’unità funzionale specifica, di solito chiamata trigger-supervisor: attraverso quest’ultimo, ciascuno dei nodi dell’Event Filter Farm segnala al trigger quali risorse sono libere e pronte ad accogliere un nuovo evento che può essere analizzato.
    Tutta questa complessità può essere riassunta, pensando a Lhc come a una macchina che produce 40 milioni di immagini al secondo, di cui meno di una su mille è realmente interessante. Ciascuno dei quattro esperimenti “vede” quest’immagine attraverso i propri rivelatori, come se fosse un puzzle: il singolo pezzo è l’informazione registrata da ciascun canale di ciascun rivelatore. Un generico sistema di trigger può guardare pochi tra queste decine di migliaia di pezzi. Il trigger di Lhcb potrà guardare tutti i pezzi e decidere se l’evento è interessante, il tutto entro i 25 nanosecondi tra una collisione e l’altra.

    Biografia
    Umberto Marconi è ricercatore presso la sezione Infn di Bologna. La principale attività di ricerca riguarda lo studio dei quark beauty e charm in Lhc con l’esperimento Lhcb. Al momento lavora alla progettazione del nuovo sistema di readout del trigger di Lhcb, previsto per l’upgrade del rivelatore nel 2018-19.

    Barbara Sciascia è ricercatrice presso i Laboratori Nazionali di Frascati (Lnf) dell’Infn. È stata a lungo responsabile del trigger dell’esperimento Kloe. Da alcuni anni collabora all’esperimento Lhcb.

     

    Link

    http://www.lhc-closer.es/1/3/13/0
    http://profmattstrassler.com/articles-and-posts/largehadroncolliderfaq/the-trigger-discarding-all-but-the-gold/

     


    icon-pdf [scarica pdf]

     

     

    {jcomments on}

  • Luci e ombre
    Come si rivelano i muoni

    di Tommaso Chiarusi

    a.
    I muoni si possono rivelare con un semplice apparato di misura, come quello mostrato in figura, costituito da una coppia di scintillatori letti da fotomoltiplicatori. Imponendo una soglia sull’ampiezza del segnale e un opportuno intervallo di coincidenza temporale, nello schermo dell’oscilloscopio appaiono i segnali elettrici prodotti quando i due rivelatori sono attraversati dallo stesso muone cosmico.
    La prima esperienza con i muoni nel curriculum di un fisico avviene generalmente nei laboratori didattici, con semplici strumentazioni di misura degli “sciami” atmosferici (o shower, cioè docce, come le chiamano i fisici). Questi sciami sono composti di particelle secondarie, generate a partire dal primo impatto dei raggi cosmici con gli alti strati dell’atmosfera (vd. Voci dell'Universo, ndr). Dopo il neutrino, il muone è la particella più “penetrante”, cioè che ha perdite di energia molto contenute nell’attraversare la materia: è presente al livello del mare con un flusso di poche centinaia di eventi al secondo per m2 e un normale edificio non ne rappresenta uno schermo efficace. Dotato di carica elettrica, esso interagisce principalmente con gli elettroni del mezzo in cui si muove. L’energia trasferita al suo passaggio viene poi riceduta dalla materia come radiazione. Così, non appena attiviamo un semplice sistema di rivelazione costituito da scintillatori e fotomoltiplicatori, il segnale dei muoni può essere facilmente osservato con un oscilloscopio (vd. fig. a). Un salto in avanti ci porta ai moderni e complessi apparati sperimentali usati negli acceleratori di particelle, come Lhc al Cern. La collocazione in siti sotterranei garantisce la schermatura dai fotoni e da particelle cariche degli sciami atmosferici, eccezion fatta proprio per i muoni: a una profondità tra 50 e 100 m, il loro flusso si riduce di almeno due ordini di grandezza, con un’incidenza inferiore a poche decine di Hz per m2. Tuttavia, le apparecchiature di misura coprono aree che si estendono per centinaia di m2, esponendosi a un significativo numero di muoni al secondo. Questi potrebbero confondersi con i muoni originati nelle collisioni negli acceleratori, rischiando di contaminare misure di estremo interesse come, ad esempio, quelle dell’importante segnale in quattro muoni legato alla produzione del bosone di Higgs (vd. L'assedio all'Higgs, ndr). Il “rumore” atmosferico, come si chiama in gergo questo “fondo” sperimentale, è però facilmente eliminabile dai dati acquisiti, richiedendo che le tracce siano originate in una zona molto ristretta, compatibile con il vertice delle interazioni, e che i primi segnali misurati coincidano con i tempi delle collisioni. Per contro, i muoni atmosferici, attraversando dall’alto al basso tutto l’apparato sperimentale, sono utilizzati per l’allineamento delle strutture di rivelazione, incluso l’apparato dedicato a tali particelle: lo “spettrometro per muoni”.
     
    b.
    Il rivelatore L3 al Lep. Lo spettrometro era suddiviso in ottanti, ciascuno composto da 3 strati di camere a deriva. In esse, decine di fili metallici paralleli all’asse del fascio fungevano da anodo, garantendo una risoluzione spaziale nel piano trasversale di circa 50 µm. Il grande solenoide, che conteneva tutto L3, con una corrente di 30 kA, creava un campo di induzione magnetica di circa 0,5 T in un volume superiore a 1000 m3.
     

    Esso è generalmente formato da strati di celle con un forte campo elettrico e riempite con gas ionizzabile. Il passaggio dei muoni è rivelato dalla migrazione degli elettroni liberati attratti sull’anodo della cella. Date le proprietà di penetrazione dei muoni, lo spettrometro è posizionato in ampi settori periferici rispetto al vertice delle interazioni, ed è generalmente permeato da un forte campo magnetico. Così, dalla misura della curvatura delle traiettorie dei muoni si può risalire alla loro energia, cui è legata in modo inversamente proporzionale. Migliore è la misura della curvatura, più piccolo è l’errore sull’energia. Uno dei primi esperimenti con gli acceleratori a sfruttare una parte dei propri apparati per la misura di muoni indotti da raggi cosmici è stato L3, attivo al collisore Large Electron-Positron (Lep) del Cern negli anni ’90 del secolo scorso. Il suo ampio spettrometro per muoni, in combinazione con uno strato di circa 200 m2 di scintillatori plastici posizionati appositamente sulla sua sommità, formavano l’esperimento L3+Cosmics, in presa dati dalla fine del 1998 fino a tutto il 2000. Il gruppo di scintillatori sulla sommità serviva a discriminare i muoni atmosferici da quelli prodotti nell’acceleratore, e faceva scattare il sistema di acquisizione dei dati di L3+Cosmics in modo completamente separato da quello standard di L3 per le collisioni del Lep. Il principale risultato di L3+Cosmics è consistito nella misura del flusso dei muoni atmosferici in un intervallo energetico da 10 a 2000 GeV (ben 10 volte oltre l’energia disponibile nelle collisioni del Lep), con una precisione complessiva migliore del 2%, cioè 10 volte maggiore della precisione con cui erano noti allora tali flussi da precedenti misure. Un’ulteriore importante misura è stata quella del rapporto del numero dei muoni positivi rispetto a quello dei muoni negativi, risultato pari a circa 1,28, cioè con una prevalenza di muoni positivi, con una precisione dell’1% su quasi tutto l’intervallo energetico. Tale rapporto è legato alla prevalenza di protoni (con carica elettrica positiva) nei raggi cosmici primari, e dà informazioni sulle interazioni di questi con l’atmosfera. Nello spettrometro era possibile separare eventi multipli appartenenti allo stesso sciame, dato importante poiché la molteplicità di muoni è legata sia all’energia che al tipo del raggio cosmico primario. Per affinare tali indagini, occorre però aggiungere altre informazioni sullo sciame, come la densità radiale delle particelle rispetto alla direzione di propagazione e il numero di elettroni. Misure impossibili sotto terra. Per questo L3+Cosmics si era dotato di una piccola rete di 50 scintillatori posti sul tetto del capannone soprastante l’infrastruttura sotterranea. Risultati più precisi sono stati ottenuti successivamente da esperimenti dedicati, con griglie di rivelatori estese dai circa 0,5 km2 di Kascade/Kascade-Grande, attivo a Karlsruhe in Germania fino al 2013, ai 3000 km2 del Pierre Auger Observatory (Pao) nella Pampa, in Argentina, ancora in presa dati. I muoni sono stati anche protagonisti delle verifiche sperimentali delle oscillazioni dei neutrini, in primis nel 1998 con gli esperimenti Super-Kamiokande, sotto il Monte Ikeno in Giappone, e Macro, nelle sale sotterranee dei Laboratori Nazionali del Gran Sasso. Tali esperimenti hanno chiarito il cosiddetto “neutrinopuzzle atmosferico”, cioè la discrepanza del rapporto tra le abbondanze dei neutrini elettronici e muonici prodotti negli sciami atmosferici. Poiché i neutrini “parlano” soltanto attraverso la forza debole, essi possono essere rivelati solo in via indiretta, principalmente tramite la misura dei componenti carichi della propria “famiglia” (ovvero la coppia [νl , l], dove ν indica il neutrino del tipo l e l = e, μ, τ, cioè l’elettrone, il muone o il tau), in cui si convertono nelle interazioni con la materia. Misurando quindi un deficit del flusso di muoni generati nelle interazioni dei neutrini muonici atmosferici, è stato provato che circa la metà dei neutrini muonici cambiassero sapore, in accordo con la teoria delle oscillazioni che prevede la transizione da neutrino muonico a neutrino del tau. L’evidenza diretta di tale oscillazione è stata poi ottenuta dall’esperimento Opera conclusosi nel 2010 (vd. Tutte le voci dell'universo, ndr).

     
    c.
    Una rappresentazione artistica del telescopio per neutrini Km3net. Un neutrino muonico, interagendo con la roccia sottostante il rivelatore, si converte in un muone “relativistico” (cioè un muone che viaggia alla velocità prossima a quella della luce nel vuoto) che ne prosegue la traiettoria. Il muone, muovendosi nell’acqua del mare, emette luce Cherenkov che viene captata dai moduli ottici (i fotomoltiplicatori) del telescopio.
     
    L’attuale frontiera dell’utilizzo di muoni come “firma” dell’interazione di neutrini riguarda i telescopi Cherenkov nelle profondità di laghi (Baikal-Gvd, in Russia) o mari (Antares e Km3net, nel Mar Mediterraneo) o sotto i ghiacci antartici (IceCube, in Antartide). Questi sfruttano l’effetto Cherenkov, ovvero fotoni emessi in fase dalle molecole di materia, stimolate da particelle cariche che vi si propagano con velocità superiore a quella della luce nel mezzo stesso. Poiché i fotoni Cherenkov indotti da un muone “relativistico” hanno tutti la stessa angolazione rispetto alla sua traiettoria (circa 42˚ in acqua), griglie di migliaia di fotomoltiplicatori, estese su un volume di circa 1 km3, permettono di ricostruirne la direzione con precisioni migliori di 1˚. I muoni con energie maggiori di 10 TeV mantengono circa la stessa direzione dei neutrini progenitori. È possibile, quindi, risalire alle porzioni di cielo corrispondenti per ricercarne le possibili sorgenti astrofisiche. Per verificare la precisione di puntamento, si ricorre alla misura della cosiddetta “ombra della Luna” nel flusso di muoni atmosferici. In pratica si cerca il deficit nel flusso di muoni in corrispondenza delle direzioni di arrivo dei raggi cosmici che impattano sul nostro satellite, di cui è nota la posizione, e che quindi non creano sciami. Insomma, dal più semplice esperimento didattico ai moderni e complessi rivelatori, la misura dei muoni è uno strumento fondamentale sia impiegato nelle calibrazioni degli apparati sperimentali che come oggetto di ricerche decisive nella moderna fisica astroparticellare.
     

    Biografia
    Tommaso Chiarusi è ricercatore Infn presso la sezione di Bologna. Attualmente è il coordinatore del sistema di acquisizione dei dati del rivelatore Km3net e studia l’ombra della Luna nei dati di Antares. In passato ha partecipato all’esperimento L3+Cosmics.


    Link
    http://www.astroparticelle.it/
    http://l3cos.web.cern.ch/
    http://www.km3net.org/


    icon-pdf [scarica pdf]

     
    DOI: 10.23801/asimmetrie.2017.23.4
     

    {jcomments on}

  • Il 5 e il 6 febbraio, presso l'Ambasciata d'Italia a Washington, si svolge l'incontro annuale bilaterale tra le delegazioni dell'Infn, per l’Italia, e del Department of Energy (Doe) e della Nsf (National Science Foundation) per gli Usa. L'Infn sarà rappresentato dal presidente Fernando Ferroni, dal vicepresidente Antonio Masiero e dal membro di giunta Eugenio Nappi. “Nonostante l'orizzonte delle collaborazioni internazionali si sia notevolmente esteso in questi ultimi anni (in particolare, con l’accresciuta rilevanza di nuovi partner quali la Cina) è fuor di dubbio che il tradizionale stretto rapporto di collaborazione con gli Usa rimane il cardine delle relazioni di collaborazione internazionali dell'Infn”, commenta Antonio Masiero. Numerosi i temi all’ordine del giorno. Il principale sarà un possibile piano di collaborazione per l'utilizzo del T600 (rivelatore di 600 tonnellate ad argon liquido) dell’esperimento Icarus per il programma di fisica del neutrino al Fermilab e al laboratorio sotterraneo Surf nel South Dakota. In secondo luogo, si parlerà dei vari esperimenti al laboratorio del Gran Sasso che vedono un'attiva collaborazione Infn-Usa, in particolare: l’esperimento Cuore per lo studio del doppio decadimento beta senza emissione di neutrini, gli esperimenti Xenon e DarkSide per la rivelazione di particelle Wimp di materia oscura e l’esperimento Borexino-II per lo studio dei neutrini solari e dei geoneutrini. Inoltre si discuterà del programma spaziale comune (con il satellite Fermi per la gamma astronomia e l’esperimento Ams per la ricerca di antimateria nello spazio). Tra le altre collaborazioni che coinvolgono i due paesi vi sono, inoltre, l’esperimento Auger per lo studio della radiazione cosmica e il programma di collaborazione per la ricerca delle onde gravitazionali con gli interferometri Advanced Virgo a Cascina (Pisa) e Advanced Ligo negli Usa. Per concludere è di notevole rilevanza la collaborazione dell'Infn al Jefferson Lab con l'analisi della struttura del nucleone e il programma di upgrade della macchina e al Fermilab con lesperimento Mu2e. [Eleonora Cossi]

  • Occhio alle Wimp!
    I rivelatori del futuro

    di Gianluca Cavoto


    a.
    Fotomoltiplicatori di tipo “standard” sono usati, ad esempio, nell’esperimento Xenon ai Laboratori Nazionali del Gran Sasso.
    Per vedere il mondo che ci circonda, noi usiamo i nostri occhi. L’occhio raccoglie la luce, forma un’immagine che viene trasmessa dal nervo ottico al cervello, dove viene elaborata e registrata nella memoria (o dimenticata - se non ci è piaciuta!). Anche nei nostri laboratori abbiamo degli “occhi” per vedere le particelle, sia quelle che produciamo con gli acceleratori (come per esempio in Lhc) sia quelle che provengono dall’universo (ad esempio, attraverso i raggi cosmici). Questi occhi si chiamano “rivelatori di particelle” e nel corso dell’ultimo secolo ne abbiamo inventati e costruiti tanti e di tanti tipi diversi. Con i nostri rivelatori, ad esempio, sappiamo vedere la stessa luce che vede l’occhio umano. La luce è composta da minuscoli quanti di energia, detti fotoni. In un secondo una lampadina a led ne emette dieci miliardi di miliardi. I rivelatori di luce sono così sensibili da riuscire a vedere persino un solo fotone. L’arrivo del fotone dentro il rivelatore è in grado di produrre una piccola scarica elettrica che tramite un cavo raggiunge un apparato che campiona la forma della scarica ed eventualmente la registra in un calcolatore elettronico. Se ci interessa, la registriamo, se non ci piace la buttiamo. Un tipo di rivelatore per fotoni si chiama “fotomoltiplicatore” ed è un occhio “standard” per vedere particelle “standard”, come i fotoni (vd. fig. a). Ma non ci basta. Vogliamo poter vedere tutti i tipi di particelle. E ci servono occhi davvero specializzati per farlo. Per vedere particelle dotate di carica elettrica (i protoni o gli elettroni, ad esempio) abbiamo inventato occhi che sanno vedere piccolissimi rilasci di energia che esse perdono attraversando speciali miscele di gas. Esistono oggi grandi rivelatori che vedono centinaia di particelle contemporaneamente, in minuscole frazioni di secondo, come ad esempio Atlas o Cms al Cern. Grazie al raffinamento delle tecniche di lettura di questi rilasci di energia, si possono raggiungere precisioni micrometriche. Si possono vedere le traiettorie curve percorse dalle particelle cariche in un campo magnetico e misurarne così la quantità di moto. Ogni rivelatore - ogni occhio speciale - fonda il suo funzionamento su un particolare tipo di interazione che le particelle hanno con la materia. Il fotomoltiplicatore, per esempio, sfrutta il cosiddetto “effetto fotoelettrico” (vd. Luce: onde o particelle?, ndr) e i rivelatori “a gas”, invece, si basano su fenomeni di ionizzazione delle molecole dei gas. Tuttavia questi occhi, per quanto speciali e sofisticati e in continua evoluzione, sono oggi considerati rivelatori standard per particelle standard.
    Esistono problemi irrisolti della fisica odierna che con alta probabilità richiedono l’esistenza di particelle non standard. Uno di questi problemi - certamente uno dei più importanti al giorno d’oggi - è lo studio della materia oscura. Della materia oscura sappiamo davvero poco, ma pensiamo che debba riempire la nostra galassia, la via Lattea. Visto che la Terra e il Sole si muovono nella via Lattea saremmo continuamente investiti da un vento di materia oscura. Sotto certe ipotesi, in un volume di un litro ci potrebbero essere circa quaranta particelle di materia oscura del tipo Wimp (vd Lo zoo oscuro, ndr). La materia oscura deve il suo nome proprio al fatto che non emette luce. Questa è una grande sfortuna. Significa che, anche se è presente intorno a noi, in pratica ci attraversa senza “toccarci” davvero. E se interagisce molto poco, non c’è modo di vederla facilmente. Non si possono usare occhi standard. Occorre, perciò, immaginare un modo con cui essa possa rilasciare un segnale in un rivelatore. Ci vogliono occhi nuovi. Nei nostri laboratori una importante attività di ricerca consiste proprio nel costruire questi occhi non standard, sfruttando effetti mai usati prima oppure nuovi materiali per costruire i bersagli per le particelle Wimp. Un esempio sono i gas nobili liquefatti (come l’argon o lo xenon), che possono essere usati come bersaglio per le Wimp. Tonnellate di argon o xenon liquido contenuti in frigoriferi speciali (detti “criostati”) sarebbero in grado di fermare le Wimp. Come in un urto fra palle di biliardo, le Wimp si scontrerebbero con i nuclei del bersaglio. Questi nuclei si metterebbero in moto dopo l’urto, ma sarebbero subito fermati dalle molecole circostanti. Così facendo - grazie a una importante proprietà dei liquidi nobili - vengono prodotte luce e ionizzazione, visibili con le tecniche standard sopra menzionate. Questo tipo di occhio freddo e pesante è uno dei rivelatori innovativi che si stanno preparando, chiamato Dark Side (vd. in Il seguito della storia fig. d, ndr), e che nei prossimi anni sarà usato nei laboratori sotterranei del Gran Sasso dell’Infn per cercare di vedere le Wimp della via Lattea. Un progetto ambizioso, in cui l’Infn è coinvolto e che cerca di accumulare in un criostato almeno 20 tonnellate di argon liquido. Visto che le Wimp sono così sfuggenti, tanti più bersagli si assemblano, tanto più possiamo sperare di vedere l’urto della Wimp. Tuttavia, raccogliere tutte queste tonnellate di argon (in natura presente principalmente come isotopo stabile, l’argon-40) non è cosa facile. Soprattutto perché esiste un isotopo radioattivo, l’argon-39, che produrrebbe un segnale molto simile a quello delle Wimp nel rivelatore Dark Side. L’argon-39 va pertanto eliminato. Per farlo si sta progettando una torre di distillazione alta come la torre Eiffel, che verrà costruita in una miniera dismessa del Sulcis (in Sardegna), dove possiamo purificare tutto l’argon-40 che ci serve (vd. fig. b)! La fantasia dei ricercatori però è fervida e porta ad azzardare di poter usare persino materiali, le cui proprietà non sono ad oggi perfettamente note. Un esempio sono i nanotubi di carbonio. Un nanotubo è letteralmente un tubo, la cui superficie è uno strato monoatomico con un diametro di qualche decina di nanometri e alto centinaia di micrometri (vd. Le mille facce del carbonio, ndr). È perciò diecimila volte più sottile di un capello umano e solo duecento volte più grande di un atomo. Oggi si sanno crescere vere e proprie “spazzole” di nanotubi allineati.
     
    b.
    Vista dall’alto della miniera di Monte Sinni, nel bacino carbonifero del Sulcis, in Sardegna, dove si sta progettando una torre di distillazione alta come la torre Eiffel che permetterà di separare l’aria nei suoi componenti fondamentali (da cui il nome del progetto, Aria). Uno di questi componenti, l’argon-40, senza le contaminazioni dell’isotopo instabile argon-39, permetterà lo sviluppo dell’esperimento Dark Side nei Laboratori del Gran Sasso.
     
    c.
    Schematizzazione dell’utilizzo dei nanotubi per identificare la direzione di provenienza delle Wimp. Nel box grigio a sinistra è visualizzata una foto micrometrica di una spazzola di nanotubi, al centro la rappresentazione schematica dei nanotubi e a destra la struttura atomica di uno di essi. In basso a sinistra, lo schema di una sezione di spazzole di nanotubi:
    1) Se la Wimp attraversa i nanotubi in direzione ortogonale ad essi e urta un nucleo del materiale che costituisce i nanotubi, questo urterà a sua volta gli altri nuclei dei nanotubi e si fermerà rapidamente.
    2) Se la Wimp attraversa i nanotubi lungo il loro asse, l’urto con un nucleo indirizzerà quest’ultimo nella direzione del nanotubo. Il campo elettrico degli altri nuclei incanalerà il nucleo sbalzato nella direzione del nanotubo, permettendogli di arrivare al rivelatore. A destra, illustrazione tridimensionale della canalizzazione del nucleo di un nanotubo colpito dalla Wimp.


     

     
    Queste spazzole allineate e orientate lungo la direzione in cui le Wimp si muovono, potrebbero guidare fuori dalla spazzola i nuclei messi in moto negli urti con le Wimp stesse. Fuori dalla spazzola i nuclei possono essere visti con metodi più tradizionali, come i rivelatori con gas (vd. fig. c). Il grande vantaggio che avrebbe questa “spazzola-bersaglio” è che se allineata lungo una direzione diversa di quella delle Wimp della via Lattea, anziché fare uscire i nuclei, li intrappolerebbe. Questa informazione sarebbe davvero cruciale, ci consentirebbe di capire se le Wimp vengano effettivamente dalla direzione da cui ce le aspettiamo. Nonostante l’idea sia attraente, non sappiamo se davvero funzionerà. Si fonda, di fatto, su un fenomeno nuovo, mai osservato prima, di interazione fra la materia dei nuclei messi in moto e la materia con la struttura geometrica ordinata dei nanotubi. Stuzzica la nostra fantasia e dimostrare che i nuclei vengono trasmessi dai nanotubi sarebbe interessante di per sé. E potrebbe essere la soluzione per vedere da dove vengono le Wimp. È questo il destino della scienza, esplorare l’ignoto. Ma ci servono occhi nuovi, che dobbiamo ancora inventarci.
     

    Biografia
    Gianluca Cavoto è un ricercatore dell’Infn di Roma. Si occupa difisica sperimentale delle particelle elementari. Lavora a un progetto di manipolazione di fasci di particelle intrappolate in cristalli piegati, nanziato con un grant europeo dello European Research Council (Erc).


    icon-pdf [scarica pdf]

     

     

    {jcomments on}

  • KM3NeT2Si sono da poco concluse le operazioni della posa in mare e del collegamento a terra della prima stringa nella sua configurazione definitiva del telescopio per neutrini Km3net. Questo risultato segna l'inizio della costruzione dell'esperimento internazionale, cui partecipa l'Infn, che verrà a costituire il più grande rivelatore di neutrini astrofisici dell'emisfero nord della Terra. Collocato nelle profondità del Mar Mediterraneo, Km3net studierà le proprietà fondamentali dei neutrini e mapperà i neutrini cosmici di alta energia prodotti nei processi astrofisici più violenti ed esplosivi che avvengono nel nostro universo. A bordo della nave Ambrosius Tide, la prima stringa, avvolta come un gomitolo di lana, è stata trasportata fino al sito Km3net-Italia, a un centinaio di chilometri al largo delle coste meridionali della Sicilia. È stata quindi calata in acqua, ancorata al fondo marino a una profondità di 3500 metri ed è stata collegata, utilizzando un sommergibile filoguidato dalla nave, alla cosiddetta junction box, già presente sul fondo del mare, che attraverso un cavo lungo 100 km è in connessione con la stazione di terra dell'esperimento, situata a Portopalo di Capo Passero. Infine il “gomitolo” è stato srotolato e la struttura ha assunto la sua configurazione finale "a stringa", tenuta in tensione in posizione verticale da una boa di profondità. 
Le operazioni di posa della stringa si sono concluse con un pieno successo: non appena attivato il collegamento, gli strumenti della base di terra hanno iniziato subito a ricevere i dati della rivelazione dei primi muoni.

    "Il telescopio è stato progettato per operare a grande profondità nell'acqua del mare, perché quest'ultima scherma l'apparato dalle particelle dei raggi cosmici dell'atmosfera", spiega Marco Circella, coordinatore tecnico di Km3net. "Costruire una grande infrastruttura del genere a queste profondità – prosegue Circella – rappresenta una sfida tecnologica enorme: l'intero progetto deve essere dimensionato per resistere a condizioni ambientali estreme e con minime possibilità di manutenzione". La riuscita acquisizione dei dati rappresenta quindi un passo fondamentale per il progetto, il culmine di oltre dieci anni di ricerca e sviluppo da parte degli istituti di ricerca, impresa nella quale l'Infn ha dato un contributo fondamentale.

    I neutrini sono le più sfuggenti particelle elementari e la loro individuazione richiede strumentazione dai volumi enormi. Km3net occuperà più di un chilometro cubo di acqua di mare grazie a una rete costituita da diverse centinaia di stringhe di rilevamento verticali ancorate al fondo marino, alte 700 m. Ogni stringa ospita 558 fotomoltiplicatori, cioè fotosensori per la rivelazione della luce, distribuiti in 18 moduli ottici spaziati da 40 m. Nel buio degli abissi, i sensori registrano i deboli lampi di luce Cherenkov che segnalano l'interazione dei neutrini con l'acqua di mare che circonda il telescopio. Quando un neutrino interagisce con un atomo dell'acqua marina, infatti, produce un muone che, viaggiando nell'acqua a una velocità maggiore di quella dei fotoni nello stesso mezzo, emette un debole lampo bluastro che viene raccolto dai fotomoltiplicatori. Grazie all'analisi di questi segnali luminosi i ricercatori sono in grado di risalire alle caratteristiche e alla direzione del neutrino primario.

    Km3net è tra i progetti in esame per entrare nella roadmap Esfri (European Strategy Forum on Research Infrastructures). Alla collaborazione internazionale partecipano, oltre all'Italia, Cipro, Francia, Germania, Grecia, Irlanda, Olanda, Regno Unito, Romania, Spagna. La collaborazione italiana, finanziata e guidata dall'Infn e da numerose università (Bari, Bologna, Catania, Genova, Napoli, Pisa, Roma Sapienza, Salerno), ha condotto la fase preparatoria del progetto europeo Km3net. Inoltre, sotto la sigla Infn "Nemo" (Neutrino Mediterranean Observatory) la collaborazione conduce dal 1998 un'intensa attività di ricerca per lo studio del sito abissale di Capo Passero e lo sviluppo delle tecnologie sottomarine per la costruzione del rivelatore.

  • Per qualche sigma in più
    Metodi statistici in fisica delle particelle

    di Concezio Bozzi


    a.
    Uno scorcio dell’esperimento Atlas al Cern.
    Il sogno di ogni fisico sperimentale è di poter lavorare con una “statistica infinita”, vale a dire con campioni di dati grandissimi che permettono di misurare le variabili osservabili sotto studio (chiamate dai fisici semplicemente “osservabili”) con incertezze trascurabili. Esiste infatti un’incertezza “statistica” in ogni misura di fisica, che dipende dalla dimensione dei dati analizzati e che si riduce in proporzione all’inverso della radice quadrata delle dimensioni del campione analizzato. Più grande è il campione, minore sarà l’incertezza statistica, e più facile sarà stabilire la verità o la falsità di un’ipotesi, come per esempio l’esistenza di nuove particelle o di nuovi processi al di là di quello che è comunemente noto come modello standard. In pratica, esistono parecchi fattori che limitano la grandezza dei campioni a nostra disposizione. Tanto per cominciare, il tempo a nostra disposizione è necessariamente finito. Potremmo “aumentare la luminosità” costruendo acceleratori che siano in grado di fornire più collisioni al secondo e realizzando rivelatori che siano in grado di raccogliere i risultati di tutte queste collisioni. Tuttavia, i processi più interessanti sono anche molto rari, per cui anche con acceleratori ad altissima luminosità rimaniamo con un campione di dati esiguo, in cui le fluttuazioni statistiche potrebbero indurci a credere di vedere qualcosa di nuovo, quando in realtà abbiamo a che fare solamente con processi noti. Cerchiamo di approfondire con un esempio concreto.
    Il 4 luglio 2012 viene annunciata al Cern la scoperta del bosone di Higgs. La scoperta viene fatta tramite studi il cui risultato si può esemplificare con il grafico in fig. b. Nel grafico si riporta la distribuzione di una variabile, che i fisici chiamano “massa invariante” (vd. in Asimmetrie n. 19 Creare materia, ndr), ottenuta mediante un’analisi effettuata su particelle rivelate dall’apparato sperimentale (due fotoni nel caso della fig. b), e successivamente ricostruite e selezionate. Se le particelle provengono dal decadimento di un’altra particella, allora questa analisi dà invariabilmente la massa di questa particella, entro gli errori sperimentali, e quindi un picco nel grafico. Il grafico di fig. b mostra effettivamente un picco di “segnale” e un “fondo” monotonamente decrescente al di fuori.
     
    b.
    Uno dei grafici che, nel luglio 2012, hanno confermato l’esistenza del bosone di Higgs. I punti rappresentano il numero di eventi registrati dall’esperimento Atlas per ogni valore della massa invariante di due fotoni. La linea continua è la miglior descrizione dei dati, considerando che esista, oltre agli eventi di fondo, anche un bosone di Higgs con massa intorno ai 125 GeV. La linea tratteggiata è la distribuzione attesa nel caso di solo fondo. Il grafico inferiore mostra gli eventi che restano dopo aver sottratto il numero di eventi di fondo per ogni valore di massa invariante.


     
    Osserviamo però come il picco non sia così distinto dal fondo – siamo sicuri di aver scoper to una nuova par ticella? Oppure forse si tratta semplicemente di una fluttuazione? Se osserviamo la distribuzione dei punti sperimentali attorno alla linea tratteggiata, che rappresenta la nostra stima migliore del fondo, vediamo che essi fluttuano un po’ sopra e un po’ sotto – potrebbe essere perfettamente plausibile che due punti vicini fluttuino entrambi positivamente e simulino un picco.
    Come ne usciamo? Innanzitutto notiamo che due esperimenti distinti, Atlas e Cms, osservano un eccesso rispetto al fondo esattamente nello stesso punto del grafico. Diventa già un poco meno plausibile che si tratti di una fluttuazione. Inoltre, possiamo ricostruire un decadimento in particelle diverse da quelle utilizzate per ottenere la fig. b. Otteniamo di nuovo un eccesso rispetto alla previsione per il fondo, sempre nello stesso punto. Il passaggio fondamentale è che riusciamo ad avere una stima quantitativa di quanto sia probabile che i processi di fondo producano quanto osservato sperimentalmente. Mettendo tutto assieme, giungiamo alla conclusione che questa probabilità è minore o uguale a 3 parti per dieci milioni, che è il limite convenzionale (le famose “5 sigma”) che i fisici utilizzano per stabilire che c’è qualcos’altro oltre il fondo: una scoperta. Ricapitoliamo: abbiamo aggiunto i dati raccolti da più esperimenti e abbiamo aggiunto più modi di decadimento della particella di cui siamo a caccia. In altri termini, abbiamo reso il nostro campione statisticamente più significativo. Poi abbiamo definito un cosiddetto “livello di confidenza” dei nostri risultati, dicendo che se l’ipotesi dell’esistenza dei soli processi di fondo fosse vera, e ripetessimo l’esperimento dieci milioni di volte, allora otterremmo quanto osservato sperimentalmente al massimo 3 volte. Come facciamo a stabilire questo?
    Per fortuna abbiamo degli strumenti che ci aiutano a lavorare anche con un campione di dati finito, e uno dei più potenti a nostra disposizione è la possibilità di simulare i processi sotto esame, in maniera del tutto analoga a come li ricostruiremmo nei nostri rivelatori, con il vantaggio di poter ottenere campioni molto più grandi di quanto qualsiasi acceleratore possa fornire. Per fare ciò alla scala richiesta dagli esperimenti a Lhc utilizziamo la Grid, l’infrastruttura di calcolo distribuita (vd. in Asimmetrie n. 13 Griglie e nuvole, ndr). Il modo in cui stimiamo il livello di confidenza di un’ipotesi utilizza proprio grandi campioni di dati che sono simulati secondo l’ipotesi sotto esame. Le simulazioni in questione sono dette “giocattolo”.
     
    c.
    Nello studio dei processi rari una delle osservabili interessanti è il numero di eventi prodotti dal processo raro in questione (il segnale). Questo numero deve essere confrontato con quello dovuto a processi diversi e in generale meno rari (il fondo). Attraverso le simulazioni “giocattolo” si può produrre molte volte un possibile risultato dell’esperimento nel caso che ci siano solo eventi di fondo (la curva in figura). L’area corrispondente alla parte di curva superiore a un determinato valore della quantità misurata indica la probabilità che un risultato maggiore o uguale a tale valore sia dovuto all’esistenza del solo fondo. Per affermare che il valore misurato non può essere prodotto dal solo fondo, i fisici hanno scelto il limite convenzionale di 3 parti per dieci milioni (le famose 5 sigma) indicate dall’area gialla in figura. L’area tratteggiata in figura esprime invece la probabilità di ottenere un valore maggiore di quello misurato. Nel caso indicato in 1) la misura è compatibile con l’esistenza di solo fondo, mentre in 2) possiamo affermare che il solo fondo non è sufficiente a spiegare la misura, che può essere quindi giustificata solo con l’esistenza di un segnale dovuto al processo raro.

     
    Infatti anche l’enorme potenza di calcolo della Grid non basta a simulare in dettaglio tutte le interazioni che le particelle produrrebbero nei nostri rivelatori, e ci si deve accontentare di parametrizzare unicamente le distribuzioni finali delle osservabili misurate, per esempio la massa invariante o il numero di volte in cui si verifica un processo ritenuto raro o impossibile (vd Asimmetrie n. 15 Il fascino dell'impossibile, ndr). Anche con questi limiti, si tratta di una simulazione che costituisce un modo pratico e sufficientemente accurato per capire quanto sia affidabile la verifica di un’ipotesi e che genere di incertezze siano legate al campione di dati reali a nostra disposizione. Nella simulazione, generiamo un numero altissimo di campioni, ciascuno statisticamente equivalente a quello raccolto dall’esperimento. Ciascun campione è generato in base all’ipotesi sotto esame – processi di solo fondo, oppure processi in cui oltre al fondo c’è anche il segnale. Effettuiamo la nostra analisi su ciascun campione, e facciamo la distribuzione dei risultati ottenuti. È come se avessimo ripetuto il nostro esperimento un numero di volte pari al numero di campioni simulati. Confrontiamo adesso il risultato ottenuto sui dati reali con la distribuzione dei risultati simulati. Se lo troviamo parecchio al di fuori di quanto previsto in base all’ipotesi che stiamo testando, allora possiamo rigettare questa ipotesi, con un livello di confidenza pari alla frazione dell’area della distribuzione che si trova oltre il valore osservato sperimentalmente (vd. fig. c). La simulazione è inoltre utile per capire quali sono le incertezze sistematiche sulla nostra misura, dovute ad esempio all’incertezza con cui conosciamo la nostra ipotesi di “test” oppure all’incer tezza con cui conosciamo la risposta dei nostri rivelatori alle particelle che li attraversano. Infine, la stessa tecnica consente una stima delle incertezze in processi intrinsecamente non ripetibili. Ad esempio, le osser vazioni cosmologiche utilizzano l’intero universo come laboratorio, e non c’è modo di ripetere l’esperimento. Tutte le osser vazioni cosmologiche hanno un’incer tezza osser vativa che viene generalmente indicata come “varianza cosmica”, e che può essere stimata con tecniche simili.
    Un altro concetto importante nelle nostre misure è quello di “purezza”, definita come la frazione di eventi di segnale presenti nel nostro campione complessivo. A parità di segnale, un campione più puro sarà anche statisticamente più significativo o, equivalentemente, un campione più piccolo ma più puro sarà statisticamente equivalente a un campione più grande e meno puro. Tornando di nuovo alla fig. b, il picco risulterebbe molto più convincente se il fondo fosse cento volte minore. Riusciamo a fare questo? Negli ultimi anni i fisici delle particelle hanno imparato a utilizzare con successo tecniche di machine learning in uso in campi del tutto diversi, come la classificazione delle immagini o la diagnostica medica. In fin dei conti, la separazione tra segnale e fondo nei nostri esperimenti è un problema concettualmente equivalente a quello del riconoscimento facciale, affrontato e brillantemente risolto nei programmi di fotografia esistenti su qualsiasi smartphone (vd. approfondimento).
     
    [as] approfondimento
    Indovina chi


    1.
    Schema di funzionamento di un classificatore (rappresentato in figura dalle scatole).



    Vi è mai capitato di postare foto su Facebook e di vedere apparire l’invito a “taggare” i volti dei vostri amici, magari con il suggerimento del nome “è Stella? è Giovanni?”. Come fa Facebook a sapere che in una foto sono ritratte delle persone e addirittura a riconoscerle? Le tecniche utilizzate fanno uso di “reti neurali”, o più genericamente di cosiddetti “classificatori”, che sono capaci di imparare a distinguere, a riconoscere le forme (in inglese pattern recognition). Per insegnare a un classificatore a riconoscere i volti (che sono il nostro “segnale”) bisognerà fargli prima analizzare varie immagini di volti, e solo quelle. Il classificatore per esempio imparerà che in un volto ci devono essere due occhi, un naso e una bocca. Che ci possono essere i capelli, ma non è sempre detto, che ci possono essere dei baffi, e così via... In una seconda fase sarà necessario passare al classificatore solo immagini che non sono volti (cioè sono il nostro “fondo”): scorci di mare, montagne, automobili,... Alla fine del processo di apprendimento, il programma di classificazione produrrà un algoritmo, capace di analizzare un’immagine e calcolare la probabilità che questa raffiguri un volto (segnale) o qualcos’altro. Il risultato è una probabilità, perché c’è sempre una certa frazione di casi in cui l’algoritmo sbaglia, invitandovi a “taggare” il volto di un amico dove c’è in realtà una parete rocciosa, o non riconoscendo che un’immagine ritrae una persona. Questo può capitare perché la roccia può avere dei tratti che ricordano la struttura minima di un volto (occhi, naso, bocca) oppure perché la persona è ritratta di profilo. Gli algoritmi migliori sono quelli che sono stati “allenati” su un enorme numero di “segnali” (anche molto particolari, come una persona di spalle) e di “fondi” (montagne a forma di testa o macchine decorate con una faccia). Negli ultimi anni i fisici hanno iniziato a usare le stesse tecniche per distinguere il segnale, il raro evento cercato, dal fondo, i tanti eventi quasi uguali al segnale. Nel loro caso i classificatori vengono allenati su grandi campioni di dati simulati, sia di segnale che di fondo. Come nel caso delle immagini, il risultato non è mai sicuro al cento per cento, ma l’uso intelligente di queste tecniche ha permesso ai fisici di ottenere molta più informazione sui campioni di dati raccolti e di testare la validità di un’ipotesi o l’accordo dei dati con la teoria. [Barbara Sciascia]


     

    Biografia
    Concezio Bozzi è primo ricercatore presso la sezione Infn di Ferrara, attualmente in congedo presso il Cern. Ha partecipato a esperimenti al Cern e a Slac. Si interessa di fisica del flavour e di calcolo scientifico. Svolge attualmente la sua attività di ricerca nell’esperimento Lhcb. È stato membro di comitati di valutazione della ricerca presso l’Infn, il Cern e il Department of Energy degli Usa..


    Link
    http://blogs.scientificamerican.com/observations/five-sigmawhats-that/
    http://scikit-learn.org


    icon-pdf [scarica pdf]

     

     

    {jcomments on}

 ©asimmetrie   Istituto Nazionale di Fisica Nucleare / via E. Fermi 40 / 00044 Frascati [Roma] Italia
Ufficio Comunicazione INFN / P.zza dei Caprettari 70 / 00186 Roma Italia
Registrazione del Tribunale di Roma n. 336/2012 del 7 dicembre 2012
powered by Multimedia Service e INFN-LNF servizio di calcolo
Informativa sulla Privacy e Cookie Policy