Lo scatto giusto
Un grilletto per i rivelatori di particelle

di Umberto Marconi e Barbara Sciascia

La bocca di un vulcano che erutta lava incandescente o il gesto rapido di un ghepardo che ghermisce un’antilope. Immagini che colgono l’essenza di un fatto più di tante parole o filmati. Basta che sia “lo scatto giusto”. Anche nella fisica delle particelle a un certo punto divenne necessario fare lo scatto giusto, con la difficoltà aggiuntiva di dover fotografare qualcosa che, però, non si può vedere!

Andiamo con ordine: le particelle elementari non si possono vedere ma i rivelatori di particelle le “rendono visibili” sfruttando alcune loro proprietà, come per esempio la carica elettrica. Un po’ come un animale che lascia impronte sulla neve: dal loro studio possiamo capire molto dell’animale che le ha lasciate. Uno dei primi rivelatori che ha permesso di “vedere” le particelle è stata la camera a bolle (vd. approfondimento), dove era necessario scattare una foto alla traccia lasciata dalla particella appena transitata. Il problema era quando scattare, e fu risolto aggiungendo un altro tipo di rivelatore che emetteva un segnale al passaggio della particella, ben prima che si formasse la traccia nella camera a bolle, segnale usato per scattare la foto.

Negli anni, la crescente complessità degli esperimenti e i vari tipi di rivelatori sviluppati hanno portato a ideare sofisticate alternative alla macchina fotografica, note nel loro insieme come sistema di trigger o trigger tout- court (in italiano, “grilletto”).

Prima di entrare nei dettagli di un sistema di un moderno trigger, dobbiamo definire altri due aspetti: la firma, o signature in inglese, e il tempo morto, o dead time. Con la firma si indica l’insieme delle caratteristiche degli eventi interessanti, un po’ come la firma autografa sulla carta di credito che ci dovrebbe identificare in maniera univoca. Per tempo morto si intende il tempo minimo tra uno scatto e l’altro, tempo in cui la macchina fotografica non può scattare foto, come se fosse inutilizzabile, “morta”.

Insomma ogni fotografia fatta a un evento, buono o cattivo che sia, implica che per un po’ di tempo non potrò scattare altre foto, anche nel caso ci fossero eventi buoni. E la strategia perseguita da tutti i moderni sistemi di trigger è definire la miglior signature, in modo da scattare foto solo agli eventi buoni (il segnale) e non a quelli inutili (il fondo), e aver il minor dead time possibile, in modo da perdere meno eventi buoni possibili.

Fino a che la frequenza con cui accadono gli eventi è bassa, è abbastanza facile costruire buoni sistemi di trigger. Ma dal prossimo anno i fasci di protoni di Lhc (il Large Hadron Collider al Cern di Ginevra) si incontreranno quaranta milioni di volte al secondo (in gergo si dice che dal 2015 Lhc “funzionerà a 40 MHz”) al centro di ciascuno dei quattro esperimenti (Alice, Atlas, Cms e Lhcb) presenti lungo il tunnel di Lhc. E ognuna di queste volte potrebbe succedere qualcosa di “interessante”, come la produzione di un bosone di Higgs (vd. Asimmetrie n. 8 e n. 14, ndr) o addirittura la produzione di qualche particella ancora mai osservata come quelle che potrebbero spiegare la natura della materia oscura (vd. Asimmetrie n. 4, ndr).

[as] approfondimento
Guardare le bolle
1.
Elaborazione artistica delle tracce lasciate da particelle cariche nella camera a bolle Bebc (Big European Bubble Chamber) al Cern nei primi anni ’70.

 

“Butta la pasta!”: una tipica espressione italiana che sottintende la più ampia “l’acqua bolle, butta la pasta!”. E quante volte attendendo affamati che l’acqua bollisse, abbiamo notato speranzosi le prime bollicine? “Guardare le bolle” è quello che facevano i fisici che tra gli anni ’50 e gli anni ’80 usavano una camera a bolle, un rivelatore inventato nel 1952 dall’americano Donald Glaser, con un brevissimo articolo di meno di una colonna, che gli valse il premio Nobel nel 1960. La camera a bolle mette insieme tre diverse idee. La prima è che una particella carica che attraversa un gas o un liquido lo ionizza (separa elettroni dalle molecole che li includevano, lasciando ioni carichi positivamente). La seconda è che un liquido che “sta per bollire” inizia a farlo di preferenza attorno a uno ione. La terza è che le singole bollicine che si formano al passaggio della particella carica sono fotografabili, prima che tutto il liquido si metta a bollire. In pratica, il rivelatore consiste in un contenitore, posto all’interno di un campo magnetico, in cui un liquido, spesso idrogeno, è mantenuto in condizioni di pressione e temperatura subito al di sotto del punto di ebollizione. Pochi millisecondi prima dell’arrivo del fascio di particelle parte la sequenza, antesignana dei moderni sistemi di trigger, necessaria a fotografare le particelle stesse. Il liquido viene espanso tramite un pistone, in modo da provocare un calo di pressione, rendendolo “pronto a bollire”. Quando le particelle cariche attraversano il liquido ionizzandolo, singole bolle si formano attorno agli ioni e pochi millisecondi dopo il passaggio delle particelle vengono scattate fotografie stereo, cioè da più direzioni diverse, in modo da poter ricostruire la traiettoria tridimensionale. Negli anni sono state costruite più di cento camere a bolle e sono state raccolte più di cento milioni di fotografie stereo. La complessa analisi di queste immagini, che richiedeva molte persone opportunamente specializzate, ma che poteva essere fatta anche in laboratori lontani dall’esperimento, è stata uno degli elementi chiave nello sviluppo delle collaborazioni internazionali per effettuare i grandi esperimenti.

a.
Negli ultimi mesi del 2014 finiranno i lavori a Lhc, iniziati ad aprile 2013, che permetteranno una nuova raccolta di dati a un’energia di fascio molto maggiore di prima.
A complicare il tutto, gli eventi prodotti all’interno dei quattro esperimenti di Lhc contengono molta informazione (in media ciascuno occupa 1 MB) a causa del numero e della complessità dei rivelatori utilizzati, informazione che non può essere elaborata nei 25 nanosecondi a disposizione tra una collisione e l’altra. La soluzione può essere quella di utilizzare sistemi di trigger che lavorino in parallelo e/o su più livelli. Di solito si usano entrambi gli approcci e ciascuno dei quattro esperimenti ha implementato un proprio sistema trigger con caratteristiche peculiari equivalenti. I vari esperimenti stanno preparando l’upgrade dei loro sistemi di rivelazione, incluso il trigger; nel seguito descriveremo la soluzione scelta da Lhcb, il cui sistema può già ora funzionare a 40 MHz, ma può registrare al più una metà degli eventi interessanti che saranno prodotti grazie alla maggiore energia di Lhc. Quest’ultimo esperimento studia in particolare gli eventi in cui siano stati prodotti quark di tipo charm o beauty e deve distinguerli dalla maggioranza degli altri casi, in cui non è successo nulla di interessante.
Un tipico accorgimento è quello di usare una sequenza di meccanismi di selettività e latenza progressivamente crescenti. In altre parole, le prime richieste (selettività) devono essere semplici e veloci, in modo da ridurre il numero di eventi da esaminare con più attenzione e in più tempo (latenza). Complessivamente il tempo di elaborazione richiesto dalla procedura di trigger per completare la valutazione è dell’ordine di 10 millisecondi: molto maggiore del tempo utile di 25 nanosecondi. La scelta necessaria per sostenere il ritmo imposto dalle collisioni in Lhc è allora usare molte procedure di selezione in parallelo. Nel caso di Lhcb, dove il flusso aggregato dei dati è di circa 40 Tb/s, è possibile realizzare un sistema di trigger che impieghi esclusivamente reti di computer (senza alcun altro filtro intermedio) che elaborino circa quattrocentomila procedure in parallelo, permettendo al trigger stesso di funzionare alla frequenza desiderata.
b.
Schema di un tipico sistema di trigger: i fasci prodotti dall’acceleratore collidono all’interno di un rivelatore producendo segnali nei vari sotto- rivelatori (rivelatore di muoni, calorimetro ecc.). Ciascuno di essi invia i segnali relativi a una determinata collisione a una medesima CPU del primo livello di trigger. Il primo livello esegue un’analisi veloce di ciascun evento e decide se rigettarlo o passarlo al livello successivo per un’analisi che potrà essere più lunga e quindi più accurata. Solo una piccola parte degli eventi prodotti nelle collisioni verrà salvata per formare il campione di dati che sarà studiato in dettaglio.
 
Dai primi anni 2000, è diventato comune l’uso di processori (CPU) multi-core, in cui più processori sono montati sul medesimo supporto in modo da aumentare la potenza di calcolo del singolo computer. Oggi si trovano in commercio processori fino a 12 core per CPU, ma anche così il numero di computer necessari per eseguire 400.000 procedure di trigger in parallelo sarebbe troppo grande. Entro qualche anno però i progressi nella tecnologia di produzione dei chip permetteranno d’avere processori con centinaia di core per CPU. Attorno al 2018/19, anno previsto per la realizzazione del nuovo progetto di trigger, saranno a disposizione per il mercato di largo consumo nuovi computer dotati di sistemi dual CPU (cioè in cui uno stesso server gestisce due CPU), ciascuna dotata di 200 core: questo permetterà di eseguire le operazioni necessarie con una rete di computer costituita da 1000 nodi di calcolo.
Le informazioni per “ricostruire l’evento” consistono in segnali prodotti da rivelatori disseminati lungo i 21 metri di lunghezza e i più di 10 metri di altezza di Lhcb, che è quasi un nano rispetto agli altri due esperimenti giganteschi, Atlas e Cms (vd. in Asimmetrie n. 8 L'assedio all'Higgs, ndr). I tanti “frammenti” dell’evento sono trasmessi, attraverso circa diecimila fibre ottiche, a un altro sistema, per essere riaggregati a ricostituire l’evento completo. Come nella costruzione di un enorme puzzle, ciascun frammento deve avere una sua “forma particolare” che permetta di “metterlo al posto giusto”; questa “forma”, chiamata in gergo indirizzo, deve essere codificata secondo un protocollo di rete standard, cioè nello stesso modo usato per i dati che viaggiano su internet (vd. in Asimmetrie n. 13 [as] Le vie segrete dei bit., ndr). Il compito, chiamato event-building, di mettere insieme i frammenti “riconoscendone la forma” e ricostruire ciascun evento, è svolto da una rete di computer dedicata, chiamata in Lhcb Event Builder Farm, che impiega connessioni di rete veloci da 100 Gb/s che permettono di riaggregare gli eventi con la massima efficienza.
 
c.
Particolare del Velo, il rivelatore di Lhcb più vicino al punto di interazione dei fasci di protoni. Le informazioni raccolte dal Velo sono uno degli ingredienti fondamentali del trigger di Lhcb.
 
Tutti i computer dell’Event Builder Farm ricevono continuamente i frammenti degli eventi dall’elettronica di lettura del rivelatore; ciascuno di essi, a turno, riceve i dati da tutti gli altri computer, in maniera da avere tutti i frammenti corrispondenti a un determinato evento da riaggregare, per ricostituire l’evento completo. I dati prodotti dal rivelatore arrivano ai computer dell’Event Builder Farm attraverso schede elettroniche d’interfaccia che saranno realizzate appositamente.
Una volta ricomposto, l’evento è inviato a un altro sistema, l’Event Filter Farm in Lhcb, che grazie ai suoi mille nodi di calcolo potrà selezionare eventi alla frequenza di 40 MHz e gestire il flusso aggregato di 40 Tb/s. Gli esperimenti di Lhc sono a più di 100 metri di profondità sotto terra e sono sottoposti a un enorme flusso di radiazioni. Per la trasmissione dati è quindi necessario impiegare un chip resistente alla radiazione, prodotto dal Cern e capace di trasmettere fino a 4,8 Gb/s. È necessario un gran numero di canali di trasmissione (circa 10.000) per sostenere il traffico dati verso l’Event Builder Farm. Per sfruttare al meglio i mille nodi di calcolo nel riconoscimento o analisi degli eventi, è necessario un controllore, che da una parte sappia quale dei nodi è meno carico di lavoro e, dall’altra, invii – usando gli indirizzi – tutti i frammenti di un medesimo evento allo stesso nodo. Questo ruolo di “regolatore del traffico” è svolto da un’unità funzionale specifica, di solito chiamata trigger-supervisor: attraverso quest’ultimo, ciascuno dei nodi dell’Event Filter Farm segnala al trigger quali risorse sono libere e pronte ad accogliere un nuovo evento che può essere analizzato.
Tutta questa complessità può essere riassunta, pensando a Lhc come a una macchina che produce 40 milioni di immagini al secondo, di cui meno di una su mille è realmente interessante. Ciascuno dei quattro esperimenti “vede” quest’immagine attraverso i propri rivelatori, come se fosse un puzzle: il singolo pezzo è l’informazione registrata da ciascun canale di ciascun rivelatore. Un generico sistema di trigger può guardare pochi tra queste decine di migliaia di pezzi. Il trigger di Lhcb potrà guardare tutti i pezzi e decidere se l’evento è interessante, il tutto entro i 25 nanosecondi tra una collisione e l’altra.

Biografia
Umberto Marconi è ricercatore presso la sezione Infn di Bologna. La principale attività di ricerca riguarda lo studio dei quark beauty e charm in Lhc con l’esperimento Lhcb. Al momento lavora alla progettazione del nuovo sistema di readout del trigger di Lhcb, previsto per l’upgrade del rivelatore nel 2018-19.

Barbara Sciascia è ricercatrice presso i Laboratori Nazionali di Frascati (Lnf) dell’Infn. È stata a lungo responsabile del trigger dell’esperimento Kloe. Da alcuni anni collabora all’esperimento Lhcb.

 

Link

http://www.lhc-closer.es/1/3/13/0
http://profmattstrassler.com/articles-and-posts/largehadroncolliderfaq/the-trigger-discarding-all-but-the-gold/

 


icon-pdf [scarica pdf]

 

 

{jcomments on}