Cogli l’ottimo

La fisica delle particelle nell’era dell’IA

di Maurizio Pierini

 

a.
L’esperimento CMS al CERN di Ginevra

Una delle tecnologie alla base della rivoluzione dell’intelligenza artificiale è il machine learning, un approccio in cui un algoritmo apprende a svolgere un compito (come riconoscere oggetti o prendere decisioni) non attraverso regole fisse, ma tramite esempi. Più ampio e rappresentativo è il campione di dati usato per l’addestramento, più accurata sarà la soluzione proposta.

In fisica delle particelle, il machine learning ha una lunga storia. Già dagli anni ’80, i fisici hanno impiegato reti neurali e altri algoritmi per analizzare dati sperimentali. Tecniche di questo tipo hanno avuto, ad esempio, un ruolo importante nella determinazione degli elementi della matrice Cabibbo-Kobayashi-Maskawa, che spiega la simmetria tra materia e antimateria nei quark (premio Nobel per la fisica del 2008) e nella scoperta del bosone di Higgs, che spiega l’origine della massa delle particelle elementari (premio Nobel per la fisica del 2013).

Nel 2012, mentre i fisici del CERN annunciavano la scoperta del bosone di Higgs, Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton presentavano AlexNet, una rete neurale profonda in grado di riconoscere immagini con una precisione senza precedenti. Questa rete diede il via alla nuova era del deep learning, che ha reso possibile l’attuale esplosione delle applicazioni dell’IA.

Durante i preparativi per il nuovo ciclo di dati ad alta energia di LHC previsto per il 2015, un piccolo gruppo di fisici cominciò a esplorare l’utilizzo di tecniche di deep learning per l’analisi dei dati sperimentali. I primi esperimenti si basarono su AlexNet per il riconoscimento di particelle, in particolare nei dati di LHC e di esperimenti sui neutrini. L’idea era trasformare i segnali raccolti dai rivelatori in immagini da fornire in input alla rete neurale. I risultati iniziali furono promettenti: le reti profonde superavano in prestazioni gli algoritmi tradizionali.

Tuttavia, l’approccio “a immagine” mostrava dei limiti: i rivelatori di LHC hanno geometrie irregolari e complesse, spesso disposte in strati cilindrici, con sensori di forme e dimensioni diverse. I dati risultanti sono meglio descritti come una “nuvola di punti”, ciascuno con informazioni minime (posizione, carica elettrica, ecc.), che devono essere combinati per ricostruire le traiettorie delle particelle. In questo senso, i dati di LHC somigliano più a una rete sociale, dove ciascun “nodo” è un segnale e il significato globale emerge dalla relazione tra i segnali.

Dal 2017, gli esperimenti ATLAS e CMS al CERN hanno iniziato a utilizzare modelli neurali più adatti a strutture di dati complesse, come le graph neural networks (GNN) e, più recentemente, i Transformer – la stessa architettura usata per sviluppare ChatGPT. Queste reti sono in grado di cogliere relazioni complesse tra segnali, migliorando di un ordine di grandezza la capacità di identificare particelle o eventi rari nei dati.

Questo progresso ha portato alla formazione di una comunità all’interno degli esperimenti di LHC dedicata all’intelligenza artificiale. I ricercatori hanno iniziato ad applicare il machine learning a problemi fino ad allora risolti con metodi classici: simulazione del comportamento dei rivelatori, identificazione automatica di eventi di interesse, ricostruzione di particelle dai segnali registrati. L’uso dell’IA ha superato la fase di test: oggi è considerata uno strumento essenziale per la fisica delle particelle.

b.
Rappresentazione artistica di una rete neurale che processa dati nell’esperimento ATLA

Una pietra miliare si è raggiunta con l’inizio del run 3 di LHC, quando l’esperimento CMS ha introdotto reti neurali profonde nel sistema di filtraggio in tempo reale dei dati (trigger). LHC produce circa 30 milioni di collisioni al secondo, ma solo poche migliaia possono essere salvate per l’analisi. La selezione iniziale viene eseguita da algoritmi su FPGA (Field Programmable Gate Array), un tipo versatile di circuito integrato progettato per essere programmabile (vd. Caduti nella rete (neurale), ndr). Sull’FPGA, i fisici degli esperimenti LHC eseguono gli algoritmi di selezione rappresentandoli come circuiti logici. Tali algoritmi devono decidere in appena 4 millisecondi se un evento merita di essere conservato. Una rete neurale inserita in questo sistema deve essere prima tradotta in un circuito logico. Poi, deve essere integrata sul FPGA. Il tutto va fatto in maniera tale che la rete possa prendere una decisione in 100 nanosecondi. Per confronto, una rete neurale su un’auto a guida autonoma ha tempi di reazione diecimila volte maggiori.

In questo contesto sono stati sviluppati due algoritmi, CICADA e AXOL1TL, progettati per identificare collisioni anomale, cioè eventi rari o inaspettati. Queste reti vengono addestrate solo su eventi noti, e valutano quanto una nuova collisione sia “tipica”. Se rilevano un’anomalia, salvano l’evento per ulteriori analisi. Dal 2024, CMS sta costruendo un archivio di eventi anomali, con l’obiettivo di individuare possibili segnali prodotti, ad esempio, da scenari di nuova fisica mai esplorati prima e quindi sfuggiti agli approcci tradizionali.

Questa nuova strategia mostra come l’intelligenza artificiale non sia solo uno strumento di supporto, ma una componente attiva della ricerca di punta. Se da questi eventi emergessero nuove scoperte, il ruolo dell’IA in fisica delle particelle sarebbe destinato a diventare ancora più centrale di quanto già lo sia oggi.

 

DOI: 10.23801/asimmetrie.2025.39.07

Biografia Maurizio Pierini è un ricercatore del CERN e lavora all’esperimento CMS dal 2007. Si è specializzato in approcci innovativi per la rivelazione di nuovi fenomeni fisici all’LHC. Ha sviluppato sistemi di acquisizione dati e di rilevamento di anomalie basati sull’intelligenza artificiale.