[as] riflessi
Dove l’IA incontra la potenza di calcolo
di Martina Galli
Giovane, frequentatissimo, all’avanguardia: il Centro Nazionale di Ricerca in High Performance Computing, Big Data e Quantum Computing (ICSC), inaugurato a Bologna nel 2022 su iniziativa dell’INFN e con finanziamenti del Ministero dell’Università e della Ricerca, ha rivoluzionato il calcolo a livello nazionale. Con l’obiettivo di mettere a sistema tutte le risorse disponibili nel Paese e potenziarle, ICSC è riuscito a realizzare una delle infrastrutture di calcolo più avanzate al mondo, a cui comunità scientifiche e aziende private riescono ad accedere in maniera dinamica. Tra le risorse messe a disposizione c’è Leonardo, un supercomputer per il calcolo parallelo potentissimo (tra i primi dieci a livello globale), il cui upgrade Lisa – in onore di Monna Lisa – sarà ottimizzato per l’addestramento di algoritmi di intelligenza artificiale (IA). In questa nuova epoca in cui la materia prima sono i dati, infatti, è importante non soltanto saperli processare con macchine estremamente performanti, ma anche riuscire a estrarre valore da essi. ICSC ha quindi affiancato alla sua infrastruttura distribuita lo sviluppo di applicazioni di IA, che con questa nuova materia prima sappiano creare opportunità. Abbiamo chiesto ad Antonio Zoccoli, presidente dell’INFN e della Fondazione ICSC, di raccontarcele.
[as]: Su quali settori si concentra ICSC per lo sviluppo di applicazioni di IA?
[Antonio Zoccoli]: L’intelligenza artificiale ha ormai un ruolo preponderante in tutte le linee scientifiche di ICSC. Ne abbiamo individuate otto, otto “spoke”: scienza fondamentale e space economy, astrofisica, clima, ambiente e disastri naturali, ingegneria, scienza molecolare e dei materiali, medicina innovativa, smart cities. In tutte queste aree i dati possono fornire indicazioni preziose, e rivoluzionarle. Prendiamo per esempio il settore agricolo, in cui incrociando i dati satellitari e i dati climatici, si riesce a ottimizzare l’irrigazione di una determinata coltura; oppure l’ambito medico, in cui incrociando i dati genomici e quelli delle risonanze, si riescono a diagnosticare efficacemente le malattie e quindi a individuare le cure migliori. Nella scienza fondamentale gli algoritmi di IA possono guidarci nella ricerca di nuove particelle, nuovi sistemi solari, e indicarci nuove vie per studiare le leggi fondamentali dell’universo. E in ambito ingegneristico, i cosiddetti “gemelli digitali” possono offrirci innumerevoli vantaggi, permettendoci, per esempio, di testare la sicurezza degli edifici.
[as]: Come funzionano i gemelli digitali?
[AZ]: Un gemello digitale è sostanzialmente un codice che riproduce uno strumento, un impianto, un processo e ne simula il funzionamento ideale. Quando lo strumento, l’impianto, il processo assume un andamento diverso nella realtà – per esempio il traffico in una determinata città – allora il gemello digitale fornisce delle informazioni aggiuntive, diciamo dei suggerimenti di intervento. Questo è particolarmente rilevante nel caso di sistemi complessi, difficilmente simulabili con carta e matita, perché il gemello digitale permette di visualizzare gli effetti di una eventuale rottura, deformazione, determinata azione, e quindi di mettere in campo delle azioni correttive, utili a prevenire effetti indesiderati o a ottimizzare i processi.
[as]: Quale sarà l’impatto di queste nuove tecnologie sul tessuto produttivo italiano?
[AZ]: L’impatto è potenzialmente trasformativo, ma è molto importante che siano proprio le aziende, consce delle esigenze del mercato, a fare da traino. L’idea è quella di aiutarle con delle soluzioni operative, sviluppate ad hoc dalle accademie e dagli enti di ricerca che fanno parte del consorzio di ICSC, per rispondere precisamente alle loro esigenze. Con Unipol, per esempio, abbiamo lavorato sul monitoraggio delle automobili dotate della loro scatola nera; con Intesa Sanpaolo abbiamo sviluppato algoritmi di IA per ottimizzare i loro processi bancari; con Humanitas ci siamo concentrati sullo sviluppo di nuove terapie. Sono tantissime le applicazioni che il mondo produttivo può ottenere sfruttando le nostre competenze. La sfida con le aziende medio-piccole è piuttosto chiarire loro quale sia il reale vantaggio competitivo delle soluzioni che proponiamo, perché spesso non ne vedono il potenziale. Il loro coinvolgimento è fondamentale per innescare una transizione verso un sistema produttivo che sfrutti l’intelligenza artificiale, in cui chiunque abbia un po’ di conoscenza, inventiva e coraggio per proporre soluzioni innovative troverà spazio.
[as]: Quali sfide computazionali si troverebbe ad affrontare?
[AZ]: Per addestrare un algoritmo di intelligenza artificiale si fa affidamento al calcolo parallelo, ovvero una serie di CPU che lavorano simultaneamente. A seconda di quanto è complicato l’algoritmo, e quindi del numero di parametri che lo determinano, il processo è più o meno complicato, più o meno lungo. Quello che conta è avere, per algoritmi molto complicati, un numero molto grande di CPU, quindi almeno un grande supercomputer. Avere un supercomputer da 100 CPU e avere due supercomputer da 50 CPU, infatti, non è la stessa cosa, perché non conta il numero assoluto di CPU, ma il numero di CPU utilizzabili contemporaneamente. Un supercomputer da 100 CPU in questo senso è più adatto; consente di addestrare il modello di IA in un tempo breve, e dunque di rimanere competitivi sul mercato. Per avere un’idea dei tempi di elaborazione: se io volessi fare il training di un Large Language Model – un algoritmo che sfrutta l’IA generativa come ChatGPT – su Leonardo, impiegherei tre mesi, su un computer normale circa 50 anni. Naturalmente a un supercomputer come Leonardo è utile affiancare computer a scalare più piccoli, che permettano di sviluppare algoritmi più semplici. A Bologna, per esempio, abbiamo creato dei sistemi di calcolo parallelo chiamati HPC bubbles, più piccoli e dinamici, finalizzati proprio a questo scopo.




