h e i suoi fratelli
Le costanti fondamentali

di Marco Ciuchini

a.
Le costanti fondamentali trattate in questo numero, insieme agli altri parametri del modello standard, contribuiscono a “costruire” le predizioni teoriche da confrontare con le misure sperimentali.

Le leggi che governano i fenomeni fisici esprimono relazioni matematiche tra quantità “variabili”. Si pensi, ad esempio, alla legge di gravitazione universale, in cui la forza tra due corpi “varia” con la loro distanza. Tuttavia, esse contengono anche quantità il cui valore non dipende dallo spazio e dal tempo né dal particolare processo utilizzato per misurarlo. Si tratta delle “costanti universali”, che entrano nel calcolo dei processi osservabili: sono quantità che si incontrano nella descrizione teorica dei processi fisici, i cui valori non sono spiegati dalla teoria e possono essere determinati solo sperimentalmente attraverso una misura. Una lista completa delle costanti fisiche note ne includerebbe alcune decine, ma qui ci occupiamo delle costanti fisiche “fondamentali”, che definiamo come quelle costanti che compaiono nelle teorie che descrivono le interazioni fondamentali (elettromagnetica, debole, forte e gravitazionale). Naturalmente la nozione di “fondamentale” riferita a una costante fisica dipende dal quadro teorico di riferimento ed è quindi soggetta a evoluzione. La velocità della luce nel vuoto non era considerata né costante né fondamentale prima della teoria della relatività ristretta del 1905, mentre oggi è alla base della nostra comprensione delle proprietà dello spaziotempo e compare in tutte le teorie fondamentali. In effetti, le costanti possono essere considerate il punto di contatto tra la costruzione teorica, che definisce le relazioni tra gli oggetti matematici utilizzati per descrivere i processi, e la realtà fisica che determina, attraverso la misura, i valori delle costanti. Da questo punto di vista, una teoria è tanto più fondamentale quanto più è in grado di descrivere correttamente la fisica in termini del minor numero possibile di costanti. Teniamo quindi a mente che quelle che consideriamo oggi costanti fondamentali potrebbero non esserlo più domani! E che non è del tutto scontato che ciò che oggi riteniamo una costante, potrebbe in realtà dipendere (molto lentamente) dal tempo (vd. Andante, ma non troppo, ndr).
Ma di quali costanti stiamo parlando? Abbiamo già ricordato la velocità della luce nel vuoto c, introdotta con la teoria della relatività ristretta. Analogamente, le altre grandi teorie del ’900 contengono nuove costanti fondamentali. La meccanica quantistica introduce la costante di Planck (h), detta anche “quanto d’azione” (avendo le dimensioni di un’energia per un tempo), che compare nella quantizzazione delle grandezze fisiche (energia, momento angolare, ecc.), ma anche nell’enunciato del principio di indeterminazione di Heisenberg.
La teoria della relatività generale fa uso sia di c che della costante di gravitazione universale G, introdotta da Newton due secoli prima, ma introduce anche una nuova costante, la costante cosmologica Λ, che ha un ruolo fondamentale nella nostra attuale comprensione della cosmologia riassunta nel modello standard cosmologico.

b.
Il cubo delle teorie: ad ogni vertice del cubo è associata la teoria che corrisponde al valore delle costanti fondamentali indicate dagli assi.
 
I fisici russi Matvej Petrovič Bronštejn, Efim Isaakovič Zelmanov e Lev Borisovič Okun hanno introdotto il “cubo delle teorie”, costruito in uno spazio che ha sugli assi (x, y, z) proprio le tre costanti ħ (ovvero la costante di Planck “ridotta” che si legge “h tagliato” e che non è altro che h/2π), 1/c e G. Il cubo ci dà una rappresentazione grafica delle teorie che descrivono la fisica in diversi regimi: a ogni vertice è associata la teoria che corrisponde al valore delle costanti fondamentali indicate dagli assi. Così, ad esempio, il vertice del cubo nell’origine ħ = 0, 1/c = 0, G = 0 corrisponde alla meccanica galileiana (notate che 1/c = 0 implica che la velocità della luce nel vuoto viene considerata infinita), i vertici che si trovano sugli assi, in cui una sola costante fondamentale è diversa da zero, corrispondono alle diverse teorie che le hanno introdotte: la meccanica quantistica (ħ diverso da zero), la relatività ristretta (1/c diverso da zero) e la teoria newtoniana della gravità (G diverso da zero). I vertici che si trovano nei piani definiti da due assi, ovvero con due costanti diverse da zero, corrispondono alla teoria della relatività generale, che è una teoria classica (ħ = 0), alla teoria quantistica dei campi, classe a cui appartiene il modello standard delle particelle elementari, che non include la gravità (G = 0), e a una teoria di gravità quantistica non-relativistica (1/c = 0), che ad oggi non è ancora stata compiutamente formulata. Infine, la gravità quantistica, o “teoria del tutto”, corrisponde al vertice con tutte le costanti diverse da zero.
Un’altra osservazione interessante riguardo alle costanti fondamentali discusse fin qui è che sono quantità dimensionali, non numeri puri come accade invece per altre di cui parleremo più avanti. Questo significa da una parte che il loro valore numerico dipende dalle unità di misura utilizzate (ad esempio, la velocità della luce c = 299.792.458 m/s), dall’altra che è possibile scegliere sistemi di unità di misura nei quali il valore di alcune costanti è posto per definizione uguale a 1.
Oppure, in altre parole, si utilizzano le costanti stesse, definite a un valore di riferimento senza errore, come unità di misura per le loro dimensioni: ad esempio, si misurano le velocità in unità di c e dunque in tali unità 1 m/s è pari a 1/299.792.458 volte la velocità della luce.
Sistemi di unità di misura di questo tipo vengono detti “naturali”, perché fanno riferimento solo alle costanti fisiche fondamentali. Il più noto tra questi è il sistema di unità di misura di Planck che pone uguali a 1 proprio le costanti ħ, c, G (per carica elettrica e temperatura si pongono uguali a 1 anche le costanti di Coulomb 1/4πε0 e di Boltzmann kB (vd. La rivincita del disordine, ndr)). Per inciso, dal 2019 anche il Sistema Internazionale di unità di misura, pur non essendo un sistema naturale, definisce le unità di misura (secondo, metro, chilogrammo, ecc.) a partire dai valori di riferimento di un insieme di costanti fisiche, tra cui anche c, ħ, kB.
c.
Running (variazione) delle costanti di accoppiamento elettromagnetica, debole e forte con l’energia: a energie dell’ordine di 1016 GeV (l’energia di grande unificazione) ci si aspetta che convergano verso un valore comune.
 
Altre costanti fisiche fondamentali di grande interesse sono associate al modello standard, nel quale compaiono ad esempio le costanti d’accoppiamento delle tre interazioni fondamentali, che possono essere espresse in termini della costante di struttura fine α per le interazioni elettromagnetiche (ovvero come una combinazione della carica dell’elettrone con le costanti universali h, c e ε0) e delle analoghe costanti αs e αW rispettivamente per le interazioni forti e deboli (vd. La carica e i suoi derivati, ndr): sono le tre costanti adimensionali che determinano l’intensità delle interazioni fondamentali descritte dal modello standard e non sono predette dalla teoria, ma devono essere misurate. In realtà, considerando il modello standard una teoria fondamentale, tutti i suoi 19 parametri, che includono le masse delle particelle fermioniche e la massa del bosone di Higgs, possono essere considerati costanti fondamentali, con l’avvertimento che non sono veramente costanti! I loro valori cambiano infatti con l’energia dei processi fisici studiati a causa degli effetti quantistici (lo scambio delle cosiddette particelle virtuali). Tuttavia, questa dipendenza dall’energia, chiamata “running”, è calcolabile nell’ambito della teoria e dunque, come per le teorie classiche, una singola misura fatta a una definita energia è sufficiente a determinare il valore di ciascuna costante a tutte le altre energie.
Abbiamo detto che le costanti fisiche non sono predette dalla teoria, ma misurate. Possiamo chiederci quale informazione ci diano i loro valori e quanto dipenda da essi la fisica e la cosmologia che osserviamo. Queste domande hanno occupato i fisici negli ultimi decenni e sono in larga parte questioni aperte. La visione moderna della teoria delle interazioni fondamentali considera il modello standard una teoria “efficace” (ovvero non fondamentale) valida alla scala elettrodebole (ovvero a un’energia dell’ordine di 100 GeV definita dalle masse dei bosoni W e Z, mediatori delle interazioni elettrodeboli), che deriva da una teoria più fondamentale che descrive la fisica a energie più alte.
d.
Vista di un segmento della beam pipe di LHC.
 

Questo deve accadere necessariamente alla scala di Planck (dell’ordine di 1019 GeV, vd. approfondimento), ma ci sono indizi che suggeriscono che potrebbe esserci una nuova teoria anche a energie più basse. Una forte indicazione viene dal fatto che le costanti di accoppiamento delle interazioni fondamentali, che variano con l’energia, assumono valori simili a scale dell’ordine dei 1016 GeV, alle quali una teoria di grande unificazione (vd. fig. c) potrebbe descrivere le interazioni forti, deboli ed elettromagnetiche in termini di una sola costante di accoppiamento.
Tuttavia, nel modello standard le tre costanti si avvicinano, ma non si intersecano nello stesso punto, suggerendo la necessità di un’ulteriore teoria oltre il modello standard a una scala più bassa della scala di Planck per modificare opportunamente la dipendenza delle costanti dall’energia (ad esempio, la supersimmetria a energie dell’ordine del TeV, che però non è stata osservata negli esperimenti di LHC).
C’è poi la questione della “naturalezza” che ha guidato la fisica teorica per molto tempo. Il concetto di naturalezza, di cui esistono diverse formulazioni, può essere illustrato attraverso l’esempio del modello standard, che non è una teoria naturale a causa della massa del bosone di Higgs. Assumendo il modello valido fino alla scala di Planck, il valore “naturale” della massa del bosone di Higgs (MH) è dell’ordine della massa di Planck, cioè 1019 GeV. È necessaria una cancellazione di molti ordini di grandezza (fine tuning) tra il parametro MH, che compare nella teoria, e le correzioni quantistiche dovute all’interazione tra il bosone di Higgs e le altre particelle del modello, per ottenere il valore misurato di 125 GeV. Il fine tuning può apparire come un problema matematico, ma ha invece profonde implicazioni fisiche: immaginate di avere una nuova teoria, valida vicino alla scala di Planck, in grado di calcolare la massa del bosone di Higgs in termini di una nuova costante d’accoppiamento o della massa di una nuova particella. Un forte fine tuning implica che è necessario misurare queste nuove costanti con una precisione inverosimile per ottenere il valore corretto di MH. Ancora più innaturale, in questo caso per 120 ordini di grandezza, è il valore misurato della costante cosmologica della relatività generale, se interpretata come energia del vuoto.

Le costanti universali possono essere combinate tra loro per ottenere altre costanti. Tra queste, giocano un ruolo importante le cosiddette “grandezze planckiane”, mP, lP e tP, che si ottengono combinando ħ, c, G e che hanno un significato fisico importante: definiscono le scale di massa, lunghezza e tempo alle quali gli effetti quantistici e quelli relativistici sono confrontabili. Il modello standard delle particelle elementari, la teoria quantistica di campo che descrive le interazioni fondamentali forte, debole ed elettromagnetica, ma non include la gravità, può essere valido al più fino all’energia mPc2 = 1,22 x 1019 GeV, associata alla massa di Planck, raggiunta la quale le interazioni gravitazionali tra le particelle elementari non sono più trascurabili. Similmente il modello standard della cosmologia non può descrivere tempi minori o uguali al tempo di Planck tP, circa 10-43 secondi, quando la teoria della relatività generale non è più sufficiente, gli aspetti quantistici della gravità diventano importanti e la stessa struttura dello spaziotempo potrebbe essere molto diversa da quella che conosciamo.
Se si fanno entrare in gioco anche ε0 e kB, possono essere costruite altre due combinazioni di costanti, qP e TP, rispettivamente carica e temperatura di Planck. La temperatura di Planck, pari a circa 1032 K, può essere considerata come la massima temperatura che è possibile definire all’interno del quadro teorico attuale.
La carica di Planck, a differenza delle altre grandezze planckiane, non coinvolge G, pertanto non è legata all’interazione gravitazionale e si pone su un piano diverso rispetto alle altre. Mentre le altre grandezze planckiane sono molto lontane dai valori oggi accessibili sperimentalmente, la carica di Planck è solo di un ordine di grandezza maggiore della carica dell’elettrone, suggerendo così che quest’ultima è prossima al suo valore “naturale”.

 
e.
La natura che ci circonda è conseguenza diretta del valore delle costanti di accoppiamento.
 

Il requisito di naturalezza ha motivato e guidato per molti anni la ricerca di teorie oltre il modello standard, portando tipicamente, nei diversi modelli proposti, all’aspettativa di nuova fisica alla scala del TeV. La mancata osservazione di questa nuova fisica da parte degli esperimenti a LHC ha messo in discussione la richiesta di naturalezza e spinto a cercare motivazioni teoriche che giustifichino il fine tuning. In questa direzione, tra le idee più dibattute degli ultimi anni c’è il “principio antropico” (vd. anche Universo su misura, ndr).

L’osservazione da cui scaturisce il principio antropico è che la cosmologia e la fisica che osserviamo dipendono in maniera cruciale dai valori delle costanti di accoppiamento delle interazioni gravitazionali, elettromagnetiche e forti, delle masse dei fermioni, della costante cosmologica, ecc. Variazioni relativamente piccole di questi valori conducono a un universo molto diverso da quello in cui viviamo e facilmente inadatto allo sviluppo della vita intelligente (almeno come ce la aspettiamo).

Ad esempio, la differenza di massa tra protone e neutrone dipende fortemente dai valori delle masse dei quark up e down e dall’accoppiamento elettromagnetico. Bastano piccole variazioni di queste costanti per rendere il protone più pesante del neutrone e quindi instabile, producendo degli elementi chimici completamente diversi da quelli che conosciamo. Analogamente, una gravità sostanzialmente più debole non avrebbe portato alla formazione delle galassie, mentre una variazione relativamente piccola dell’intensità relativa tra gravità ed elettromagnetismo avrebbe prodotto stelle più fredde e messo in pericolo la produzione di elementi pesanti nell’universo. Una riduzione della costante di accoppiamento forte di meno di un ordine di grandezza rallenterebbe la nucleosintesi nelle stelle, mettendo a rischio la produzione di carbonio e ossigeno e, viceversa, un aumento porterebbe a consumare tutto l’idrogeno nell’universo primordiale.

La conclusione di tutto questo, il principio antropico appunto, è che un universo adatto per la vita intelligente (in altre parole abbastanza strutturato, non troppo freddo, con ossigeno, carbonio ed elementi pesanti) debba essere necessariamente “innaturale”, perché ha bisogno di valori e correlazioni molto particolari tra le costanti fisiche (in questa accezione di naturalezza, la correlazione da spiegare non è solo tra i due contributi che determinano il valore di una costante, ma anche tra le diverse costanti).
Per quanto affascinante, il principio antropico è controverso per molti aspetti: è una vera spiegazione della mancanza di naturalezza o scambia solo causa ed effetto? Ha senso introdurre una probabilità per un insieme di valori delle costanti fisiche per poter affermare che è improbabile o innaturale? Anche accettando il principio, visto che esistono teorie più naturali dei modelli standard in cui la vita è possibile, perché non sono realizzate in natura? Come vedete, dalle costanti fisiche c’è molto da imparare.

 

 
[as] approfondimento
Le grandezze di Planck


1.
Grandezze di Planck, ottenute combinando ħ, c e G in modo da ottenere una lunghezza, una massa, un tempo, una carica elettrica e una temperatura.

Le costanti universali possono essere combinate tra loro per ottenere altre costanti. Tra queste, giocano un ruolo importante le cosiddette “grandezze planckiane”, mP, lP e tP, che si ottengono combinando ħ, c, G e che hanno un significato fisico importante: definiscono le scale di massa, lunghezza e tempo alle quali gli effetti quantistici e quelli relativistici sono confrontabili. Il modello standard delle particelle elementari, la teoria quantistica di campo che descrive le interazioni fondamentali forte, debole ed elettromagnetica, ma non include la gravità, può essere valido al più fino all’energia mPc2 = 1,22 x 1019 GeV, associata alla massa di Planck, raggiunta la quale le interazioni gravitazionali tra le particelle elementari non sono più trascurabili. Similmente il modello standard della cosmologia non può descrivere tempi minori o uguali al tempo di Planck tP, circa 10-43 secondi, quando la teoria della relatività generale non è più sufficiente, gli aspetti quantistici della gravità diventano importanti e la stessa struttura dello spaziotempo potrebbe essere molto diversa da quella che conosciamo. Se si fanno entrare in gioco anche ε0 e kB, possono essere costruite altre due combinazioni di costanti, qP e TP, rispettivamente carica e temperatura di Planck. La temperatura di Planck, pari a circa 1032 K, può essere considerata come la massima temperatura che è possibile definire all’interno del quadro teorico attuale. La carica di Planck, a differenza delle altre grandezze planckiane, non coinvolge G, pertanto non è legata all’interazione gravitazionale e si pone su un piano diverso rispetto alle altre. Mentre le altre grandezze planckiane sono molto lontane dai valori oggi accessibili sperimentalmente, la carica di Planck è solo di un ordine di grandezza maggiore della carica dell’elettrone, suggerendo così che quest’ultima è prossima al suo valore “naturale”.

 
 

Biografia
Marco Ciuchini è un fisico teorico, dirigente di ricerca dell’INFN. È stato direttore della sezione di Roma Tre e attualmente è un componente della Giunta Esecutiva INFN. Si occupa di fenomenologia delle particelle elementari e ha lavorato prevalentemente su argomenti di fisica elettrodebole e del sapore dei quark.

 

icon-pdf [scarica pdf]

 
DOI: 10.23801/asimmetrie.2025.38.01
 

 ©asimmetrie   Istituto Nazionale di Fisica Nucleare / via E. Fermi 40 / 00044 Frascati [Roma] Italia
Ufficio Comunicazione INFN / P.zza dei Caprettari 70 / 00186 Roma Italia
Registrazione del Tribunale di Roma n. 336/2012 del 7 dicembre 2012
powered by Multimedia Service e INFN-LNF servizio di calcolo
Informativa sulla Privacy e Cookie Policy