• ... che muove il Sole e l’altre stelle

    ... che muove il Sole e l’altre stelle
    Costante cosmologica, energia oscura ed espansione dell’universo

    di Luca Amendola

     

    a.
    Il sistema geocentrico (o tolemaico) perfezionato nel De Caelo da Aristotele, che ne diede un inquadramento concettuale quasi universalmente accettato per circa due millenni dai dotti, per i quali il cosmo era un’entità statica, eterna e immobile nella sua struttura.
    Nelle prime pagine del De Caelo, Aristotele, come chissà quante altre persone prima di lui, si pone una domanda del tutto naturale: perché il cielo e gli astri non ci cadono addosso? Ma essendo egli Aristotele e non un nottambulo distratto, si chiede anche subito dopo: perché gli astri non si allontanano da noi? L’idea che l’universo potesse essere un sistema in evoluzione si affacciava così per la prima volta nella galleria delle grandi idee. Ma come diceva Bohr, il contrario di una grande idea è un’altra grande idea. Per i due millenni successivi, filosofi, teologi e i primi scienziati moderni si trovarono quasi tutti concordi nell’affermare che il cosmo era in realtà un’entità statica, eterna, immobile nella sua struttura.
    Einstein stesso, nei suoi primi lavori dedicati alla cosmologia, non riuscì a fare meglio di Aristotele, quasi ripetendone le stesse parole: il cielo è immutabile, quindi l’universo è statico. Ma essendo egli Einstein, e non un vacuo sofista, capì rapidamente che per mantenere statico l’universo occorreva escogitare il modo di resistere alla forza universale della gravità. Poiché la gravità è sempre attrattiva e agisce su ogni particella, partendo da una distribuzione statica la materia è destinata a collassare su se stessa. La soluzione immaginata da Einstein nel 1917, la famosa costante cosmologica, iniziò così la sua luminosa e poliedrica carriera. Pochi anni dopo, alcuni astronomi, Edwin Hubble in testa, scoprirono che l’universo si espande o, più correttamente, che tutte le galassie possiedono un moto che le allontana sempre di più l’una dall’altra. La cosmologia moderna, basata finalmente su dati e non su elucubrazioni, aveva ufficialmente inizio.
    Per spiegare un’espansione non accelerata, come quella che le osservazioni sembravano allora richiedere, la costante cosmologica non era però necessaria e l’idea di Einstein rimase dormiente per qualche decennio. Dormiente ma non dimenticata, perché, anche se non richiesta, la costante cosmologica è come un genio della lampada: una volta uscita, non vuole più rientrare. Secondo la fisica quantistica dei campi la costante cosmologica è una proprietà intrinseca del vuoto e non c’è nessuna ragione evidente per ritenere che sia nulla. Tutt’altro: conti che si possono fare sul tradizionale tovagliolo del bar mostrano che questa “energia del vuoto” dovrebbe avere un valore gigantesco, tale da far immediatamente “esplodere” o collassare l’intero universo. Conti, ammettiamolo, piuttosto azzardati, ma indicativi del fatto che c’è qualcosa di profondo nella costante cosmologica che ci sfugge completamente.
    Il più spettacolare come-back nella storia della fisica irrompe inatteso nel 1998. Due gruppi di astronomi e fisici, guidati da Saul Perlmutter, Brian Schmidt e Adam Riess, pubblicano i risultati di una ricerca durata quasi un decennio. Proprio come Hubble cinquant’anni prima, i due gruppi avevano misurato velocità e distanza di oggetti lontanissimi, non galassie stavolta, ma supernovae dette di tipo Ia, osservabili fino a distanze mille volte superiori a quelle di Hubble. Queste supernovae esplodono quando raggiungono una soglia fissa, detta massa di Chandrasekhar. La loro luminosità massima è quindi relativamente costante, indipendentemente dai dettagli dell’esplosione. Misurando il flusso luminoso che giunge ai nostri telescopi, possiamo stimare in maniera diretta la distanza delle sorgenti, perché il flusso percepito decresce con l’inverso del quadrato della distanza, con opportune correzioni dovute all’espansione cosmica. La conclusione dei due gruppi di ricerca fu sconvolgente: i dati mostravano chiaramente un universo in accelerazione, inspiegabile senza una costante cosmologica o qualcosa che gli somigliasse molto. Una nuova inflazione cosmica (vd. in Asimmetrie n. 15 [as] Crescita in tempi di inflazione., ndr) dunque, non più persa nel lontanissimo passato, ma fiorente proprio sotto i nostri occhi.
    In quell’avverbio, “chiaramente”, è stata in realtà immeritatamente compressa un’infinità di diabolici dettagli. Prima di poter giungere alla costante cosmologica (e al Nobel assegnato a Perlmutter, Schmidt e Riess nel 2011) fu necessario un enorme lavoro di controllo dei risultati e di tutte le possibili spiegazioni alternative.
    La costante cosmologica, indicata universalmente con il simbolo Λ, ha molte misteriose proprietà. La più importante è che si tratta di una forma di energia che non si diluisce con l’espansione, ma che resta, appunto, costante. Questa è una conseguenza di un’altra inusuale caratteristica, la sua forte pressione negativa. In relatività generale, la pressione esercita una forza di gravità proprio come la massa.
    Essendo negativa, la forza che ne risulta accelera l’espansione, invece di rallentarla come fanno la materia ordinaria e la materia oscura. Una sorta di antigravità, quindi, anche se non molto pratica per gli scrittori di fantascienza, perché, essendo assolutamente omogenea, non può essere modellata a piacimento per farne antipianeti, antistelle e motori antigravitazionali.
    Una conseguenza immediata del suo valore indipendente dal tempo è che la costante cosmologica continuerà ad accelerare l’espansione per sempre, anche quando la densità di materia e la radiazione saranno scese a livelli impercettibili. Oggi si stima che la costante Λ sia responsabile del 73% dell’energia dell’universo e che questa percentuale è destinata ad aumentare nei prossimi miliardi di anni a causa dell’espansione dell’universo.
    I risultati delle supernovae vennero presto confermati da molte altre osservazioni, da quelle della radiazione cosmica di fondo alle perturbazioni nella distribuzione delle galassie. Ma per quanto sempre più precisi, i dati non permettono ancora di stabilire una volta per tutte se la costante Λ sia l’unica spiegazione possibile.
    Nel varco aperto da questa incertezza, e forti dei problemi fondamentali che la fisica quantistica associa all’energia del vuoto, i cosmologi hanno prodotto molte altre interessanti ipotesi.

     

    b.
    L’evoluzione delle distanze cosmiche dal momento del Big Bang iniziale. Dopo la fase iniziale inflazionaria (qui non illustrata), e quella rallentata, lo spazio inizia a espandersi in modo accelerato sotto l’azione dell’energia oscura. Tra le ipotesi sull’andamento futuro, sono qui illustrate il collasso finale (Big Crunch) e il Big Rip, una espansione talmente veloce da distruggere tutte le strutture fisiche, dalle stelle agli atomi.
    Come l’inflazione cosmica primordiale può essere stata indotta da una “particella”, o meglio un campo, chiamato inflatone, così l’accelerazione recente potrebbe essere dovuta, invece che alla costante cosmologica, al lavorio nascosto di un campo/particella chiamato energia oscura o quintessenza (riecco Aristotele!) o semplicemente campo scalare.
    Come tutti i campi, esso si estende e si propaga in tutto lo spazio e ha una sua dinamica. Come tutte le particelle, l’energia oscura possiede anche una massa, anche se talmente minuscola da non essere direttamente misurabile con alcun acceleratore: la sua lunghezza d’onda associata la rende infatti una particella veramente impalpabile, distribuita su distanze pari all’intero universo.
    L’energia oscura o quintessenza assomiglia alla costante cosmologica, ma non è esattamente costante e quindi la sua densità varia lentamente nel tempo e può perfino fluttuare e addensarsi leggermente nello spazio. C’è infine un’altra suggestiva possibilità: che l’accelerazione dell’espansione dell’universo sia dovuta in realtà a una nuova forza oscura, in grado di esercitare la sua azione direttamente sulla materia, proprio come la gravità, il campo elettromagnetico o le due forze nucleari fondamentali. Questa “quinta forza” sarebbe quasi indistinguibile dalla gravità stessa, tanto da essere anche denominata gravità modificata. Le conseguenze di una gravità modificata potrebbero essere innumerevoli: l’intera epopea dell’universo dovrebbe essere riscritta tenendo conto di un nuovo potente fattore, ben al di là della semplice costante cosmologica.
    Tutte queste ipotesi sono al centro degli sforzi osservativi e teorici della cosmologia. Una delle imprese più ambiziose è il satellite Euclid dell’Esa, con ampia partecipazione italiana, il cui lancio è previsto per il 2020. Euclid sarà un telescopio dedicato alla cosmologia capace di catalogare in cinque anni gli spettri (e quindi la distanza attraverso il redshift) di cinquanta milioni di galassie e le immagini di altre due miliardi, creando un’accurata mappa cosmica tridimensionale in un volume pari a un cubo il cui lato misura miliardi di anni luce. La distribuzione delle galassie sarà confrontata con quella predetta dalle varie teorie dell’energia oscura e combinata con tutti i dati che via via si renderanno disponibili. Il risultato sarà una misura altamente precisa di tutti i principali parametri cosmologici, inclusa la densità di materia ed energia oscura, la massa dei neutrini, lo spettro delle fluttuazioni inflazionarie primordiali, il tasso di espansione a varie distanze.
    La speranza è che nelle pieghe della mappa di Euclid possiamo finalmente leggere l’identità della costante cosmologica o energia oscura o gravità modificata. La certezza è che Euclid e gli altri esperimenti simili ci forniranno una visione estesa e allo stesso tempo profonda del nostro universo e ci aiuteranno a capire finalmente perché mai il cielo non ci cada sulla testa.
     
    c.
    Immagine artistica del satellite Euclid.
     

    Biografia
    Luca Amendola è stato ricercatore astronomo all’Istituto Nazionale di Astrofisica (Inaf, Osservatorio di Roma) fino al 2009 ed è attualmente professore di fisica teorica presso l’Università di Heidelberg (Germania). Ha passato periodi di ricerca al Fermilab di Chicago, in Francia, Germania, Giappone. È autore di un libro divulgativo (Il Cielo Infinito, Sperling).


    Link
    http://science.nasa.gov/astrophysics/focus-areas/what-is-dark-energy/
    http://hubblesite.org/hubble_discoveries/dark_energy/de-what_is_dark_energy.php
    http://sci.esa.int/euclid/42267-science/
    http://www.focus.it/cultura/che-cosa-sono-la-materia-e-l-energia-oscura


    icon-pdf [scarica pdf]

     

     

    {jcomments on}

  • [as] illuminazioni

    [as] illuminazioni
    Immergersi nell’universo.

     
    L’universo in un palmo di mano. È questa l’idea di Big Bang AR, l’applicazione di realtà aumentata sviluppata dal Cern, in collaborazione con Google, e rivolta a chiunque sia interessato a conoscere, e a interpretare, la storia dell’universo e i meccanismi che ne regolano l’evoluzione. Il ricorso alla realtà aumentata, in questo caso, non è un semplice espediente alla moda per attrarre gli appassionati di nuove tecnologie, ma il linguaggio più appropriato per un racconto, quello sull’universo di cui siamo parte, che non può che essere immersivo.
    Punto di riferimento dell’applicazione, che le permette di assumere il punto di vista di chi guarda, è la mano dell’utente: registrate le coordinate della sua posizione, Big Bang AR è l’occhio di chi guarda, capace di osservare nei dettagli che cosa lo circonda e di ricostruire la formazione e l’evoluzione dell’universo dalla sua origine. Il viaggio di 13,8 miliardi di anni dal Big Bang a oggi dura una quindicina di minuti, sempre che non ci si voglia soffermare a osservare i tanti spunti che si incontrano lungo la strada. E la scoperta più straordinaria è forse proprio questa: non importa in quale direzione rivolgiamo lo sguardo (la mano), l’universo si presenta sempre nello stesso modo: lo stesso fondo cosmico a microonde, la stessa composizione di stelle, la stessa densità di galassie. Guidati dalla voce narrante dell’attrice Tilda Swinton (nella versione in inglese) e da musiche dal sapore “cosmico”, è possibile interrogare l’universo interagendo con gli elementi che appaiono sullo schermo e assistere alla nascita delle prime stelle, del nostro sistema solare e della Terra stessa. Si può inoltre far ruotare il cellulare o il tablet per osservare stelle, galassie e pianeti da angolazioni diverse od osservare da vicino la formazione di tutte le strutture che hanno portato all’esistenza di quello che conosciamo: quark, protoni e neutroni, nuclei leggeri, atomi e molecole, cellule e organismi multicellulari.
    Il viaggio attraversa le più grandi scoperte fatte nel secolo scorso e fino a oggi, per scoprire, tra le altre cose, che l’età della Terra è solo un terzo dell’età dell’universo, che le particelle del nostro corpo sono eterne e che noi abbiamo, di fatto, la stessa età dell’universo.
    Presentata il 6 marzo scorso all’evento di Google Arts and Culture di Washington D.C, l’applicazione è disponibile per dispositivi Android su https://play.google.com/store/apps/details?id=ch.cern.BigBangAR e per Apple su https://itunes.apple.com/app/id1453396628. [Francesca Scianitti]
     
     
     

    {jcomments on}

  • Ceneri del Big Bang

    Ceneri del Big Bang
    Quel che resta dei primi tre minuti.
    di Claudio Spitaleri e Vincenzo Napolano

    a.
    La colonna di gas e polveri della Nebulosa Cone.

    Un esame attento dell’Universo attuale permette non solo di studiarne le caratteristiche presenti ma anche di provare a capire i primi istanti della sua nascita ed evoluzione. Ci sono in particolare alcuni indizi e prove significative, accumulate negli ultimi cinquanta anni, che hanno convinto la gran parte dei cosmologi della veridicità dell’ipotesi del Big Bang. Ovvero del fatto che all’origine dell’Universo, circa 13,7 miliardi di anni fa, vi sia un’espansione rapidissima e violenta partita da un punto infinitesimo, chiamato singolarità dello spaziotempo, in cui la temperatura e la densità della materia raggiungevano valori estremi. Le prove più convincenti che l’Universo sia nato proprio così, le hanno portate alcune scoperte e misure cruciali, avvenute nel secolo scorso. Il fatto ad esempio che le galassie si allontanassero tutte l’una dall’altra e con velocità crescente all’aumentare della loro distanza relativa, confermò l’ipotesi di un Universo in espansione e rese verosimile l’idea che in un qualche momento in passato la materia fosse concentrata tutta in una stessa regione. Una prova ancor più decisiva fu la scoperta alla metà degli anni ’60 di una radiazione cosmica di fondo, che permea lo spazio cosmico in modo omogeneo e ci arriva (all’incirca) con la stessa intensità da tutte le direzioni. Questa radiazione fu immediatamente interpretata come un “eco” dell’enorme quantità di energia rilasciata, “raffreddandosi”, dall’Universo primordiale, sotto forma di una radiazione, che si è attenuata via via durante la sua successiva espansione, prima di arrivare fino a noi.
    L’esistenza di questa radiazione è stata considerata un indizio estremamente convincente a favore del Big Bang.

    b.
    La “facility” Exyct di produzione ed accelerazione di fasci radioattivi.

    c.
    Mappa del fondo cosmico a microonde “visto” da WMAP (http://map.gsfc.nasa.gov). L’immagine mostra le fluttuazioni di temperatura (segnalate dai diversi colori) dell’Universo primordiale, 380.000 anni dopo il Big Bang. Le zone a temperature diverse corrispondono ai grumi di materia cresciuti fino a formare le galassie. L’escursione termica massima tra i diversi punti è di 400 milionesimi di grado kelvin.

    Un altro tassello fondamentale per completare il quadro di questa teoria è stato però aggiunto dai fisici nucleari, che hanno provato a spiegare come nei primi tre minuti di vita dell’Universo si siano generati la materia, così come la conosciamo, e i suoi costituenti elementari. Dopo circa un minuto dalla sua nascita l’Universo si era già raffreddato abbastanza per produrre protoni e neutroni stabili, che tramite fusioni nucleari, formarono i nuclei atomici del deuterio (un protone più un neutrone), quindi quello dell’elio-4 (o particelle alfa fatte di due protoni e due neutroni) e arrivarono probabilmente con successive fusioni a produrre il litio-7 e il berillio-7 (costituito da quattro protoni e tre neutroni), che è però instabile. Questo processo si intrappolò a questo punto in una sorta di collo di bottiglia per la mancanza di nuclei stabili con 8 nucleoni e dopo pochi minuti la temperatura e la densità dell’Universo diminuirono al punto da rendere impossibile altre fusioni nucleari. La nucleosintesi primordiale quindi, secondo la teoria comunemente accettata, non produsse i nuclei più pesanti, formati da un numero di protoni e neutroni maggiore di quello del berillio, come il carbonio o l’ossigeno, indispensabili tra l’altro alla nascita della vita. La produzione di questi elementi sarebbe avvenuta durante il successivo miliardo di anni, all’interno di stelle di grossa massa, dove si produssero le reazioni di fusione nucleare dei nuclei più pesanti, dando luogo alla cosiddetta nucleosintesi stellare.
    La possibilità di prevedere grazie a questo modello l’effettiva abbondanza nell’Universo degli elementi più leggeri costituisce un altro valido argomento a sostegno dell’esistenza del Big Bang. La nucleosintesi coinvolge processi e reazioni nucleari, che si realizzano in natura secondo determinate probabilità, chiamate sezioni d’urto. Calcolare e misurare in modo estremamente preciso queste probabilità è uno degli obiettivi della fisica nucleare e costituisce un elemento cruciale per ricostruire cosa sia accaduto in quei primi minuti di vita dell’Universo, insieme alle tecniche sempre più sofisticate e precise per estrapolare le effettive abbondanze degli elementi nell’Universo primordiale attraverso l’osservazione e la misura di quelle presenti. In effetti già dall’inizio degli anni ’70, pur senza mettere in discussione l’esistenza del Big Bang, è stata proposta una variazione della teoria, nota come Big Bang non omogeneo, che prevede anche la possibilità che nuclei con più di 7 nucleoni si siano formati già durante la nucleosintesi primordiale. è quindi estremamente importante studiare la probabilità che nelle condizioni di un Big Bang non omogeneo si verifichino reazioni nucleari che formino nuclei pesanti, come quella in cui un nucleo di litio-8 (costituito da 8 nucleoni: 3 protoni e 5 neutroni) scontrandosi con una particella alfa produce un nucleo di boro-11 (5 protoni e 6 neutroni) più un neutrone libero.
    L’esperimento “Big Bang” eseguito presso i Laboratori Nazionali del Sud dell’Infn, a Catania (in accordo con i risultati di altri gruppi di ricerca internazionali) ha mostrato come questa reazione sarebbe significativamente probabile nel contesto di un Big Bang non omogeneo, contribuendo all’acceso dibattito scientifico internazionale sulle effettive caratteristiche della nucleosintesi primordiale. è così che dai laboratori di fisica nucleare possono arrivare alcune risposte alla domanda più difficile e antica, ovvero come si sia formato il nostro Universo.

    Biografia
    Claudio Spitaleri è professore di fisica sperimentale all’Università di Catania e ricercatore dell’Infn ai Laboratori Nazionali del Sud. La sua ricerca è focalizzata sull’astrofisica nucleare sperimentale.


    Link

    http://www.lns.infn.it/excyt/index.html
    http://it.wikipedia.org/wiki/Nucleosintesi

     

    icon-pdf [scarica pdf]



    {jcomments on}

  • Da Planck possibili discrepanze con l’attuale modello cosmologico

    esp univE’ stata pubblicata da Nature Astronomy una nuova analisi dei dati raccolti dal satellite Planck, che potrebbe mettere in discussione alcuni presupposti fondamentali della nostra attuale visione dell’Universo.

    Lo studio, condotto dal team internazionale guidato dal fisico Alessandro Melchiorre della Sapienza Università di Roma e dell’INFN, ha analizzato la mappa, prodotta da Planck, del fondo cosmico a microonde (CMB), che restituisce una sorta di ‘fotografia’ primordiale dell’universo, così com’era 380.000 anni dopo il Big Bang. Mappe analoghe di questa radiazione primordiale, e in particolare delle sue anisotropie e disomogeneità, erano già state ottenute dall’esperimento Boomerang e dal satellite WMAP. La missione Planck dell’ESA in colaborazione con ASI e NASA, attiva dal 2009 al 2013, ha però raggiunto precisione e sensibilità mai ottenute in precedenza.

    E proprio grazie alla grande sensibilità di Planck lo studio pubblicato su Nature Astronomy è riuscito a stimare con maggiore precisione la distorsione gravitazionale della radiazione cosmica di fondo, dovuta alla materia oscura dell’Universo.

    Questa misura, secondo i risultati pubblicati da Melchiorri e dai suoi colleghi, indicherebbe una densità di materia nel cosmo superiore a quella misurata fino ad oggi, con delle conseguenze dirompenti per gli attuali modelli cosmologici. Se così fosse, infatti, l’universo, non potrebbe più essere piatto, così come supposto dagli scienziati fino ad oggi, ma dovrebbe piuttosto essere curvo. Se il nostro cosmo avesse solo due dimensioni vorrebbe dire passare da un cosmo che si estende su un piano infinito, ad uno confinato sulla superficie di una sfera. Qualcosa di analogo avverrebbe con la forma tridimensionale dell’universo, che risulterebbe comunque ‘chiusa’, anche se più difficile da visualizzare.

    “I nuovi dati ottenuti da Planck – spiega Alessandro Melchiorri, – mostrano che l’universo è solo il 4% più curvo di quanto si pensasse. Questa percentuale è però sufficiente a creare una discordanza con le rimanenti osservazioni astrofisiche, mostrando tensioni e differenze. Ovviamente c’è ancora la possibilità che un effetto sistematico ancora non rivelato sia alla base delle discrepanze osservate – afferma Melchiorri – Esperimenti di anisotropie futuri quali il Simons Observatory chiariranno sicuramente la situazione. La porta per una rivoluzione in cosmologia sembra però ora aperta ed i prossimi esperimenti potrebbero portare risultati ancora più esaltanti”.

    “Questo studio mostra ancora una volta l’enorme ricchezza d’informazione della più antica “immagine” che abbiamo del nostro Universo. Si tratta, però, di un’analisi di un set piuttosto limitato di dati – ha commentato il vicepresidente dell’INFN, Antonio Masiero - i cui risultati verrebbero a mettere in discussione l’intero impianto della teoria standard dell’origine e dell’evoluzione dell’universo. D’altra parte, il fatto che i risultati di questo lavoro appaiano in flagrante contrasto con le conclusioni tratte da molti altri dati osservativi, induce alla cautela e soprattutto richiama alla necessità di avere molti altri nuovi e precisi dati a disposizione. La ricerca italiana, con l’INFN insieme con ASI e INAF, è in prima linea su questa frontiera della conoscenza sia come studio teorico che come partecipazione ai più significativi progetti internazionali (ad esempio LiteBIRD) per lo studio della radiazione di fondo cosmica con esperimenti nello spazio. [Vincenzo Napolano]

  • Dagli abissi uno sguardo verso l'Universo misterioso

    Dagli abissi uno sguardo verso l'Universo misterioso
    Arriva dalle profondità del Mar Mediterraneo e dei ghiacci antartici la sfida dei riceratori ai segreti della materia oscura.
    di Teresa Montaruli

    a.
    Il cuore della galassia Whirpool
    Arriva dalle profondità del Mar Mediterraneo e dei ghiacci antartici la sfida dei ricercatori ai segreti della materia oscura. Con l’idea di rivolgere il cannocchiale verso il cielo, Galileo inaugurò l’astronomia moderna che, grazie al progresso degli strumenti utilizzati per le osservazioni, ci ha insegnato come essi possono essere fonte di imprevedibili scoperte. Il concetto di telescopio si è enormemente evoluto nel corso del tempo e oggi non comprende più solamente gli apparati sensibili alla regione visibile dello spettro elettromagnetico, alle onde radio, o ai raggi X. Ma, al fine di aprire nuovi orizzonti osservativi, stiamo costruendo enormi infrastrutture (alcune delle quali sono già operative) per rivelare altri messaggeri dell’Universo, diversi dai fotoni: i neutrini. I neutrini sono particelle neutre molto elusive perché risentono solamente della forza debole, al contrario dei fotoni che interagiscono elettromagneticamente con la materia. Questa loro caratteristica fa sì che essi non siano né assorbiti dalla materia, né deflessi dai campi magnetici, portando così precise informazioni per localizzare le sorgenti che li generano: essi si rivelano così i più interessanti messaggeri provenienti dalle regioni interne delle sorgenti più misteriose dell’Universo, come i buchi neri circondati da dischi di accrescimento nei nuclei galattici attivi. A parte i neutrini emessi dal Sole e una manciata di neutrini dalla supernova SN1987A non sono stati mai osservati neutrini dal cosmo. I nuovi strumenti per rivelarli nella regione di energia maggiore di un centinaio di GeV (1 GeV = 1,6 x 10-10Joule) sono detti telescopi di neutrini. Se le sorgenti accelerassero non solo elettroni ma anche protoni, allora la produzione dei neutrini insieme ai fotoni sarebbe garantita. Tuttavia fino ad oggi ciò rimane ancora da dimostrare e si ritiene che la rivelazione dei primi neutrini di alta energia dal cosmo rivoluzionerà la nostra visione dei meccanismi di accelerazione e produzione di energia in sorgenti astrofisiche. I neutrini potrebbero essere anche prodotti dall’annichilazione di materia oscura che si accumulerebbe per effetto della forza gravitazionale nel centro di corpi celesti come il Sole o la Terra stessa, o anche al centro della galassia.
    b.
    I neutrini che arrivano dal centro della nostra galassia attraversano tutta la Terra prima di essere rivelati dal telescopio Nemo, nel Mar Mediterraneo.

    Questa materia oscura potrebbe essere costituita da nuove particelle, come le Wimp, previste dai modelli elaborati allo scopo di estendere il Modello Standard (cioè la teoria che oggi usiamo per descrivere i costituenti della materia e le loro interazioni) in modo da includere l’unificazione di tutte le forze: alcuni esempi di queste teorie sono la Supersimmetria o le teorie che prevedono dimensioni extra (oltre alle tre dimensioni spaziali e a quella temporale che oggi conosciamo). I telescopi per neutrini cercano un surplus di queste particelle, dovuto ai processi di annichilazione delle particelle Wimp, in direzione dei corpi celesti in cui si concentrerebbero, rispetto al fondo di neutrini prodotti nell’atmosfera dai raggi cosmici che la investono. Altre interessanti prospettive riguardano la rivelazione di neutrini dalla materia oscura che potrebbe accumularsi in corrispondenza di buchi neri dotati di una massa equivalente a circa 100.000 masse solari.
    La regione di energia che ci interessa è determinata dal valore della massa delle particelle di materia oscura, e va da circa 50 GeV a qualche TeV. Questa ricerca indiretta di materia oscura è complementare rispetto a quella diretta (che prevede l’osservazione dell’interazione delle particelle con la materia che costituisce il rivelatore) ed è, per il caso del Sole, promettente in alcune condizioni e se la loro massa è maggiore di circa 100 GeV. Ancora più incoraggianti sono le previsioni delle teorie extra-dimensionali, secondo le quali l’annichilazione di particelle di materia oscura nel Sole produrrebbe tra 0,5 e 10 eventi l’anno in rivelatori delle dimensioni di un chilometro cubo. Poiché, come si è detto, i neutrini sono molto elusivi, è necessario dotare di strumenti idonei alla loro rivelazione spazi molto grandi, in modo da contrastare la loro bassa probabilità di interazione con la materia: per questa ragione le dimensioni dei telescopi di neutrini, già operativi o in fase di costruzione, variano da circa un decimo di chilometro cubo a un chilometro cubo. Di conseguenza è impossibile realizzarli in gallerie sotto le montagne come nel caso dei telescopi di neutrini di più bassa energia (per esempio, gli esperimenti Macro e Borexino collocati sotto il massiccio del Gran Sasso ai laboratori Nazionali dell’Infn, o l’esperimento Super-Kamiokande, in Giappone, che si trova all’interno di una ex miniera).
    La ricerca di eventi rari (come gli eventi indotti da neutrini) va effettuata usufruendo dello schermo di grossi strati di materia che riducono il flusso superficiale dei muoni di natura atmosferica (cioè i muoni prodotti dall’interazione dei raggi cosmici con l’atmosfera terrestre), che maschererebbero il segnale dei muoni prodotti da neutrini astrofisici (cioè provenienti da sorgenti astrofisiche). Alle profondità di 2,5-3,5 km sotto il mare o i ghiacci polari, l’intensità di questo fondo è attenuata di un fattore tra 100.000 e un milione di volte. I neutrini, interagendo con la materia, producono muoni secondari che è possibile rivelare attraverso la luce Cherenkov che emettono (la produzione di luce per effetto Cherenkov è un fenomeno molto simile al tuono prodotto da un jet che supera la barriera del suono in aria). La natura ci offre dei mezzi trasparenti e allo stesso tempo bui adatti alla rivelazione di questo flebile segnale di luce: gli abissi e le profondità dei ghiacci polari. Queste condizioni fanno dei telescopi per neutrini i rivelatori localizzati nelle regioni più inesplorate e misteriose della Terra. Ad alta energia i muoni hanno la stessa direzione dei neutrini che li producono: grazie a ciò l’informazione sulla direzione di provenienza e quindi sulle sorgenti di neutrini è preservata. Se si guardano i muoni che viaggiano dal basso verso l’alto, è garantito che essi siano prodotti dai neutrini: da quella direzione, infatti, si è certi di identificare i neutrini perché lo spessore della Terra impedisce a qualunque altra particella di arrivare fino al rivelatore. Per osservare l’intero cielo sono perciò necessari due telescopi: uno nell’emisfero nord e uno nell’emisfero sud. La tecnologia impiegata, pur essendo estremamente sofisticata, è in principio molto semplice: un reticolo tridimensionale di rivelatori di luce, detti fotomoltiplicatori, che misurano il tempo di arrivo dei fotoni Cherenkov.

    c.
    Costruzione di una stringa di IceCube: è visibile un modulo ottico mentre viene calato nell’abisso di ghiaccio.
    d.
    La stazione di Amundsen-Scott durante la stagione estiva 2006-2007. È visibile in primo piano la torre nella quale viene effettuato il drilling e il cavo di supporto per i moduli ottici. In fondo si intravede la nuova stazione dove ci sono gli alloggi.
    I fotomoltiplicatori, protetti da sfere di vetro resistenti alle alte pressioni degli abissi o che si sviluppano durante l’installazione nel ghiaccio, costituiscono gli “occhi” del telescopio, chiamati moduli ottici. Questi ultimi sono sostenuti da stringhe lungo le quali vengono trasmessi i dati e l’alta tensione che alimenta i moduli ottici. In pratica, la costruzione di questi giganteschi rivelatori, realizzati in siti estremamente ostili, rappresenta una notevole sfida tecnologica. Il primo telescopio “abissale”, chiamato NT200+, è stato collocato alla profondità di circa un chilometro nel lago Baikal, in Siberia. Frutto di una collaborazione russo-tedesca, l’esperimento, che prende dati con circa 200 moduli ottici, ha posto limiti stringenti nei parametri per la rivelazione di materia oscura. L’esperimento che ha posto il limite più basso alla produzione di neutrini da materia oscura dal Sole e dalla Terra è Amanda, che oggi raccoglie dati al Polo Sud con 677 moduli ottici, installati tra 1,5 e 2 km di profondità nei ghiacci. La procedura per installare questi moduli, chiamata drilling, utilizza getti ad alta pressione di acqua bollente per scavare dei buchi lunghi chilometri e di circa mezzo metro di diametro. Amanda è il precursore di IceCube, il telescopio di neutrini attualmente più grande al mondo, la cui terza stagione di costruzione (terminata da poco perché al Polo Sud è possibile costruire il rivelatore tra novembre e febbraio, per via delle migliori condizioni climatiche durante la stagione estiva) ha portato il volume attuale pari a circa il 30% di quello finale, che sarà di un chilometro cubo. Altrettanto straordinaria è la sfida agli abissi intrapresa dalla comunità scientifica nel Mediterraneo, dove diverse collaborazioni internazionali sono impegnate nella progettazione e costruzione di rivelatori a profondità ancora più elevate: Antares e Nemo. Il primo è un telescopio delle dimensioni di un decimo di chilometro cubo, a cui l’Infn partecipa, che è in costruzione alla profondità di 2.500 metri di fronte alla costa di Marsiglia. Nemo, invece, è l’esperimento dell’Infn impegnato nella realizzazione degli elementi base per il rivelatore da un chilometro cubo nel Mediterraneo, che saranno installati in una stazione sottomarina a circa 3.500 metri sotto la superficie del mare a 80 km al largo di Capo Passero, in Sicilia.
    e.
    La junction-box di Nemo viene calata in mare lo scorso dicembre durante la prima fase dell’esperimento. All’interno del contenitore giallo in vetroresina, riempito di olio, si trovano i contenitori a pressione, dentro i quali sono stati installati l’elettronica e i cavi elettro-ottici di interconnessione.
    Il progetto finale del rivelatore Antares (che dovrebbe essere ultimato nel 2008) prevede la costruzione e l’installazione di dodici stringhe: attualmente ne sono operative cinque (la prima delle quali è stata installata nel marzo del 2005), che stanno raccogliendo dati e che hanno già misurato i primi neutrini, mentre due ulteriori stringhe sono pronte sotto il mare per la connessione a terra, che avverrà in settembre. Nemo, invece, ha concluso con successo le operazioni di posa del prototipo di una delle unità base che comporranno l’apparato, nel sito prescelto per il test, alla profondità di oltre 2.000 metri al largo di Catania. Il prototipo è costituito da una torre alta circa 200 m su cui sono collocati i sensori ottici, e dalla cosiddetta junction box che ha lo scopo di contenere l’alimentazione del rivelatore e la strumentazione necessaria alla trasmissione dei dati dalla torre a terra e viceversa. Il progetto Nemo prevede, nella sua versione finale, l’installazione di 80 torri, distanti 140 metri l’una dall’altra, che occuperanno così un volume di circa un chilometro cubo. Nei prossimi anni la comunità scientifica europea, che ora opera su tre esperimenti (oltre ad Antares e Nemo, è in corso anche il progetto Nestor che mira alla costruzione di un rivelatore vicino alle coste del Peloponneso e che nel 2003 ha rivelato, con un apparato test di 12 fotomoltiplicatori, alcune centinaia di muoni atmosferici), dovrebbe concentrare tutte le forze per costruire un rivelatore delle dimensioni di un chilometro cubo, controparte di IceCube nel nostro emisfero.
    La collaborazione Nemo propone, appunto, per l’installazione di questo rivelatore, il sito di Capo Passero, per le favorevoli caratteristiche dell’acqua e dell’ambiente marino. Qui presto sarà installata una torre prototipo, alta 750 metri, cioè delle stesse dimensioni del disegno proposto per il rivelatore finale, su cui saranno collocati 64 sensori ottici. Grandi sono le aspettative della comunità scientifica impegnata nei progetti di costruzione di questi enormi osservatori per neutrini nei nostri mari, perché, al contrario di quelli al Polo Sud, i rivelatori nel Mediterraneo avranno l’opportunità di osservare il centro della nostra Galassia, una regione di grande interesse anche per la rivelazione di materia oscura.

    Biografia
    Teresa Montaruli, ricercatrice universitaria a Bari dal 2000, ha ricevuto nel 2001 il premio Shakti per i suoi contributi alla fisica dei raggi cosmici. Dalla fine degli anni ’90, lavora all’esperimento Antares come coordinatore del gruppo di studio sulla neutrino-astronomia e nel progetto Nemo. Ora è in congedo all’Università del Wisconsin-Madison, dove partecipa ad Amanda e Ice Cube.


    Link

    http://icecube.wisc.edu/
    http://antares.in2p3.fr/



    icon-pdf [scarica pdf]



    {jcomments on}

  • Foto d’epoca

    Foto d’epoca
    Immagini dal passato remoto dell’universo

    di Paolo De Bernardis


    a.
    L’effetto dell’espansione dell’universo può essere interpretato immaginando un panettone in fase di lievitazione, i cui canditi rappresentano gli oggetti cosmici (dalle stelle agli ammassi di galassie). Mentre il panettone lievita, la distanza tra i canditi aumenta man mano che cresce il raggio: analogamente, tutti gli oggetti cosmici si allontaneranno uno dall’altro con il passare del tempo, e qualunque altra lunghezza, inclusa la lunghezza d’onda di un’onda elettromagnetica che viaggia per miliardi di anni, risulterà dilatata.
    Ricevere immagini che provengono da regioni molto lontane dell’universo significa riuscire a osservarne il passato. Alla pazzesca velocità di un miliardo di chilometri all’ora, la luce proveniente dalle galassie più lontane impiega miliardi di anni per arrivare fino a noi. Osservando galassie sempre più distanti, i cosmologi possono studiare il passato sempre più remoto dell’universo. E si può osservare oltre ancora, la radiazione prodotta prima della formazione delle galassie. Fino a quale passato estremo è possibile spingersi? A causa dell’espansione dell’universo tutte le lunghezze cosmologiche si allungano con il tempo (vd. fig. a). Anche le lunghezze d’onda della luce che percorre il cosmo. Più lontana è la galassia, più a lungo avrà viaggiato la sua luce che stiamo osservando, più si sarà espanso l’universo nel frattempo e maggiore sarà la lunghezza d’onda ricevuta. La luce blu, prodotta dalle stelle calde in galassie lontane, allunga la sua lunghezza d’onda proporzionalmente all’espansione che l’universo ha subito, tra emissione e ricezione della luce, e diventa gradualmente luce rossa, o infrarossa. È un fenomeno noto come redshift cosmologico (dall’inglese shift, spostamento, quindi “spostamento verso il rosso”). Per osservare una galassia molto lontana, è quindi necessario usare complessi rivelatori a infrarossi, raffreddati a temperature criogeniche per ridurne il rumore (ossia i disturbi dovuti all’agitazione termica dei sensori). Inoltre, pur essendo le galassie intrinsecamente luminose (centinaia di miliardi di stelle che splendono simultaneamente!), le loro enormi distanze rendono il flusso luminoso ricevuto a terra estremamente debole. Servono grandi telescopi per raccogliere abbastanza potenza luminosa da sovrastare il rumore dei sensori. Per le galassie più lontane, i cosmologi hanno imparato a sfruttare gli ammassi di galassie (che contengono enormi addensamenti di massa) come lenti gravitazionali (vd. fig. b), che deviano verso l’osservatore la luce proveniente dalle galassie retrostanti. In assenza dell’ammasso, la maggior parte di questa luce avrebbe continuato il suo percorso rettilineo, diretta verso regioni via via più lontane dall’osservatore, mancandolo quindi inesorabilmente. Ad oggi, l’oggetto più lontano mai osservato è la galassia MACS0647-JD (vd. fig. b): la riga Lyman-α (una delle componenti caratteristiche dello spettro dell’idrogeno) che viene emessa da questa galassia nell’ultravioletto a una lunghezza d’onda di 0,12 m, arriva a noi a una lunghezza d’onda di 1,46 m, implicando che nel frattempo l’universo si è espanso di 12 volte. Stiamo vedendo questa galassia come era 13,3 miliardi di anni fa, quando l’universo aveva solo il 3% della sua età attuale ed erano passati “solo” 420 milioni di anni dal Big Bang. MACS0647-JD ha un diametro di 600 anni luce (oggi, dopo oltre 13 miliardi di anni, una galassia “nana” ha un diametro di 15.000 anni luce) ed è irregolare. È una delle prime aggregazioni di materia che, in quella remota regione di universo, nei miliardi di anni seguenti, formeranno le galassie. Per osservare il passato ancora più remoto dell’universo, dobbiamo guardare a distanze ancora maggiori. La radiazione che riceveremo avrà lunghezze d’onda nel lontano infrarosso o nelle microonde. E dobbiamo anche considerare che l’espansione di un sistema isolato implica sempre un raffreddamento. Man mano che ci inoltriamo nel passato remoto dell’universo, esploreremo quindi fasi nelle quali la temperatura era sempre più elevata. A temperature superiori a qualche migliaio di gradi, elettroni e nuclei non sono legati in atomi, ma liberi, e diffondono efficientemente la luce. Di conseguenza in quella fase, detta primeval fireball (“palla di fuoco primordiale”), l’universo è opaco, come una nebbia incandescente che ci impedisce di osservare più lontano.
    b.
    In basso a sinistra, l’immagine di un lontano ammasso di galassie (dal nome MACS J0647+7015) osservato per lungo tempo con il telescopio spaziale Hubble. L’enorme quantità di materia oscura presente nell’ammasso agisce come lente gravitazionale e fa convergere verso di noi la luce proveniente dalle galassie retrostanti (come visualizzato al centro della figura). Tra queste, la galassia MACS0647-JD, visibile nel riquadro, è la più lontana mai osservata. La sua luce arriva a noi oggi essendo partita 13,3 miliardi di anni fa.
    c.
    Mappa dell’universo primordiale ottenuta dal satellite Planck (la cui immagine è stata aggiunta alla mappa), tramite misure del fondo cosmico di microonde. Le macchie rosse e blu rappresentano piccole fluttuazioni di temperatura del gas incandescente che riempiva l’universo 13,7 miliardi di anni fa, 380.000 anni dopo il Big Bang: le parti blu sono le parti più fredde, le parti rosso-arancioni quelle più calde. Queste fluttuazioni potrebbero essersi generate nel periodo dell’inflazione (vd. [as] Crescita in tempi di inflazione) pochi attimi dopo il Big Bang. Dalle risultanti fluttuazioni di densità si formeranno poi tutte le strutture cosmiche (galassie, ammassi di galassie, superammassi).
    Queste condizioni si verificano nei primi 380.000 anni dopo il Big Bang: tramite la luce possiamo sondare l’universo per 13,7 miliardi di anni nel passato, arrivando a “soli” 380.000 anni dal Big Bang, ma non oltre. Data la elevata temperatura, dalla fase primeval fireball si sono liberati luce visibile e raggi ultravioletti che, a causa del redshift, si sono trasformati oggi in flebili microonde. Scoperto nel 1965, il fondo cosmico di microonde (CMB, Cosmic Microwave Background) rappresenta la conferma diretta della primeval fireball. Ne è stata misurata la distribuzione di energie con un’enorme precisione (misura per la quale John Mather ha ottenuto il premio Nobel nel 2006). L’esperimento Boomerang nel 2000 ha rivelato l’esistenza di regioni leggermente più calde e leggermente più fredde e, successivamente, l’esperimento Planck, grazie alla sua maggiore risoluzione, ha permesso uno studio molto più dettagliato di queste anisotropie (vd. approfondimento). Planck ha stabilito per la prima volta quante delle microonde ricevute provengono dall’universo primordiale, quante dallo spazio extragalattico, quante dalla nostra galassia e quante dallo strumento stesso. Motivo per cui la mappa di Planck del fondo cosmico di microonde è la più accurata, dettagliata e affidabile mai realizzata. In linea di principio esistono anche dei metodi per sondare l’universo ancora più primordiale. Uno, indiretto, è lo studio delle abbondanze degli elementi. I nuclei più leggeri (idrogeno, deuterio, elio e litio) si sono formati, infatti, nei primi tre minuti dopo il Big Bang, quando la temperatura era così alta da permettere reazioni di fusione termonucleare. Usando la fisica nucleare è possibile stabilire le abbondanze dei diversi prodotti delle fusioni. Osservando nubi ancora non contaminate dalla presenza di stelle (che fondono i nuclei leggeri, creando nuclei più pesanti) si può ottenere un’ulteriore verifica della teoria del Big Bang. Un altro metodo indiretto è lo studio dello stato di polarizzazione (vd. in Asimmetrie n. 12, approfondimento Fotoni polarizzati e intrecci quantistici, ndr) del fondo cosmico di microonde. Se davvero c’è stata l’inflazione, si sono prodotte onde gravitazionali di grandissima lunghezza d’onda, che determinano una caratteristica configurazione di polarizzazione del fondo cosmico di microonde. Se si riuscissero a eseguire misure ultraprecise di questa configurazione, potremmo confermare l’ipotesi dell’inflazione e stabilirne l’energia (stiamo parlando di scale intorno ai 1019 GeV, tipiche dei primi istanti dopo il Big Bang, non raggiungibili dagli acceleratori di particelle, ma interessantissime per la fisica fondamentale). Per fare questo servirebbe una missione spaziale per lo studio del fondo cosmico di microonde di nuova generazione, come Core (Cosmic ORigin Explorer) e Prism (Polarized Radiation Imaging and Spectroscopy Mission), proposte di recente. L’osservazione diretta sembra invece di là da venire. I neutrini “cosmologici” (di bassissima energia) e le onde gravitazionali possono attraversare la primeval fireball senza interazioni apprezzabili. Ma proprio perché interagiscono così poco con la materia, dovremo aspettare molti anni prima di riuscire a sviluppare astronomie basate su questi evanescenti portatori di informazione.
    [as] approfondimento
    Un accordo entusiasmante

    1.
    Lo spettro di potenza della mappa del fondo cosmico di microonde di fig. c. In funzione delle dimensioni angolari delle fluttuazioni di temperatura, è riportata l’entità delle fluttuazioni. La successione di picchi è dovuta alle oscillazioni del gas incandescente di materia e luce che riempiva l’universo 13,7 miliardi di anni fa. I punti rossi rappresentano i dati sperimentali, le barre rosse i loro errori di misura. La linea blu rappresenta la previsione teorica, che risulta perfettamente in accordo con i dati.

    Il telescopio Planck, che si trova a 1,5 milioni di chilometri dalla Terra, ha perlustrato il cielo in lungo e in largo, registrando la luce proveniente dall’intero universo (nelle frequenze comprese tra 30 e 857 GHz). La radiazione cosmica di fondo presenta un’elevata isotropia, ovvero un’elevata omogeneità in tutte le direzioni. Guardando la mappa di Planck in fig. c potrebbe non sembrare così, ma le minuscole disomogeneità che si possono osservare corrispondono in realtà a piccolissime fluttuazioni di temperatura, minori di una parte su 10.000, e sono il riflesso delle fluttuazioni di densità e temperatura dell’universo primordiale. L’analisi dell’entità di queste fluttuazioni di temperatura in funzione delle loro dimensioni angolari (vd. fig. 1) conferma in maniera spettacolare il modello standard cosmologico, basato su pochi parametri: il tasso di espansione dell’universo, le quantità relative della radiazione, della materia normale, della materia oscura e dell’energia oscura e un indice che descrive le fluttuazioni iniziali di densità all’origine delle strutture cosmiche. Alcuni di questi parametri sono empirici: non abbiamo ancora una descrizione fisica soddisfacente della materia oscura, dell’energia oscura e nemmeno dei processi che provocano le fluttuazioni iniziali di densità, che potrebbero trovare una spiegazione nella teoria dell’inflazione. Ma l’accordo tra i dati e il modello, come mostra la figura, è entusiasmante.

    Biografia
    Paolo de Bernardis è professore di astrofisica all’Università di Roma La Sapienza. La sua ricerca è focalizzata sul fondo cosmico di microonde: ha coordinato l’esperimento Boomerang e ha contribuito all’esperimento Hfi a bordo del satellite Planck. È membro dell’Accademia dei Lincei e autore di più di 300 pubblicazioni specialistiche e del libro divulgativo “Osservare l’Universo” (Il Mulino, 2010).

     

    Link
    http://www.inaf.it
    http://www.vialattea.net/cosmo/
    http://map.gsfc.nasa.gov/
    http://www.satellite-planck.it/
    www.core-mission.org
    www.prism-mission.org


    icon-pdf [scarica pdf]

     

    {jcomments on}

  • Hot stories

    Hot stories
    Energia e temperatura nell’evoluzione dell’universo

    di Sabino Matarrese


    a.
    In una calda e limpida giornata estiva la radiazione emessa dal Sole, la cui superficie esterna ha una temperatura di circa 6000 K, cede energia alle molecole d'aria e la temperatura dell'aria può raggiungere anche 43°C (ovvero 316 K). Questa equivalenza tra energia e temperatura vale in tutti i sistemi fisici, anche nell’universo primordiale.

    Il modello cosmologico standard viene anche chiamato – non a caso – “modello dell’hot Big Bang”. La parola “hot” rappresenta qui una sorta di bandiera, posta a ricordo di una battaglia scientifica, vinta da chi sosteneva che l’universo nel suo passato fosse stato molto più caldo dell’universo attuale, contro i fautori del modello detto “dello stato stazionario”, secondo i quali l’universo sarebbe stato caratterizzato da un tasso costante di espansione, grazie alla continua creazione di materia-energia, e che fosse un universo eterno e immutabile. La diatriba tra queste due scuole di pensiero si concluse a metà degli anni ’60, soprattutto grazie alla scoperta da parte dei due radioastronomi americani Arno Penzias e Robert Wilson dell’esistenza di una radiazione cosmica di fondo termica nella banda delle microonde, a una temperatura di circa 2,7 K (circa 270° C sotto lo zero). Questa radiazione viene oggi unanimemente interpretata come il residuo fossile di epoche cosmiche primordiali, durante le quali la materia ordinaria, o barionica (formata da protoni, elettroni, ecc.), era in equilibrio termodinamico con la radiazione. In condizioni di equilibrio, ad ogni temperatura T (espressa in Kelvin) corrisponde una scala di energia E, secondo l’equazione E = kT, dove k = 1,38 x 10-23 J/K è la costante di Boltzmann. Grazie a questa equazione capiamo immediatamente che l’affermazione secondo la quale nell’universo primordiale sono state possibili temperature elevatissime implica che le particelle elementari allora presenti hanno potuto raggiungere energie elevatissime: in tali condizioni l’intero universo si presenta quindi come un infinito acceleratore di particelle, capace di raggiungere scale di energia inaccessibili perfino ai nostri più avanzati laboratori terrestri.

     


     
    L’equilibrio tra materia e radiazione fu successivamente rotto, quando si raggiunsero le condizioni adatte alla formazione dei primi atomi di idrogeno neutro, con la conseguente quasi totale scomparsa degli elettroni liberi (con i quali i fotoni della radiazione cosmica possono più facilmente interagire). Questo evento, chiamato ricombinazione dell’idrogeno, avviene quando l’universo ha raggiunto un’età di circa 380 mila anni (da confrontarsi con l’età attuale dell’universo, pari a 13,8 miliardi di anni!) e porta presto al “disaccoppiamento” tra materia e radiazione. Successivamente al disaccoppiamento, non dovendo più sottostare alla legge di evoluzione termica imposta dalla radiazione, la materia ordinaria si raffredda molto rapidamente, creando così le pre- condizioni per la contrazione gravitazionale che porterà alla formazione delle prime stelle. La radiazione cosmica continua nel suo lento processo di raffreddamento e rarefazione causato dall’espansione cosmica (vd. in Asimmetrie n. 15 Foto d'epoca, ndr), come se nulla fosse accaduto (con una breve parentesi dovuta alla reionizzazione dell’idrogeno in epoche relativamente più recenti), fino a raggiungere oggi quei 2,7 K sopracitati. Torniamo però a interessarci della storia termica dell’universo (vd. fig. b) antecedente al disaccoppiamento della materia dalla radiazione. Se procediamo a ritroso nel tempo fino a qualche secondo dopo il Big Bang (l’origine – se non altro convenzionale – dei tempi), incontriamo un altro evento di importanza fondamentale: la nucleosintesi primordiale degli elementi leggeri, ovvero dell’elio e di altri elementi quali deuterio, trizio e litio. Fu proprio la necessità di spiegare la grande abbondanza in massa dell’elio (circa un quarto dell’intera massa in materia ordinaria) a convincere alcuni scienziati del secolo scorso, primo fra tutti George Gamow, a ipotizzare l’esistenza di una fase calda nell’universo primordiale, di cui avremmo dovuto trovare oggi testimonianza sotto forma di radiazione fossile a pochi gradi Kelvin! La teoria di Gamow e collaboratori fu poi confermata dalla scoperta di Penzias e Wilson, i quali per questo motivo furono insigniti del premio Nobel nel 1978. Il processo di nucleosintesi primordiale si compie nei primi minuti di vita dell’universo. Poco prima della nucleosintesi primordiale incontriamo un altro evento significativo: il disaccoppiamento dei neutrini dal resto dell’universo, ovvero la perdita della loro capacità di interagire con le altre particelle del fluido cosmico.
     
    b.
    La storia termica dell’universo, con la scala delle temperature/energie corrispondenti alle epoche principali e quella dei tempi trascorsi dal Big Bang.
     
    Tale fenomeno avviene, perché i neutrini sono sensibili alle sole interazioni nucleari deboli, che diventano inefficaci quando la temperatura media dell’universo scende al di sotto di una decina di miliardi di Kelvin, che si raggiunge quando l’universo compie i suoi primi secondi di vita. Sebbene molti dati ci portino a concludere che i neutrini rappresentino oggi una componente decisamente minoritaria dal punto di vista del “budget” energetico cosmico, il loro ruolo nel passato non è stato affatto trascurabile: basti ricordare che il contributo energetico dei neutrini alla radiazione in epoche primordiali è stato a lungo dominante. Oggi, i neutrini di origine cosmica formano un fondo, rivelabile indirettamente dallo studio della distribuzione delle strutture cosmiche e degli effetti che esso ha sulle anisotropie (minuscole fluttuazioni in temperatura nelle diverse direzioni di osservazione) della radiazione cosmica di fondo alle microonde. Quest’ultimo effetto è stato recentemente confermato dai risultati dell’analisi dei dati raccolti dal satellite Planck dell’Agenzia Spaziale Europea (Esa). Questi risultati, assieme all’accordo tra le predizioni della teoria con le osservazioni sull’abbondanza degli elementi leggeri, ci confermano che siamo in grado di ricostruire con grande precisione la storia termica dell’universo a partire da pochi secondi dopo il Big Bang. Ma le nostre conoscenze teoriche attuali e molti riscontri osservativi consentono di risalire ancora più indietro nel tempo, fino a speculare sullo stato del cosmo e sui processi fisici avvenuti 10-33 secondi (ovvero qualche milionesimo di miliardesimo di miliardesimo di miliardesimo di secondo) dal Big Bang. In epoche precedenti alla nucleosintesi la storia termica del cosmo è stata caratterizzata da una sequenza di transizioni di fase.
     
    c.
    Il satellite Planck nel 2009, prima del suo lancio nello spazio.
    Questo fenomeno è legato a uno dei concetti più importanti della fisica delle particelle elementari degli ultimi decenni: la scoperta della rottura spontanea di alcune simmetrie. Un esempio fra tutti: la rottura della simmetria elettrodebole, a causa della quale la forza nucleare debole a basse energie si manifesta come interazione a corto range, al contrario della forza elettromagnetica, capace di farsi sentire fino a lunghe distanze. Ebbene, nell’universo primordiale le scale di energia coinvolte sono così elevate, da rimettere in gioco la sottostante simmetria che unifica queste due forze, restituendo a entrambe la capacità di agire a lungo range. Questa transizione, che dalla fase di simmetria restaurata ad alta temperatura porta alla fase di simmetria rotta, avviene quando l’universo è estremamente giovane: circa un decimo di miliardesimo di secondo dal Big Bang. A temperature ben più elevate (circa cento mila miliardi di volte maggiori) si ipotizza vi sia stata un’altra transizione di fase, legata alla cosiddetta Grande Unificazione tra forza forte, debole ed elettromagnetica, come predetto dalle teorie Gut (vd. in Campi di luce, ndr). Entriamo qui nel regno delle ipotesi più affascinanti. Si ipotizza infatti che a queste energie l’universo abbia sperimentato una brevissima espansione accelerata: brevissima ma gravida di conseguenze su tutto ciò che abbiamo fin qui raccontato. Stiamo parlando di quello che i cosmologi chiamano inflazione, una crescita esponenziale delle scale di lunghezza cosmiche grazie alla quale si sono generate tutte le caratteristiche osservabili dell’universo che oggi osserviamo: dalla sua rassicurante uniformità su grande scala, giù fino a tutta la complessità delle strutture cosmiche, strutture formate a partire da “semi” primordiali, che avrebbero avuto origine proprio da quella rapidissima fase di espansione inflazionaria grazie a minuscole oscillazioni quantistiche del vuoto. Con l’inflazione ci siamo spinti indietro fino ai fatidici 10-33 secondi sopra ricordati. Cos’è avvenuto prima dell’inflazione? L’universo ha attraversato fasi di espansione caratterizzate da temperature e scale di energie ancor più elevate? È veramente esistito un inizio dei tempi con le caratteristiche del Big Bang? L’inflazione porta con sé un “bonus” formidabile: essa cancella di fatto ogni memoria delle fasi precedenti, così che la risposta a tali domande non è più rilevante ai fini della storia termica successiva e delle condizioni attuali dell’universo.
     

    Biografia
    Sabino Matarrese è professore ordinario di Astrofisica e Cosmologia dell’Università di Padova. Ha svolto attività di ricerca in ambito cosmologico anche presso la Sissa (Trieste) e l’Mpa (Garching). È membro del gruppo di ricerca della missione Planck dell’Esa.

     

    Link
    http://www.damtp.cam.ac.uk/research/gr/public/bb_history.html


    icon-pdf [scarica pdf]

     

     

    {jcomments on}

  • Il lato oscuro dell'universo

    Il lato oscuro dell'universo
    Segnali dall’oscurità
    di Antonio Masiero e Massimo Pietroni

    Segnali dall'oscurità

    Se, avvicinandosi alla Terra di notte, un astronauta alieno pensasse che la superficie del nostro pianeta fosse tutta ricoperta dagli oceani tranne che nelle poche zone in cui si vedono le luci delle metropoli, commetterebbe un grave errore. Allo stesso modo, se noi pensassimo che l’Universo contenesse solo le cose che possiamo vedere, cioè le stelle, sbaglieremmo di grosso. Una quantità crescente di osservazioni astronomiche porta a concludere che la parte visibile del nostro Universo rappresenta solo una porzione minima del totale, quasi insignificante in termini di massa complessiva. La maggior parte della materia contenuta nel Cosmo non forma stelle o nubidi gas interstellare. Non emette e non assorbe luce, raggi X, raggi gamma o onde radio, che sono diverse forme di radiazione elettromagnetica tutte potenzialmente "visibili" dai nostri telescopi. Interagisce pochissimo con gli atomi della materia ordinaria ed è così esotica da non trovare posto sulla tavola periodica degli elementi. I fisici le hanno dato il nome di materia oscura. Ma se è così insolita ed evanescente come facciamo a sapere che questa materia oscura esiste, e che ce n’è così tanta?
    La risposta sta nella massa e nella forza di gravità. Tutti i corpi dotati di massa, per quanto oscuri e silenziosi, risentono della forza di gravità dovuta ai corpi circostanti, e a loro volta esercitano una forza su tutti gli altri secondo leggi ben conosciute, scoperte da Galileo, Newton e Einstein. Così, studiando il moto dei corpi celesti, che è governato dalla forza di gravità, è possibile sapere quanta massa c’è nei dintorni di quei corpi. Per fare un esempio, se un giorno si scoprisse un sistema solare lontano, in cui un pianeta orbitasse attorno alla stella centrale alla stessa distanza che c’è tra il nostro Sole e la Terra ma a una velocità doppia, potremmo immediatamente concludere, in base a queste leggi, che quella stella è quattro volte più pesante del nostro Sole. Un ragionamento di questo tipo fu usato dall’astronomo Fritz Zwicky nel 1933 per stimare la quantità totale di materia contenuta nell’ammasso della Chioma, un gruppo di più di mille galassie distante trecento milioni di anni luce dalla Terra. Zwicky notò che le galassie viaggiano a una velocità così elevata che l’ammasso si disgregherebbe rapidamente se l’unica massa in gioco fosse quella visibile, delle stelle che formano le galassie. Deve esserci invece moltissima materia in più, distribuita nello spazio apparentemente vuoto tra una galassia e l’altra, in grado di tenere insieme l’ammasso con la sua forza di gravità. Una materia che però non emette alcun tipo di radiazione elettromagnetica visibile con i più sofisticati telescopi.
    Era nato il problema della "massa mancante", che oggi si preferisce chiamare materia oscura. Quaranta anni più tardi Vera Rubin, studiando la rotazione delle stelle e delle nubi di gas attorno alle galassie, mostrò che la materia oscura esiste non solo nello spazio intergalattico all’interno degli ammassi, ma che anche le stesse galassie, prese individualmente, sono composte in gran parte di materia oscura. Questo tipo di osservazioni sono state ripetute per un numero molto elevato di galassie tra cui la nostra Via Lattea. Oggi pensiamo che ogni galassia come la nostra sia immersa in un alone di materia oscura di dimensioni molto maggiori della parte visibile della galassia stessa. Il Sole, la Terra e tutti gli altri pianeti, spostandosi nel cielo fendono questo alone, solo che non ce ne accorgiamo perché le particelle che lo compongono non interagiscono con la materia ordinaria in modo apprezzabile.

    a.
    Simulazione di un alone di materia oscura.
    b.
    Ogni galassia è circondata da un alone di materia oscura che si estende molto al di là della parte visibile, formata da una galassia (in giallo) e da “ammassi globulari” (in rosa), ossia densi raggruppamenti di stelle al di sopra e di sotto della galassia.

    Una lente per la materia oscura
    Oltre che dall’effetto sui moti di stelle e galassie, più recentemente la materia oscura è stata smascherata attraverso lo spettacolare fenomeno delle lenti gravitazionali.
    Dato che i fotoni, le particelle che compongono la luce, portano un’energia, anch’essi risentono dell’attrazione gravitazionale dovuta alle altre forme di energia. Così, nelle vicinanze di concentrazioni di materia la luce non viaggia in linea retta ma curva, come in una lente. Il fenomeno non è nuovo ma fu osservato già nel 1919 da Sir Arthur Eddington, che riuscì a misurare la deflessione dei raggi di luce provenienti da stelle lontane a opera del Sole, fornendo così la prima prova della validità della teoria della gravitazione di Einstein.
    Studiando gli ammassi di galassie con la tecnica delle lenti gravitazionali e con altre ancora, è possibile stimare quanta della massa complessiva sia presente sotto forma di materia oscura e quanta invece sia contenuta nel gas o nelle stelle. Il rapporto che si ottiene da questo tipo di analisi è grosso modo di cinque a uno, a favore della materia oscura. La tecnica delle lenti gravitazionali è così promettente che si sta lavorando per applicarla non solo agli ammassi di galassie ma a porzioni sempre più estese di Universo, con l’obiettivo di ricostruire una mappa tridimensionale dell’intero Universo oscuro.


    c.
    Il fenomeno della lente gravitazionale. La luce proveniente da una galassia lontana viene deviata dalla materia che incontra lungo il percorso. Come risultato, dalla Terra si vedono diverse immagini della stessa galassia.

    1.
    Una sorgente lontana. La luce viene emessa da una galassia lontana ai confini dell’universo visibile.
    2.
    Una “lente” di materia oscura. Parte della luce attraversa un grande ammasso di galassie circondato da materia oscura posto fra la Terra e la galassia lontana. La gravità della materia oscura agisce come una lente, piegando le traiettorie della luce.
    3.
    Punto focale: la Terra. Una parte della luce viene focalizzata e diretta verso la Terra, da cui si osservano più immagini distorte della stessa galassia lontana.
    [as] approfondimento
    La tecnica delle lenti gravitazionali
    1.
    Le lenti gravitazionali possono essere usate per determinare la quantità totale di materia, sia visibile che oscura, presente all’interno di un ammasso di galassie. Nella figura 1 si vede un esempio chiarissimo di questo effetto, osservato col telescopio spaziale Hubble. Le numerose “lunette” sono immagini multiple di galassie lontane che si trovano al di là dell’ammasso. Se l’unica materia dell’ammasso fosse quella visibile, contenuta nelle galassie e nelle nubi di gas intergalattico, l’attrazione gravitazionale risultante non sarebbe assolutamente sufficiente a provocare una simile distorsione delle immagini delle galassie nello sfondo. Ci vuole una gran quantità di materia supplementare, che però non si vede, per spiegare foto come queste. Un altro esempio dell’uso della tecnica delle lenti gravitazionali per rivelare la presenza di materia oscura è fornito dall’ammasso di galassie in figura 2, che per la sua forma particolare è stato chiamato ammasso del proiettile (Bullet Cluster). Un ammasso di galassie è costituito da materia oscura e materia ordinaria, tipicamente nel rapporto di 5 a 1. A sua volta, la materia ordinaria è composta per il 90% da gas caldo, che possiamo vedere perché emette raggi X in grande quantità, mentre le stelle rappresentano il restante 10%. In questo caso abbiamo a che fare in realtà con due ammassi distinti che si sono “scontrati” alla velocità di 16 milioni di chilometri all’ora, trapassandosi completamente e lasciandosi dietro nubi di gas caldissimo. La figura è stata ottenuta osservando i due ammassi sia con telescopi (tradizionali e a raggi X) sensibili alla sola materia ordinaria, sia attraverso la tecnica delle lenti gravitazionali, che, dalla distorsione delle immagini delle galassie nello sfondo, permette di individuare tutta la materia, ordinaria e oscura, contenuta nell’ammasso. Per agevolare la lettura della foto, la regione che emette raggi X (il gas) è stata colorata artificialmente in rosso mentre quella in cui è presente la massa rilevata attraverso l’effetto lente è colorata in blu. Anche in questo caso, la massa contenuta nelle stelle non è assolutamente in grado di rendere conto dell’effetto lente osservato. Ma c’è di più. L’urto tra i due ammassi fornisce la rarissima opportunità di “vedere” la materia oscura separata da quella ordinaria. Infatti, si nota benissimo che la parte in rosso è più schiacciata nella regione della collisione rispetto a quella in blu. Questo può essere spiegato col fatto che nello scontro tra i due ammassi le rispettive nubi di gas caldo interagiscono tra loro e quindi si rallentano reciprocamente, mentre le nubi di materia oscura, non avendo interazioni se non quella gravitazionale, si attraversano senza influenzarsi apprezzabilmente. Una dimostrazione spettacolare della presenza di due componenti diverse, una ordinaria e l’altra oscura, all’interno degli ammassi!

    2.

    d.
    Un’immagine suggestiva dell’utilizzo della tecnica delle lenti gravitazionali a porzioni estese di Universo. Le ellissi colorate rappresentano le galassie, le zone grigie sono le regioni occupate dalla materia oscura e i quattro “tubi” azzurri mostrano come si propagano, deformandosi, le immagini di quattro galassie lontane. Come si vede, in un Universo dominato dalla materia oscura la luce viaggia su traiettorie tutt’altro che rettilinee! Dalla distorsione delle immagini delle galassie lontane si cerca di risalire alla quantità e alla distribuzione della materia oscura nelle regioni che hanno attraversato per giungere fino a noi.

    Dalla crema primordiale alle galassie
    Se la materia oscura è così abbondante, senza dubbio deve aver giocato un ruolo decisivo anche in epoche remote, quelle che dall’Universo caldo e denso seguito al Big Bang hanno portato fino alla formazione delle galassie e delle strutture più complesse, come gli ammassi e i superammassi.
    Facciamo un salto indietro di tredici miliardi di anni, impresa resa possibile dai dati sulla radiazione cosmologica di fondo o CMB (acronimo tratto dall’inglese Cosmic Microwave Background), che fornisce la "fotografia" più antica dell’Universo.
    Si tratta di una mappa della volta celeste, ottenuta dal satellite Wmap (Wilkinson Microwave Anisotropy Probe), in cui sono indicate le temperature delle varie zone del cielo, misurate usando i fotoni della radiazione di fondo che raggiungono la Terra da tutte le direzioni.
    Questi fotoni sono stati emessi quando l’Universo aveva circa 380.000 anni ed era mille volte più caldo di oggi. In seguito hanno viaggiato fino a noi praticamente indisturbati, semplicemente raffreddandosi a causa dell’espansione dell’Universo, ma conservando l’informazione sulla struttura del Cosmo a quella data. I diversi colori corrispondono a temperature leggermente più alte o più basse del valore medio di 2,73 gradi kelvin, la temperatura attuale media dell’Universo. La differenza fra la tonalità delle macchie ci dà una misura di quanto l’Universo a quell’epoca fosse disomogeneo. Come si vede dalla scala riportata in basso, la differenza di temperatura tra i punti più caldi e quelli più freddi è molto piccola, appena lo 0,001% della temperatura media. Questo significa che l’Universo a quell’epoca era una crema calda di densità quasi perfettamente uniforme. Una situazione completamente diversa da quella attuale, in cui osserviamo invece grandi zone vuote alternate a "isole" ad altissima densità di materia. Per dare un’idea, la densità all’interno della Via Lattea è circa 100.000 volte più grande della media nell’Universo.
    Che cosa ha provocato un cambiamento così drastico dalla crema omogenea degli albori all’Universo disomogeneo di oggi?
    Ancora una volta la risposta è la forza di gravità. Le zone che inizialmente erano un po’ più dense della media, anche se di pochissimo, esercitavano una forza di gravità maggiore rispetto a quelle un po’ meno dense e cominciarono così ad attrarre materia, in tutte le sue forme, dalle zone circostanti. Il processo continuò e acquisì sempre più forza via via che questi grumi primordiali diventavano più concentrati. Nelle zone in cui la densità raggiunse i valori più elevati si crearono le condizioni per formare prima le stelle e poi le galassie e gli ammassi di galassie. Perché questo processo possa portare alla formazione di un Universo simile a quello che osserviamo oggi è indispensabile che la maggior parte della materia contenuta nell’Universo non abbia interazioni significative con i fotoni, sia cioè elettricamente neutra. Se così non fosse, le piccole disomogeneità iniziali non avrebbero potuto crescere perché la "pressione" dei fotoni si sarebbe opposta alla forza attrattiva della gravità. Per esempio, nel caso in cui fosse stata presente solo materia ordinaria la crescita delle disomogeneità sarebbe rimasta bloccata fino al momento in cui, grazie all’abbassamento della temperatura, i nuclei (positivi) e gli elettroni (negativi) poterono agganciarsi e formare così atomi neutri. Solo da quel momento in poi la materia sarebbe diventata quasi insensibile ai fotoni e la gravità avrebbe potuto cominciare ad agire indisturbata. Ma quel ritardo lo avremmo pagato caro, e oggi la maggior parte delle strutture che vediamo nel nostro cielo, tra cui probabilmente la stessa Via Lattea, non avrebbero ancora avuto il tempo di formarsi. Come abbiamo visto, chiedere alla materia oscura di non interagire coi fotoni vuol dire impedirle di essere fatta di protoni e elettroni.

    e.
    Immagine della temperatura della radiazione cosmologica di fondo ottenuta dal satellite Wmap (Wilkinson Microwave Anisotropy Probe). Si tratta di una vera e propria mappa delle temperature della radiazione di fondo. Un µK (micro kelvin) è pari a un milionesimo di grado kelvin.
    f.
    Tre fasi della formazione delle strutture nell’Universo, prima delle stelle, poi delle galassie e degli ammassi di galassie, riprodotte in simulazioni al computer. I cubi rappresentano la stessa porzione di Universo, il cui lato misura oggi 300 milioni di anni luce, rappresentato all’età di un miliardo di anni (cubo di sinistra), 3 miliardi di anni (centro) e oggi (destra), che l’Universo ha 13 miliardi e mezzo di anni. Le zone in giallo indicano le regioni in cui si sono formate le stelle.

    Questo significa che non è possibile sperare che la materia oscura che forma gran parte delle galassie e degli ammassi odierni sia semplicemente materia normale "spenta", cioè nubi di gas freddo o pianeti troppo piccoli per diventare stelle. Tutti questi oggetti, che pure esistono, sono composti da atomi e quindi, in ultima analisi, da protoni, neutroni ed elettroni. Per la materia oscura, invece, non c’è proprio posto all’interno della tavola periodica! Oggi si parla molto di Cosmologia di precisione. Con questa locuzione si intende lo studio dettagliato della radiazione di fondo e della distribuzione delle strutture nell’Universo, oltre che la misura delle quantità di idrogeno, elio e altri elementi leggeri presenti nel Cosmo più profondo. Mettendo insieme tutte queste misure indipendenti, e altre ancora, è possibile ricavare una stima sempre più precisa della sovrabbondanza della materia oscura rispetto a quella ordinaria su scale di distanze pari all’intero Universo.

    Il risultato è in accordo con quanto osservato negli ammassi di galassie: materia oscura batte materia ordinaria cinque a uno. A caccia di candidati alla nomina di particella di materia oscura.

     

    A caccia di candidati alla nomina di particella di materia oscura
    Abbiamo visto finora che la maggior parte della materia presente nell’Universo è oscura (cioè non emette radiazione elettromagnetica) e più dell’80% della materia presente nell’Universo non è costituito di "materia ordinaria", vale a dire di protoni, neutroni ed elettroni. Fermo restando l’interesse "astrofisico" della prima affermazione, ciò che veramente interessa il fisico delle particelle è la seconda. Il fascino sta nella sfida di trovare validi candidati particellari di materia oscura. Prima di imbarcarci in questa ricerca, vale la pena di stabilire bene le "regole del gioco", ovvero quali requisiti debba avere una particella per entrare nella lista delle candidature valide per render conto della materia oscura.
    Il primo requisito è quello di essere stabile o comunque avere tempi di decadimento così lunghi da non essere ancora decaduta sino a oggi, più di 13,5 miliardi d’anni dopo il Big Bang. Calcolare poi il contributo alla materia presente nell’Universo di una tale particella risulta semplice: si tratta di moltiplicare la massa della particella per il numero di particelle sopravvissute. Quest’ultima cruciale informazione si acquisisce studiando la "vita"della candidata durante i primi momenti dell’Universo. Quando ancora non è intercorso un secondo dal Big Bang, l’Universo è ancora caldissimo e le diverse particelle presenti in questa sorta di "brodo primordiale" interagiscono molto velocemente le une con le altre. Le varie specie sono tutte egualmente abbondanti, poiché le interazioni favoriscono la trasformazione di particelle da una specie all’altra, mantenendo così un equilibrio fra le diverse popolazioni. In corrispondenza al progressivo raffreddamento dell’Universo, due diversi destini attendono le varie particelle. La maggior parte di queste decade e a un certo punto l’Universo diviene così freddo da non permettere più il processo inverso in cui le particelle possono essere ricreate. Queste particelle pesanti semplicemente scompaiono dal gioco e torneranno in vita per brevissimi istanti solo 13,5 miliardi di anni più tardi, prodotte negli urti ad altissima energia realizzati nei nostri laboratori!
    Completamente diversa è la sorte che attendele particelle stabili. Per loro esiste un momento decisivo che fisserà una volta per tutte il loro numero: il disaccoppiamento. Come può accadere a un gruppo di persone che si allontanano e per le quali diventa sempre più raro riuscire a parlarsi finché si arriva al disaccoppiamento e ognuno prosegue per la sua strada, così per la particella stabile in esame arriva il momento in cui essa non interagisce più con le altre. Da allora in poi l’Universo diventa "trasparente" per questo tipo di particelle e il loro numero non varierà più. Si tratta di particelle "fossili" dell’Universo primordiale. Non è solo una bella "teoria": i fotoni della radiazione di fondo che abbiamo visto in precedenza, sono un esempio di particelle fossili. Si sono disaccoppiati circa 380.000 anni dopo il Big Bang e da allora vagano nel cosmo. I fotoni però non possono costituire la materia oscura che osserviamo, se non altro perché non hanno massa e la loro energia attuale è piccolissima. Quale altra particella fossile possiamo invocare per la materia oscura?

     



    La materia oscura sfida il Modello Standard delle forze e particelle elementari
    È dalla fine degli anni ’60 che ogni qualvolta abbiamo una domanda che riguarda le particelle elementari e le forze fondamentali (elettromagnetica, debole e nucleare forte) la risposta giusta ci viene fornita da una teoria che è stata chiamata Modello Standard. Ebbene, se anche questa volta ci rivolgiamo fiduciosi al Modello Standard, l’unica risposta che riceviamo è la seguente: in una estensione del modello in cui i neutrini possiedono una massa (modifica che si è resa necessaria da quando abbiamo visto i neutrini "oscillare", si veda il numero3 di Asimmetrie), l’unico candidato possibile di materia oscura è il neutrino.
    Il neutrino è una particella "simpatica" (a cominciare dal nome attribuitogli da Fermi): di massa estremamente piccola, almeno un miliardo di volte più piccola di quella di un protone o di un neutrone, con interazioni col mondo circostante molto deboli, riveste però un ruolo di primo piano nella storia dell’evoluzione dell’Universo (macrocosmo) come pure nella nostra comprensione del mondo particellare (microcosmo). Sarebbe magnifico se potesse anche essere la fonte della maggior parte della materia esistente nell’Universo! Purtroppo questo non funziona per almeno due buone ragioni.
    La prima è che la massa è così piccola che, moltiplicata per il numero di neutrini fossili, non riesce assolutamente ad arrivare a un’abbondanza di materia oscura comparabile a quella necessaria.
    La seconda ha a che fare con l’altissima velocità, quasi uguale a quella della luce, che il neutrino possiede quando si disaccoppia, circa un secondo dopo il Big Bang. In un Universo in cui gran parte della materia oscura fosse fatta di neutrini, la formazione delle galassie sarebbe ritardata dal rapido movimento di queste particelle. Le prime strutture a formarsi sarebbero grandi ammassi, mentre le singole galassie si formerebbero solo più tardi, per frammentazione. Ciò condurrebbe a una mappa delle strutture del nostro Universo molto diversa da quella che ci forniscono gli accurati cataloghi di galassie di cui disponiamo oggi.
    Ma il neutrino non cessa di aiutarci nella nostra esplorazione: dietro al suo fallimento quale candidato di materia oscura troviamo l’importante suggerimento che potrebbe funzionare come materia oscura una particella che ha pure interazioni deboli, ma con una massa molto più alta di quella del neutrino in modo da rimanere quasi "seduta" nel momento in cui si disaccoppia.

    L’importanza di essere una Wimp
    Nello slang americano non è certo un complimento se dite a qualcuno che è un wimp, cioè un deboluccio che ha paura di tutto. Ma nel mondo delle particelle essere un wimp stabile è un grande privilegio. Infatti, Wimp è un acronimo inglese per "particella con massa che interagisce debolmente" (Weakly Interacting Massive Particle), e quindi siamo in presenza di una particella che ha caratteristiche simili a quelle del neutrino, ma con massa molto più alta, almeno 10 miliardidi volte più grande di quella di un normale neutrino. È proprio questa grande massa che fa sì che quando una Wimp si disaccoppia, nonostante la temperatura ancora elevatissima presente nell’Universo primordiale, esso abbia una velocità molto bassa, che è proprio quello che serve per ottenere una corretta formazione delle strutture. Ma non è tutto. Ciò che veramente ha reso la particella Wimp la star dei candidati di materia oscura è un’impressionante "coincidenza": nel calcolo del momento di disaccoppiamento e quindi del numero di Wimp oggi presenti entrano sia quantità di tipo cosmologico che caratteristiche tipiche della fisica delle particelle elementari. Ebbene, senza fare particolari assunzioni sui valori di queste varie quantità del tutto indipendenti tra loro, per un ampio intervallo di massa delle Wimp, diciamo tra 100 e 1000 volte la massa di protoni e neutroni, si ottengono valori per l’abbondanza di materia oscura in accordo con quelli necessari per rendere conto delle osservazioni astrofisiche e cosmologiche.


    g.
    Schema del laboratorio Cern, a Ginevra in Svizzera, dove in un tunnel con circonferenza di 27 km sotto alla periferia della città è in costruzione l’acceleratore di particelle Lhc. L’acceleratore Lhc ospiterà gli esperimenti Atlas, Cms, Alice e Lhc-b.

    Wimp, materia oscura e Nuova Fisica al di là del Modello Standard
    Il Modello Standard è stato soggetto ai più svariati test particellari, dalla tradizionale fisica di alta energia allo studio di processi rari e di alta precisione a energie più basse. Curiosamente, le due indicazioni più significative che abbiamo sull’esistenza di una Nuova Fisica al di là del Modello Standard non vengono dalle solite ricerche svolte negli acceleratori di particelle più potenti: si tratta infatti dell’evidenza di oscillazione - e quindi di massa - dei neutrini e della presenza di materia oscura nell’Universo. Data la molteplice e solida evidenza dell’esistenza di materia oscura e l’altresì solida evidenza che il Modello Standard delle particelle non possiede alcun valido candidato di materia oscura, consideriamo la materia oscura una forte indicazione di una Nuova Fisica al di là del Modello Standard.
    È ovvia la domanda successiva: che tipo di Nuova Fisica può fornire validi candidati di materia oscura? Naturalmente, dato che l’altra evidenza di Nuova Fisica, cioè le masse dei neutrini, non ci dice quale sia questa Nuova Fisica, per andare al di là del Modello Standard non possiamo che affidarci alle motivazioni teoriche e alla incessante creatività dei fisici teorici particellari. Al momento l’estensione del Modello Standard che appare teoricamente più promettente è rappresentata dalla supersimmetria (Susy da SUperSYmmetry), che è caratterizzata dall’importante predizione che ogni particella nota sia accompagnata da una particella partner supersimmetrica.
    Nella maggior parte dei modelli supersimmetrici, per ragioni fenomenologiche, viene richiesto che la particella Susy più leggera sia assolutamente stabile. In gran parte dei modelli Susy tale particella è il più leggero neutralino (anche il nome ci suggerisce che si tratti di una specie di neutrino, molto più pesante degli usuali neutrini).

    Si potrà mai vedere una Wimp di materia oscura?
    Sarebbe quasi paradossale se, dopo essere riusciti a esplorare la materia ordinaria che ci circonda fino a distanza di miliardesimi di miliardesimi di metro, poi sfuggisse alla nostra osservazione ciò che costituisce più dell’80% della materia dell’Universo. Eppure dare la caccia a una Wimp è un’impresa ardua. Sappiamo che è difficile "vedere" i neutrini. Ebbene, non solo una Wimp interagisce debolmente come fa il neutrino, ma le Wimp sono molto più rare dei neutrini.
    Ci vuole grande abilità, astuzia e… un pizzico di fortuna per trovare una Wimp. La si può cercare direttamente quando interagisce con un rivelatore composto di materia ordinaria collocato nei nostri laboratori. Oppure si possono cercare le tracce indirette della presenza di particelle di materia oscura. Infatti, quando due Wimp nell’alone galattico entrano in collisione, si annichilano, e alloro posto compaiono fotoni e molte altre particelle che, in parte, possono raggiungere la Terra. L’osservazione di queste particelle, tra le quali ci potrebbero essere neutrini e antimateria (antielettroni,antiprotoni), sarebbe una conferma dell’esistenza delle Wimp, ottenuta grazie alla loro autodistruzione. Ma vi è un ulteriore modo di "vedere" una Wimp che ci conduce al cuore del connubio tra fisica delle particelle, astrofisica e cosmologia. Si tratta della possibilità di andare oltre la ricerca delle Wimp fossili del primo Universo e di studiare le Wimp o le loro tracce tra le particelle prodotte nei nostri acceleratori. Un nuovo acceleratore, il più potente mai costruito, sta per cominciare le sue operazioni al laboratorio Cern di Ginevra: Lhc, Large Hadron Collider.
    Oltre alla scoperta del fantomatico bosone di Higgs la cui esistenza è predetta nell’ambito del Modello Standard, lo scopo più eccitante di Lhc, diciamo pure la sua missione, è di fornirci quelle indicazioni dirette di una Nuova Fisica al di là del Modello Standard che da tanti anni cerchiamo (invano). Tra queste, primeggia proprio la Wimp della materia oscura. Sarebbe una delle più grandi conquiste della nostra sete di conoscenza se potessimo trovare la materia oscura sia con gli esperimenti a Lhc che nelle ricerche (dirette e indirette) di Wimp fossili del primo Universo. Non solo sapremmo di cosa è fatto l’80% della materia esistente, ma saremmo riusciti a riprodurre all’interno dei nostri acceleratori di particelle un pezzetto dell’Universo di 13,5 miliardi di anni fa.

    Biografia
    Antonio Masiero è direttore della Sezione di Padova dell’Infn e professore ordinario dell’Università di Padova. La sua attività verte sulla ricerca di Nuova Fisica al di là del Modello Standard con particolare attenzione alle connessioni tra fisica delle particelle e cosmologia.

    Massimo Pietroni è ricercatore dell’Infn della Sezione di Padova. In questi ultimi anni si è occupato principalmente del problema della materia e dell’energia oscura nell’Universo e delle sue possibili spiegazioni nell’ambito della fisica delle particelle.

     

    Link
    http://www.vialattea.net/cosmo/
    http://www.scienzagiovane.unibo.it/darkmatter.html
    http://chandra.harvard.edu/photo/2006/1e0657/media/bullet.mpg
    http://www.hubblesite.org/newscenter/archive/releases/2003/32/video/d/
    http://www.mpa-garching.mpg.de/galform/virgo/millennium/
    http://qso.lanl.gov/pictures/Pictures.html

     

    icon-pdf [scarica pdf]



    {jcomments on}

  • Il mistero nascosto nei primi tre minuti di vita dell'universo

    Berillio 2016Accade tutto nei primi tre minuti. È in questo breve intervallo di tempo subito dopo il Big Bang che si formano gli elementi più leggeri e abbondanti dell'universo. Qualcosa, però, non quadra. Il litio. La stima dei modelli teorici è più abbondante di un fattore tre rispetto a quella dedotta dalle osservazioni. È il cosiddetto "problema del litio cosmologico". Persiste da 40 anni. Ma ora i fisici della collaborazione n_Tof al Cern di Ginevra, cui partecipano i ricercatori dell'Infn, lo hanno affrontato effettuando delle misure complesse sul berillio. I risultati sono stati pubblicati su Physical Review Letters. Per la sua importanza, inoltre, lo studio è stato selezionato dalla rivista come "editors' suggestion".

    I ricercatori della collaborazione n_tof hanno scelto il berillio (7Be), perché è quasi esclusivamente dal suo decadimento che il litio cosmologico è prodotto nella cosiddetta nucleosintesi del Big Bang (Bbn, dall'inglese "Big Bang nucleosynthesis"). Una possibile spiegazione dell'abbondanza del litio è che nei modelli teorici sia sovrastimata la produzione di berillio. Oppure, che sia sottostimata la sua distruzione, in seguito a reazioni indotte da neutroni o particelle cariche.

    "Abbiamo proposto e realizzato la misura della sezione d’urto di breakup in due particelle alfa. Si tratta di una misura molto complessa - sottolinea Massimo Barbagallo, fisico del Cern e della sezione Infn di Bari e primo autore dello studio - L’unico dato esistente su questa reazione è stato ottenuto, infatti, nel 1963 con neutroni termici (25 meV), al reattore di Ispra. La sezione d’urto alle energie di interesse per la BBN (20-200 keV) - aggiunge Barbagallo - era finora basata esclusivamente su estrapolazioni teoriche, ritenute incerte anche di un fattore dieci". L’apparato sperimentale, ad alta efficienza e selettività, è stato sviluppato dal gruppo INFN, in particolare presso i Laboratori Nazionali del Sud (LNS) di Catania. "Il nostro studio - spiega Barbagallo - ha dimostrato che, nel range d'interesse per la Bbn, la misura fornisce un valore dieci volte inferiore a quanto attualmente utilizzato nei modelli teorici, chiarendo in maniera inequivocabile che questo canale di reazione non è in grado di risolvere il problema del litio cosmologico. Il mistero, quindi, permane. Ma adesso abbiamo aggiunto un tassello in più nel puzzle del litio cosmologico. La sua soluzione - conclude il fisico - va, dunque, cercata in scenari alternativi". Secondo alcuni modelli, la risoluzione del problema del litio cosmologico potrebbe anche fornire un segnale di fisica oltre il modello standard.[Davide Patitucci]

  • L'universo è un grande ologramma?

    ologramma 2017Un nuovo studio, pubblicato su Physical Review Letters, ha fornito le prime importanti indicazioni scientifiche sulla compatibilità statistica con i dati sperimentali del modello olografico dell’universo, secondo il quale il nostro universo sarebbe, appunto, un grande e complesso ologramma. La ricerca ha coinvolto fisici e astrofisici teorici di Regno Unito, Italia e Canada, in particolare dell’Università di Southampton in Inghilterra, della sezione di Lecce dell’Infn e dell'Università del Salento in Italia, del Perimeter Institute e dell'Università di Waterloo in Canada.

    La ricerca è frutto di un'analisi congiunta di aspetti teorici e fenomenologici della fisica dell'universo primordiale, uniti a studi di fisica delle interazioni fondamentali. I risultati di questa complessa analisi sono stati confrontati con i dati sperimentali satellitari sulla radiazione cosmica di fondo e sono stati trovati in accordo con essi. Il modello corrente del nostro universo, che è in una fase di accelerazione dovuta alla presenza di energia oscura, prevede la cosiddetta "costante cosmologica" (vd. anche ...che muove il Sole e l'altre stelle, ndr), introdotta da Einstein negli anni ’20 e chiamata Lambda, insieme a materia oscura fredda (cold dark matter, Cdm), e per questo prende il nome di modello Lambda-Cdm. Questo modello è supportato dai dati sperimentali. La nuova ricerca prova che gli stessi dati sperimentali sono a favore anche di un modello di universo olografico.

    
“L'ipotesi che il nostro universo funzioni come un enorme e complesso ologramma è stata formulata negli anni ’90 del secolo scorso da diversi scienziati, raccogliendo evidenze teoriche in vari settori della fisica delle interazioni fondamentali”, spiega Claudio Corianò, ricercatore dell'Infn e professore di fisica teorica dell'Università del Salento, che ha partecipato alla ricerca insieme ai colleghi Niayesh Afshordi, Luigi Delle Rose, Elizabeth Gould e Kostas Skenderis. “L’idea alla base della teoria olografica dell’universo – prosegue Corianò – è che tutte le informazioni che costituiscono la ‘realtà’ a tre dimensioni - più il tempo - siano contenute entro i confini di una realtà con una dimensione in meno”. Si può immaginare che tutto ciò che si vede, si sente e si ascolta in 3D - e la percezione del tempo - sia emanazione di un campo piatto bidimensionale, cioè che la terza dimensione sia "emergente", se paragonata alle altre due dimensioni. L'idea, quindi, è simile a quella degli ologrammi ordinari, in cui l'immagine tridimensionale è codificata in una superficie bidimensionale, come nell'ologramma su una carta di credito, solo che qui è l'intero universo a essere codificato. In un ologramma la terza dimensione viene generata dinamicamente a partire dall’informazione sulle rimanenti due dimensioni. “Per creare un ologramma - spiega Corianò - si prende un fascio laser luminoso e lo si separa all'origine in due fasci: uno è inviato su un oggetto distante e quindi viene riflesso, mentre l'altro è inviato per essere registrato. Servono due coordinate per indirizzare il fascio incidente sull'oggetto, in modo da esplorarlo completamente, mentre è proprio l'interferenza tra il fascio originario e quello riflesso che permette di ricostruire l'immagine e dare il senso della profondità”, conclude Corianò.

    Si può rappresentare il concetto pensando al cinema in 3D. Anche in questo caso la visione 3D è il risultato di due immagini differenti inviate all'occhio destro e all’occhio sinistro, dove una scena viene ripresa da due angolature distinte, che il nostro cervello processa automaticamente generando il senso della profondità. L'informazione, in questo caso, viene da uno schermo piatto, ma è percepita dall'osservatore come tridimensionale. In ambito cosmologico, per avere una rappresentazione semplificata della formulazione olografica, possiamo immaginare che ci sia una superficie ideale, sulla quale tutta l’informazione dell’universo venga in qualche modo registrata, come in un ologramma: uno schermo che contiene la "scena" dell'intero universo. Gli scienziati ora sperano che il loro studio possa aprire la via per migliorare la nostra comprensione dell'universo e spiegare come lo spazio e il tempo si siano prodotti. [Antonella Varaschin]

  • La Fisica, la Bellezza e l'Antimateria

    La Fisica, la Bellezza e l'Antimateria
    La storia enigmatica dell’antimateria e della simmetria nell’Universo.
    di Andrea Vacchi

    a.
    Il quadro Day and Night di M. C. Escher. Il positrone, la controparte di antimateria dell’elettrone, fu inizialmente immaginato come una lacuna nel mare di Dirac. Una scatola piena di elettroni, salvo un piccolo spazio, può essere vista come una scatola vuota con un positrone in quello stesso spazio.
    Nell’estate del 1931 Wolfgang Pauli assisteva a un seminario di Robert Oppenheimer sul lavoro del fisico teorico Dirac. Si racconta che, nel bel mezzo di quella lezione, scattò in piedi, afferrò un pezzo di gesso camminando verso la lavagna, e lì davanti si fermò brandendolo come per intervenire, poi disse: “Ach nein, das ist ja alles falsch!”… tutto questo è certamente sbagliato! Più tardi Pauli scrisse, a proposito della spiegazione che Dirac dava dei risultati della sua teoria,“non crediamo che tutto questo debba essere preso sul serio”.
    Di carattere molto schivo, ai limiti della scontrosità, quando nel 1933 Paul Dirac seppe di aver ricevuto il premio Nobel la sua prima tentazione fu di rinunciare al riconoscimento. Accettò solo davanti all’obiezione di Ernest Rutherford, Nobel nel 1908, che il rifiuto avrebbe suscitato una pubblicità perfino maggiore. Aveva 31 anni e la convinzione che le leggi fondamentali della Natura fossero pervase da una bellezza matematica che resta tale da qualsiasi punto di vista e sempre. In quel periodo la recente teoria della meccanica quantistica spiegava come il mondo delle cose molto piccole seguisse leggi diverse da quelle suggerite dal nostro intuito: la meccanica quantistica è una delle maggiori rivoluzioni nella fisica del ventesimo secolo e, anche se può apparire bizzarra e lontana dall’intuito, è probabilmente la descrizione della Natura più vicina alla realtà. Nel frattempo, Einstein proponeva la sua teoria della relatività speciale, dove si mostrava come lel eggi che descrivono cose molto veloci sfidino i nostri criteri di buonsenso e che la materia è una tra le tante forme di energia. Nel 1927, Paul Dirac fece il passo fondamentale per accordare fisica quantistica e teoria della relatività speciale di Einstein, introducendo un’equazione in grado dispiegare il comportamento degli elettroni ad ogni velocità, fino alla velocità della luce: quale è la giusta descrizione dell’elettrone come onda quantica? E quale l’equazione che governa la dinamica di queste onde, rispettando le regole della relatività? Il lavoro di Dirac era volto a descrivere la Natura attraverso una formula che rispettasse un’estetica nella matematica. Gli capitò di dire: “È più importante arrivare a equazioni belle che ottenere da esse la riproduzione di osservazioni sperimentali”. Questa impostazione lo condusse a risultati spettacolari. È fondamentale che l’esperimento confermi una teoria scientifica, ma certe teorie appaiono troppo belle per essere scartate, anche se restano in attesa di una conferma sperimentale. Semplicità ed eleganza sonole caratteristiche che appaiono quando una teoria è sviluppata con il minimo numero di assunzioni, quando è universale e descrive fenomeni ai quali non era diretta in origine.
    b.
    Un ritratto di Paul Dirac.

    Dirac amava la montagna: tra le sue ascensioni si ricorda il monte Elbruz nel Caucaso. Si preparava a queste escursioni arrampicandosi sugli alberi nelle colline attorno a Cambridge, vestito degli stess iabiti scuri che usava nel campus. Se per gli artisti la bellezza è spesso soggettiva, nella scienza si cercano equazioni che mantengano la loro forma anche attraverso trasformazioni che le adattano ai diversi sistemi di riferimento. L’equazione della sfera, ad esempio, non cambia quando le coordinate sono invertite: la sfera resta tale vista da qualunque prospettiva, anche attraverso uno specchio. La sua affermazione sull’importanza della bellezza era diretta a Erwin Schrödinger. Dirac era dell’avviso che Schrödinger avrebbe dovuto continuare il suo sviluppo teorico senza curarsi degli esperimenti. Egli fece in questo modo, arrivando a scoprire un’equazione consistente con la relatività, ma in una forma matematica nuova, insolita per la maggior parte dei fisici di allora. È un’equazione che ha la stessa forma in ogni sistema di riferimento e resta invariata nelle trasformazioni di spazio e tempo richieste dalla teoria della relatività.
    Il lavoro di Dirac, intitolato La Teoria Quantistica dell’Elettrone, fu pubblicato ottanta anni fa, nel febbraio del 1928. Lo sviluppo che vi si proponeva portava alla sua equazione, in grado di fornire una spiegazione naturale per le caratteristiche dell’elettrone come lo spin, ma conduceva anche a risultati sorprendenti e apparentemente paradossali: ogni soluzione in cui l’elettrone aveva una prevedibile energia positiva, permetteva una controparte con energia negativa, stati a energia negativa che apparivano come particelle con numeri quantici inversi rispetto alla materia “normale”: tutti lo ritenevano innaturale, impossibile.
    Furono necessari tre anni di ipotesi e discussioni e finalmente nel 1931, interpretando i suoi risultati, Dirac intuì e propose l’esistenza dell’antielettrone, chiamato anche positrone, una particella con la stessa massa e lo stesso spin dell’elettrone, ma con carica elettrica opposta.
    Era un’ipotesi ardita nata come risultato di una formulazione teorica che diede luogo, tra i fisici, a discussioni infuocate. Dirac predisse, inoltre, che se un elettrone avesse incontrato un antielettrone, la coppia si sarebbe dovuta annichilare e la massa ricombinata trasformarsi in radiazione, così come richiesto dalla celebre equazione di Einstein E = mc2. Una simile particella era sconosciuta.
    Dirac formulò l’ipotesi che in altre parti dell’Universo le cariche positive e negative fossero invertite, che esistesse quindi un Universo di antimateria. L’insistere sulla consistenza e bellezza della teoria portava a immaginare aspetti inattesi della Natura. Naturalmente questo richiedeva un’intelligenza intuitiva straordinaria, che certo a lui non mancava.

    c.
    Carl Anderson vicino alla camera a nebbia con cui scoprì il positrone nel 1932.

    Nel 1932, mentre studiava le tracce lasciate dalle particelle dei raggi cosmici nel suo rivelatore, la camera a nebbia, Carl Anderson notò che alcune di esse, pur avendo tutte le caratteristiche lasciate di solito dagli elettroni, reagivano al campo magnetico come se avessero carica opposta. Si trattava della prima chiara evidenza sperimentale dell’esistenza di una particella di antimateria, l’antielettrone di Dirac. Una scoperta sensazionale: l’antielettrone previsto dai risultati dell’equazione di Dirac era stato identificato senza possibilità di errore. Un trionfo esaltante per la fisica teorica che vide confermata dall’esperimento la sua predizione, frutto di immaginazione e bellezza matematica.

    [as] approfondimento
    Il mistero dei raggi cosmici

    1.
    Questo strumento è una delle camere a nebbia usate da Carl Anderson in un forte campo magnetico. Millikan aveva chiamato la linea sperimentale, impostata attorno al 1930 con l’uso di questi strumenti, study of cosmic rays, the birth cries of the universe, ossia “studio dei raggi cosmici, il primo vagito dell’Universo”.
     

    2.
    La famosa fotografia del 1932: raffigura il positrone che entrando dal basso attraversa uno spessore di piombo perdendo energia. Una minore energia, infatti, determina una maggiore curvatura della traccia nel campo magnetico. L’elettrone avrebbe avuto una curvatura opposta.
     

    La più naturale sorgente di antimateria era, allora come oggi, la radiazione proveniente dal Cosmo. Già nel 1912 Victor Hess, salendo a 5.000 metri con un pallone aerostatico, aveva notato che la ionizzazione prodotta sui suoi strumenti dalla radiazione cresceva aumentando la quota. “I risultati delle mie osservazioni si spiegano perfettamente supponendo che una radiazione di grandissimo potere penetrante entri dall’alto nella nostra atmosfera […]”, scrisse più tardi. Una pioggia incessante di particelle provenienti dallo Spazio colpisce la Terra: sono i raggi cosmici, l’unico contatto materiale con la Galassia e l’Universo. Come e dove nascono? In che modo raggiungono la loro energia? Fuori dell’atmosfera terrestre i raggi cosmici sono particelle di ogni tipo: i più abbondanti sono protoni (i nuclei di idrogeno), poi nuclei di elio e di elementi più pesanti. Il campo magnetico della Terra ne devia la traiettoria in modo più o meno importante in base alla loro energia. Arrivando negli strati alti dell’atmosfera e urtando contro le molecole dell’aria, i raggi cosmici primari producono uno sciame, una vera e propria cascata di particelle secondarie, ricca anche di antiparticelle. La natura delle particelle, nello sciame prodotto dai raggi cosmici, muta mentre esse sprofondano nell’atmosfera. Per questo, per poterne studiare le caratteristiche originarie, da sempre i fisici portano i loro strumenti in alta quota. Carl Anderson usava la camera a nebbia, uno strumento studiato da Charles Wilson, che permetteva di fotografare la traccia lasciata in un gas dalle particelle prodotte dai raggi cosmici. Nata per studiare la formazione delle nuvole, consisteva di un cilindro riempito d’aria, chiuso all’estremità da un pistone. Lo spostamento veloce del pistone causava un’espansione del volume della camera con un conseguente calo di temperatura dell’aria satura di vapore acqueo, e questo induceva la formazione di minuscole gocce liquide. Wilson aveva scoperto che le cariche elettriche (ioni) prodotte dal passaggio delle particelle nel gas agivano da centri di condensazione.

    3.
    Il lancio dall’Antartico di un moderno pallone stratosferico. Sgonfio, il pallone è alto come la torre Eiffel, mentre gonfio ha un diametro di 176 metri. Tra gli obiettivi dell’esperimento Bess-Polar c’è quello di chiarire il puzzle dell’asimmetria materia-antimateria studiando l’antimateria nei raggi cosmici.
    4.
    Lord Rutheford definì la camera a nebbia o di Wilson “il più originale e meraviglioso strumento della storia della scienza”. Nella camera a nebbia la radiazione entra in una camera di espansione che contiene un gas saturo di vapor d’acqua. L’espansione causata dal pistone raffredda il gas e si formano gocce di vapore attorno agli ioni prodotti dal passaggio delle particelle. La camera a bolle (vd. fig. 4), che valse il premio Nobel a Glaser nel 1960, è lo strumento complementare alla camera a nebbia. Levando il tappo a una bottiglia d’acqua minerale, abbassiamo la pressione e si formano bolle di gas. Nella camera a bolle un liquido è mantenuto a una temperatura prossima al punto di ebollizione. Se la pressione è tolta rapidamente dalla camera con il movimento del pistone il liquido avrà la tendenza a bollire. La particella che attraversa il liquido genera degli ioni sul suo tragitto e questi agiscono da punti di origine di piccole bolle. Una fotografia potrà riprendere la traccia e l’interazione della particella come se si trattasse di un fuoco d’artificio.

    Questa prova sperimentale fu confermata pochi giorni dopo da Patrick Blackett e Giuseppe Occhialini che, con uno strumento simile ma reso più selettivo dall’impiego di circuiti elettronici molto avanzati (la specialità del giovane Occhialini), osservarono due fenomeni già previsti da Dirac: la generazione di coppie di elettroni e positroni prodotti direttamente dalla radiazione, e l’annichilazione, il processo nel quale particelle e antiparticelle riunite sparivano emettendo radiazione.
    Nella lezione che tenne, ricevendo il premio Nobel nel 1933, Dirac ipotizzò l’esistenza dell’antiprotone, o protone negativo. Gli acceleratori di particelle oggi generano antiprotoni, antineutroni e antimesoni. Nella visione di Dirac, come verificato dalla fisica sperimentale, ogni particella elementare ha un complementare, un’antiparticella. Se l’elettrone è un piccolo rilievo, una goccia nello spazio, la sua antiparticella, il positrone, è una fossa, una lacuna. Particella e antiparticella possono essere create o distrutte solo in coppia e la loro somma è radiazione. Questi eventi di creazione e annichilazione di coppie si realizzano oggi normalmente nei grandi acceleratori e vengono osservati con raffinati strumenti negli apparati sperimentali.
    L’equazione di Dirac, una delle cattedrali della scienza, spianò la strada allo studio dell’antimateria e inaugurò un periodo fertilissimo di scoperte. La caccia alle antiparticelle era iniziata. Il passo successivo era dimostrare l’esistenza dell’antiprotone. Questa era messa in dubbio da un valido argomento: nell’Universo non c’è simmetria tra materia e antimateria. Inoltre, per produrre l’antiprotone è necessaria un’energia molto maggiore a quella necessaria a produrre positroni.

    c.
    Il laboratorio Berkeley come appariva nel 1955. Il Bevatron si trova sotto la cupola centrale.
    d.
    Da sinistra Emilio Segrè, Clyde Wiegand, Edward Lofgren, Owen Chamberlain e Thomas Ypsilantis, i componenti del gruppo che scoprì l’antiprotone. Lofgren era responsabile dell’acceleratore.

    Nel 1955 a Berkeley, in California, fu messo in funzione il più potente acceleratore mai costruito fino a quel momento (vd. Asimmetrie n. 6, ndr). Proposto da Ernest Lawrence, il Bevatron era capace di raggiungere 6,2 GeV (allora il miliardo di elettronvolt, il GeV di oggi, era chiamato BeV, da cui il nome dell’acceleratore). Lawrence era cosciente del fatto che questa era l’energia necessaria per superare la soglia di produzione degli antiprotoni.
    Emilio Segrè era stato il primo studente a laurearsi con Fermi all’Università di Roma. Anche Owen Chamberlain aveva studiato con Fermi ed era diventato poi assistente di Segrè durante il progetto Manhattan. Insieme progettarono un labirinto di magneti e contatori elettronici attraverso i quali potevano passare solo antiprotoni. L’ingegnoso esperimento usava rivelatori e dispositivi elettronici che per l’epoca erano di frontiera. “Dovemmo selezionarli e pesarli in molto meno di un milionesimo di secondo”, spiegò in seguito Segrè.
    Nell’ottobre del 1955, lui e i suoi collaboratori bombardarono un bersaglio di rame con i protoni accelerati dal Bevatron. Si contarono 60 particelle identiche ai protoni, ma con carica elettrica negativa: 60 antiprotoni!

    e.
    Un antiprotone (traccia colorata artificialmente in azzurro) entra in una camera a bolle dal basso e colpisce un protone. L’energia rilasciata nell’annichilazione produce quattro particelle positive (pioni in rosso), quattro particelle negative (pioni in verde). La traccia gialla è un muone, prodotto di decadimento di uno dei pioni da cui ha origine. I ricci blu sono prodotti da elettroni di bassa energia, da reazioni che non hanno a che vedere con l’antiprotone.
    f.
    L’evento chiamato “Faustina”, trovato nel febbraio 1955 dal gruppo di ricerca guidato da Edoardo Amaldi in una delle emulsioni fotografiche esposte ai raggi cosmici durante la spedizione in Sardegna del 1953, è interpretabile come processo di “produzione, cattura e annichilamento di un protone negativo”.

    Iniziarono anche altre ricerche indirizzate, ad esempio, verso la scoperta del primo antinucleo (vd. “Primo passo verso l’antinucleo” p. 12, ndr), e si scatenò da allora la fantasia dei narratori di fantascienza e non solo. La stampa locale, il Berkeley Gazette, usciva con un titolo preoccupato: “Minacciosa scoperta all’Università di California”.
    Pare che al giornalista fosse stato detto che un antiprotone avrebbe causato l’esplosione di chi ne fosse venuto a contatto. Oggi miliardi di antiprotoni vengono prodotti normalmente al Cern di Ginevra e al laboratorio Fermi di Chicago, senza alcun pericolo. Poco dopo la scoperta dell’antiprotone Oreste Piccioni individuò l’antineutrone. Erano anni di vera passione scientifica tra grandi scoperte teoriche e sperimentali. Oreste Piccioni ebbe un importante ruolo anche nella scoperta dell’antiprotone, come ricordarono Segrè e Chamberlain nel ricevere il premio Nobel. Ma il suo contributo di grande fisico sperimentale resta storicamente l’elegantissima misura che, studiando la reazione di scambio della carica in cui un protone e un antiprotone danno un neutrone e un antineutrone, dimostrò l’esistenza dell’antineutrone. La teoria di Dirac richiede che ogni particella abbia un partner di antimateria di massa uguale e carica elettrica opposta. Ogni particella ha la sua “anti”. I protoni sono composti da quark.
    Analogamente gli antiprotoni sono composti da antiquark. In questo modo è possibile produrre la famiglia completa di antiparticelle. Vengono chiamate particelle di Dirac le particelle che hanno un complementare di antimateria. Nel 1937 il giovane fisico Ettore Majorana pubblicò il suo lavoro scientifico più famoso, Teoria simmetrica di elettroni e positroni, in cui si introduce l’ipotesi rivoluzionaria che il partner di antimateria di alcuni tipi di particelle siano loro stesse. Questo era in contraddizione con ciò che Dirac aveva proposto. Majorana suggerì che il neutrino, da poco introdotto da Pauli e Fermi per spiegare le caratteristiche del decadimento con elettroni di alcune sorgenti radioattive, fosse un esempio di particella capace di essere l’antiparticella di se stessa.

    g.
    Questa immagine, ottenuta nel 1958 nella camera a bolle di Berkeley, dimostra l’esistenza dell’antineutrone, l’antiparticella del neutrone. Nel punto segnato dalla freccia nera un antiprotone prodotto dall’acceleratore subisce una reazione di scambio della carica. L’antineutrone prodotto non lascia una traccia visibile, percorre una decina di centimetri prima di annichilare in una caratteristica stella di annichilazione. L’energia rilasciata è consistente con quella che ci si aspetta quando le massa a riposo di un neutrone e di un antineutrone vengono convertite in energia.
    h.
    L’esperimento Cuore presso i Laboratori del Gran Sasso dell’Infn, di cui qui vediamo una colonna, è un rivelatore modulare costituito da 1.000 cristalli di ossido di tellurio disposti in una matrice quadrata di 25 colonne, ciascuna delle quali contiene 40 cristalli di TeO2 di 5x5x5 cm3. Questi, a una temperatura di ca. 7-10 mK, molto vicino allo zero assoluto, fungono sia da rivelatore che da sorgente di 130Te. L’esperimento permetterà di studiare con grande sensibilità il decadimento raro, con due elettroni senza neutrino, del 130Te. La misura delle caratteristiche di questo decadimento senza neutrini indicherà se il neutrino è una particella di Majorana e aiuterà a spiegare l’asimmetria particella-antiparticella nell’Universo. L’osservazione di questo decadimento avrà sulla fisica, sull’astrofisica e sulla cosmologia un impatto molto profondo.

    I neutrini non hanno carica, non necessariamente si comportano come i quark e gli elettroni e le altre particelle di Dirac. L’assenza di carica permette l’ipotesi che il neutrino e l’antineutrino siano la stessa particella. Ettore Majorana propose questa idea e una particella che coincide con la sua antiparticella viene chiamata particella di Majorana.
    La scoperta della massa del neutrino ha messo questo tema in primo piano. Per ordinare il neutrino all’interno del modello teorico chiamato Modello Standard è necessario sapere se i neutrini sono particelle di Dirac o particelle di Majorana. Oggi, moderni e raffinati esperimenti sono tesi a chiarire questo particolare aspetto dei neutrini.
    Dai primi lavori di Dirac sono trascorsi ottanta anni, l’idea dell’antimateria è ancora sorprendente e affascinante perchè l’Universo appare composto completamente di materia. L’antimateria sembra andar contro tutto ciò che sappiamo a proposito dell’Universo. L’Universo è completamente composto di materia anche se nel Big Bang sono state create quantità uguali di materia e antimateria. Perché?
    Tutte le particelle di materia e antimateria dovrebbero essere annichilite lasciando solo fotoni, ma in qualche modo una piccolissima frazione della materia ha potuto sopravvivere per creare l’Universo come lo conosciamo.
    È uno dei più grandi misteri della fisica moderna.

    Biografia
    Andrea Vacchi dirige la sezione di Trieste dell’Infn. È tra gli iniziatori dell’esperimento Infn Pamela per la ricerca di antimateria nei raggi cosmici. È direttore editoriale di Asimmetrie.


    Link

    http://nobelprize.org/nobel_prizes/physics/laureates/1933/dirac-bio.html
    http://www.upscale.utoronto.ca/GeneralInterest/Harrison/AntiMatter/AntiMatter.html

     

    {jcomments on}

  • Lampi dal passato

    Lampi dal passato
    Una straordinaria geologia della luce per esplorare la storia dell’Universo.
    di Paolo de Bernardis e Silvia Masi

    a.
    Lancio della navicella Boomerang dall’Antartide nel 2003. Misurando il fondo cosmico a microonde nel 1997, 1998 e 2003 questo esperimento ha permesso di stabilire le percentuali di materia “normale” e materia oscura presenti nell’Universo.

    Nel 1964 Arno Penzias e Robert Wilson iniziarono a modificare una grande antenna per comunicazioni satellitari, allo scopo di utilizzarla come radiotelescopio per captare microonde. Non erano mai state eseguite osservazioni del cielo nelle microonde, e i due volevano osservare l’emissione di questo tipo di fotoni nella nostra galassia. Ma, come spesso succede quando si applica una tecnologia nuova in un settore in cui non è stata mai utilizzata, Penzias e Wilson scoprirono qualcosa di importante e inaspettato. Dovunque puntassero la loro antenna, ricevevano dal cielo la stessa piccola quantità di microonde. Penzias e Wilson osservarono così per la prima volta i fotoni del fondo cosmico a microonde, che furono prodotti nei primi attimi dopo il Big Bang, circa 13,5 miliardi di anni fa. Quando l’Universo, 380.000 anni dopo, espandendosi, si raffreddò abbastanza da consentire la formazione dei primi atomi, questi fotoni riuscirono a “svincolarsi” dal plasma incandescente di cui era formato l’Universo fino ad allora e a viaggiare fino al radiotelescopio dei due scienziati. Prima che si formassero gli atomi, infatti, l’Universo era un plasma di elettroni e protoni liberi. In queste condizioni i fotoni viaggiavano solo per brevi tratti, perché venivano continuamente deviati dalle interazioni con le particelle cariche. Esattamente la stessa cosa succede all’interno del Sole, dove i fotoni generati nella zona centrale potrebbero uscire dopo pochi secondi se viaggiassero indisturbati, ma impiegano decine di migliaia di anni per uscire in superficie, a causa delle continue interazioni con gli elettroni e i protoni all’interno del plasma incandescente che lo costituisce. Quando riescono a “svincolarsi”, essi viaggiano nello Spazio fino ad arrivare alla Terra dopo soli otto minuti, trasportando a noi l’immagine della superficie del Sole e non del plasma incandescente al suo interno.

    b.
    La radiazione elettromagnetica consiste di onde che possono essere interpretate come particelle dotate di energia: i fotoni. All'aumentare della lunghezza d'onda dei fotoni, la loro energia decresce. La luce per noi visibile è solo una piccola parte dello spettro della radiazione elettromagnetica.
    Allo stesso modo non possiamo osservare immagini provenienti dai primi 380.000 anni dopo il Big Bang, nei quali l’Universo era un gas incandescente. I fotoni, infatti, sono delle particelle che interagiscono molto meno con gli atomi che con gli elettroni e i protoni liberi. Dopo la formazione degli atomi, le interazioni dei fotoni con la materia divennero talmente rare che essi hanno potuto viaggiare praticamente indisturbati fino ai nostri telescopi, attraversando, in 13,5 miliardi di anni, tutto l’Universo osservabile. E quindi trasportano una immagine fedele di come era l’Universo all’ epoca della loro ultima interazione. È l’immagine dell’Universo più antica e remota che possiamo osservare. Talmente antica che l’Universo si è espanso circa mille volte nel frattempo, trasformando la luce abbagliante di allora in flebili microonde, quelle rivelate dal radiotelescopio di Penzias e Wilson. Successivamente, per studiare meglio questa immagine dei primi istanti dell’Universo è stato necessario sviluppare dei telescopi speciali e portarli al di fuori dell’atmosfera terrestre (la nostra atmosfera ostruisce infatti il passaggio delle microonde). Il primo è stato Cobe (COsmic Background Explorer) nel 1989, che è valso il premio Nobel a George F. Smoot e John C. Mather nel 2006. Però solo dopo l’anno 2000 esperimenti come Boomerang (Balloon Observation Of Millimetric Extragalactic Radiation ANd Geophysics), Maxima (Millimeter Anisotropy eXperiment Imaging Array) e Wmap (Wilkinson Microwave Anisotropy Probe) hanno realizzato mappe dettagliate della radiazione del fondo cosmico a microonde. Ci sono voluti dunque 35 anni per sviluppare degli apparati sperimentali migliori di quello di Penzias e Wilson. Ma ne è valsa la pena.
    [as] approfondimento
    Dal Big Bang alle microonde

     

    La figura ricostruisce le principali tappe della formazione del fondo cosmico a microonde. A causa dell’espansione successiva al Big Bang, l’Universo iniziò a raffreddarsi fino a raggiungere, 380.000 anni dopo, una temperatura così bassa da consentire la combinazione di nuclei ed elettroni in atomi. A questo punto la lunghezza d’onda tipica dei fotoni si aggirava intorno al micron (millesimo di millimetro), si trattava dunque di fotoni “micrometrici” (mentre le microonde hanno lunghezze d’onda millimetriche). Da qui in poi i fotoni presero a muoversi liberamente sotto l’azione della sola spinta espansiva dell’Universo, diminuendo la loro energia ovvero aumentando proporzionalmente la loro lunghezza d’onda. Oggi, dopo che l’Universo ha aumentato di un fattore 1000 le sue dimensioni, la lunghezza d’onda di questi fotoni risulta essere dell’ordine del millimetro e sono quindi rivelati dai nostri telescopi come flebili microonde, ma si tratta esattamente degli stessi fotoni presenti nel periodo di formazione degli atomi. [C. P.]

    L’estrema omogeneità dei fotoni delle microonde, che si vede nell’immagine dell’Universo primordiale, ci fornisce una prima prova dell’esistenza della materia oscura. Nei primi 380.000 anni dopo il Big Bang, durante la fase incandescente dell’Universo, la materia “normale” (i protoni e gli elettroni liberi) non si sarebbe potuta aggregare per formare strutture come le galassie e gli ammassi di galassie: glielo avrebbero impedito gli urti con l’enorme numero di fotoni presente. Inoltre, partendo da una situazione di quasi completa omogeneità, come quella che si vede nell’immagine del fondo cosmico a microonde (che fotografa la situazione 380.000 anni dopo il Big Bang), il processo di aggregazione delle particelle sarebbe estremamente lento. Con calcoli quantitativi si conclude che, se l’Universo fosse formato solo da materia “normale”, non ci sarebbe stato abbastanza tempo per formare le strutture che oggi vi si trovano. Gli ammassi di galassie, le galassie, le stelle oggi non esisterebbero. Noi non esisteremmo.

    A meno che, già alla fine della fase incandescente, non ci fossero delle aggregazioni di materia che ha massa, ma non interagisce con i fotoni: la materia oscura. Non subendo l’effetto della pressione dei fotoni, questa ha potuto iniziare ad aggregarsi in strutture anche durante la fase incandescente.

    c.
    I rivelatori dell’esperimento Hfi (High Frequency Instrument) sul satellite Planck dell’Agenzia Spaziale Europea. Con questo strumento sarà possibile stabilire con grande precisione la densità di materia oscura nell’Universo.
    d.
    Mappe del fondo cosmico a microonde “fotografate” da Boomerang e Wmap. È l’immagine più antica che possiamo ottenere dell’Universo primordiale. Il contrasto dell’immagine è stato aumentato decine di migliaia di volte per rendere visibili le tenui strutture. Nelle immagini si vede come la materia “normale” sta iniziando a concentrarsi su preesistenti strutture di materia oscura. Solo grazie a questo processo è stato possibile, nei successivi miliardi di anni, che si formassero le strutture visibili nell’Universo di oggi: galassie, ammassi di galassie, stelle e noi stessi.

    Alla fine di questa fase, materia “normale” e materia oscura si sono attratte gravitazionalmente e questo ha dato origine a grumi di massa che hanno poi fatto in modo che le strutture che oggi vediamo nell’Universo si potessero formare in tempo utile. Strutture di materia normale immerse in nubi di materia oscura, proprio come osservato a suo tempo da Fritz Zwicky e da Vera Rubin. In realtà, uno studio dettagliato dell’immagine del fondo cosmico ci fornisce anche informazioni sulla quantità di materia oscura presente nell’Universo. Studiando il livello di disomogeneità della luce (i fotoni) nell’Universo primordiale, osserviamo direttamente le condizioni iniziali del lento processo di formazione delle strutture cosmiche. E confrontando queste con la distribuzione attuale delle galassie a grande scala, capiamo che tipo di caratteristiche di aggregazione deve avere la materia oscura. Le particelle di tipo “caldo”, leggere e veloci (come i neutrini), si aggregano diversamente da quelle di tipo “freddo”, lente e massive (come le Wimp). Il confronto favorisce le seconde. E permette di stabilire che la densità di materia oscura “fredda” nell’Universo è circa cinque volte più abbondante di tutta la materia “normale” che conosciamo. L’anno prossimo, le misure dell’esperimento Planck dell’Agenzia Spaziale Europea permetteranno di quantificare questa densità con grande accuratezza.

    In futuro, altre osservazioni ancora più dettagliate del fondo cosmico a microonde forniranno l’entusiasmante opportunità di studiare altri aspetti della materia oscura. Si dovrà osservare il fondo a microonde nelle zone dove ce n’è di più, cioè negli ammassi di galassie. In strutture come il bullet cluster la materia oscura è separata da quella “normale”. Se fosse fatta di Wimp, come si suppone, le loro annichilazioni produrrebbero particelle cariche e queste interagirebbero con i fotoni del fondo cosmico che si trovano ad attraversare l’ammasso di galassie, cedendo loro un po’ di energia. Con strumenti ad alta risoluzione, come il prossimo South Pole Telescope e il telescopio sul pallone Olimpo (il successore dell’esperimento Boomerang), sarà possibile osservare questo effetto, e da questo stabilire la massa delle particelle responsabili della materia oscura. Oltre a fornire entusiasmanti risultati scientifici, le misure del fondo cosmico hanno fornito, per l’industria italiana, l’occasione di formare eccellenti competenze nel campo dell’ottica (p. es. telescopi fuori asse di grande diametro), della criogenia, ossia la tecnologia delle bassissime temperature (p. es. criostati spaziali per l’elio liquido) e dell’elettronica (p. es. elettronica di prossimità per sensori, sistemi di data processing di bordo), coinvolte sia nei grandi progetti spaziali (come Planck), sia negli esperimenti su pallone (come Boomerang e Olimpo). È questa una ulteriore valenza, comune a tutta la fisica sperimentale, che in una nazione moderna deve essere incentivata e valorizzata.

    Biografia
    Paolo de Bernardis è professore di Astrofisica all’Università di Roma La Sapienza. La sua ricerca è focalizzata sul fondo cosmico a microonde: ha coordinato l’esperimento Boomerang e ha contribuito all’esperimento Hfi a bordo del satellite Planck, che sarà lanciato nel 2008.

    Silvia Masi è ricercatrice presso il Dipartimento di Fisica dell’Università di Roma La Sapienza. Ha sviluppato diversi sistemi criogenici per esperimenti su palloni stratosferici (tra i quali Boomerang). È coordinatrice dell’esperimento Olimpo, che volerà nel 2008, e ha sviluppato un esperimento operante dalla base antartica di Dome-C.

     

    Link
    http://oberon.roma1.infn.it/boomerang/b2k/
    http://it.wikipedia.org/wiki/Materia_oscura

     

    icon-pdf [scarica pdf]



    {jcomments on}
  • Le tre età

    Le tre età
    Datare l’universo, la Terra e la materia vivente

    di Eleonora Cossi


    a.
    Dettaglio di Le tre età della donna, dipinto del 1905 del pittore austriaco Gustav Klimt (olio su tela).

    Nel 1811 in Inghilterra, in una spiaggia del Dorset, una giovane donna fece una scoperta destinata a cambiare per sempre la concezione del tempo. Lei si chiamava Mary Anning ed è passata alla storia per aver scoperto un gigantesco scheletro di animale, il più grande mai rinvenuto. La Anning, che aveva imparato dal padre a riconoscere i fossili del Giurassico, particolarmente abbondanti in quella zona, aveva trovato uno scheletro completo di un rettile marino chiamato Ichtyosaurus: una creatura sconosciuta e impossibile da concepire seguendo la concezione della storia accettata allora dalla maggior parte degli uomini, quella delle sacre scritture. Da quel giorno il tempo non fu più lo stesso.

    Fino al 1700 l’età della Terra, e quindi, per la credenza dell’epoca, anche quella dell’universo, era stata stimata sulla base dell’interpretazione delle sacre scritture in circa 6000 anni. Solo a partire dalla fine del ’700 i calcoli iniziarono a esser basati su criteri “scientifici. Ancora agli inizi del secolo scorso, però, l’età della Terra era stimata in milioni di anni. Solo attorno al 1930, meno di cent’anni fa, Arthur Holmes iniziò a utilizzare le misure radiochimiche per stabilire, in miliardi di anni, l’età della Terra.

    Oggi è possibile risalire con precisione anche a epoche molto più lontane di quelle in cui la Terra era abitata dai dinosauri (l’era Mesozoica), utilizzando specifici metodi di datazione che gli scienziati hanno sviluppato in ambiti scientifici diversi, come la geologia, la fisica delle particelle e l’astrofisica.

    Partiamo dall’età dell’universo, la macchina del tempo più potente che abbiamo a disposizione e in cui possiamo vedere tanto più indietro, quanto più lontano guardiamo. Grazie al programma di misure del telescopio Hubble (l'Hubble Extreme Deep Field program, vd. fig. b) abbiamo potuto osservare oggetti distanti fino a 13 miliardi di anni luce, grazie alle misure del redshift cosmologico, lo “spostamento verso il rosso” della luce, previsto dall’espansione dell’universo secondo la legge di Hubble (vd. in Asimmetrie n. 15 Foto d'epoca, ndr). Secondo le stime più aggiornate la nascita dell’universo viene fatta risalire a circa 13,8 miliardi di anni fa, quando è avvenuto il Big Bang. Questa stima è confermata dalle osservazioni dei satelliti, come Wmap e Planck, che studiano la radiazione cosmica di fondo.

    b.
    L’Hubble Extreme Deep Field (Xdf), in italiano campo extra-profondo di Hubble, cioè l’immagine di una piccolissima regione di cielo visibile dall'emisfero sud, basata sui risultati di una serie di osservazioni del telescopio spaziale Hubble. Benchè la regione di cielo osservata sia molto più piccola di quella coperta, ad esempio, dalla Luna, l'immagine contiene circa 5500 galassie. L'Xdf ha permesso di osservare galassie molto distanti, create quindi nell’universo “giovane” ed è diventata un'immagine caposaldo nello studio dell’universo primordiale.
    Nel 2013, il satellite Planck dell’Agenzia spaziale Europea (Esa) ci ha inviato una dettagliata mappa della radiazione cosmica di fondo, la prima immagine che abbiamo dell’universo, ricca di informazioni sulla composizione dell’universo primordiale. Secondo i modelli della fisica delle particelle e della cosmologia questa “foto d’epoca” (vd. fig. c in Asimmetrie n. 15) ci mostra l’universo 380 mila anni dopo il Big Bang. Cosa sia successo prima è descritto dal modello cosmologico detto Lambda-Cdm, che prevede che l’universo sia in espansione e composto per circa il 95% da energia oscura (Lambda) e materia oscura fredda (Cold Dark Matter) (vd. in Asimmetrie n. 14 In sostanza, ndr). Sempre studiando la radiazione cosmica di fondo, e in particolare i suoi stati di polarizzazione, si può provare ad andare ancora più indietro cercando, indirettamente, conferme sulla teoria dell’inflazione: la rapidissima espansione che, immediatamente dopo il Big Bang, avrebbe ingigantito le fluttuazioni quantistiche prodotte nel Big Bang fino a farle diventare i “semi” di materia in corrispondenza dei quali si sono formate le galassie (vd. anche Asimmetrie n. 15 [as] Crescita in tempi di inflazione., ndr).
    Per stimare l’età del sistema solare e della Terra si usano, invece, modelli astrofisici e metodi di datazione derivanti dalla geologia. Secondo l’ipotesi scientifica più accreditata, circa 5 miliardi di anni fa da una nebulosa primordiale cominciò il processo che portò 4,6 miliardi di anni fa alla formazione del sistema solare. Con i metodi “geologici”, infatti, in particolare stimando l’età dei meteoriti rinvenuti sulla Terra, la nascita del sistema solare è stata stimata a circa 4,6 miliardi di anni fa, età compatibile con la datazione delle rocce terrestri e quindi con la stima fatta per la nascita della Terra. L’origine della vita sulla Terra è, invece, argomento ancora molto controverso, e oggi viene fatta risalire a circa 3,5 miliardi di anni fa.
    La storia “geologica” del nostro pianeta viene, dunque, ricostruita prevalentemente utilizzando documenti speciali: le rocce e i fossili. Entrambi possono essere studiati sia con metodi di datazione relativa, al fine di stabilire la successione degli eventi che hanno caratterizzato la storia della Terra, sia con metodi di datazione assoluta, in particolare con tecniche di datazione radiometriche (o radiodatazione), che consentono di datare con precisione un evento, indicando quando si è verificato e la sua durata. I metodi di datazione relativa si fondano su tre criteri: stratigrafico, paleontologico e litologico, e si basano sull’osservazione delle rocce sedimentate e dei fossili che vi sono rimasti imprigionati. Il criterio stratigrafico si basa sull’osservazione degli strati sedimentari delle rocce e sull’evidenza che quelli più antichi si trovino più in basso e quelli più recenti più in alto, rispettando l’ordine cronologico. Non sempre però questo ordine è rispettato: i movimenti tettonici possono, infatti, averlo alterato, rendendo impossibile la sua applicazione. Il criterio paleontologico sfrutta i fossili per datare gli strati rocciosi in cui sono rimasti imprigionati, partendo dal presupposto che la vita sulla Terra si sia evoluta omogeneamente. Questo tipo di datazione si effettua sui cosiddetti fossili “guida” appartenenti a specie vegetali e animali che hanno avuto ampia e rapida diffusione, come le ammoniti usate come fossili guida dell’era Mesozoica, identificabili come indizi inequivocabili di una data epoca. L’ultimo, il criterio litologico, si basa sull’assegnare alle rocce dello stesso tipo una identica età ed è il criterio di più ristretta applicazione.
    c.
    Gli ammoniti sono considerati “fossili guida”, ovvero indizi certi, dell’era Mesozoica.
     
    Mentre i metodi di datazione relativa ci permettono di individuare il susseguirsi degli eventi, restituendoci una sorta di racconto della storia del nostro pianeta, quelli di datazione assoluta ci consentono di individuare con precisione delle date, risalendo così non solo all’età di un reperto, ma anche a ciò che l’ha originato. Tra questi metodi, il più importante, quello della radiodatazione, consente di misurare la radioattività residua di rocce e fossili.
    La radioattività è una proprietà di alcuni isotopi instabili di certi elementi che emettono radiazione (storicamente denominata di tipo alfa, cioè nuclei di elio, beta, cioè elettroni o positroni, o gamma, cioè fotoni), trasformandosi in isotopi stabili dello stesso elemento o di un altro elemento: questo fenomeno è chiamato decadimento radioattivo. Gli scienziati conoscono il tempo di dimezzamento, ovvero il tempo necessario affinché una data quantità di isotopi instabili (radioattivi) si dimezzi. Calcolando il rapporto tra la quantità di un elemento radioattivo presente in una roccia e quella di un elemento stabile è possibile, conoscendo il tempo di dimezzamento, risalire all’età della roccia che stiamo analizzando.
    Per la datazione di reperti risalenti fino a 40.000 anni fa si ricorre al metodo del radiocarbonio, largamente impiegato anche nei beni culturali per la datazione di reperti di origine animale o vegetale (vd. fig. d). Piante e animali, infatti, sono una fotografia del carbonio che è presente in atmosfera con due isotopi: il carbonio 14 (14C), radioattivo, e il carbonio 12 (12C), stabile. Gli esseri viventi, infatti, fissano il carbonio atmosferico contenuto nel diossido di carbonio/anidride carbonica (CO2) attraverso la fotosintesi clorofilliana, per la flora, o attraverso l’alimentazione, per la fauna. Quando muoiono, l’isotopo 12C, stabile, rimane inalterato, mentre l’isotopo 14C, instabile, comincia a decadere trasformandosi in azoto (14N). La concentrazione di carbonio 14, quindi, diminuisce con il passare del tempo. La relazione fra quanto carbonio è rimasto e quanto si è trasformato è ben nota ai fisici ed è dettata dalle leggi del decadimento radioattivo (per il 14C il tempo di dimezzamento è Link sul web pari a 5730 anni). Per datare un reperto di origine organica occorre, dunque, misurare la quantità residua di 14C, ma questa quantità è piccolissima: pari a un atomo di 14C su mille miliardi di atomi di carbonio. È quindi necessario avere una grandissima sensibilità e misurare con una precisione tale da arrivare a un’incertezza nell’ordine di 20-30 anni. Ciò viene fatto con tecniche di fisica nucleare, utilizzando acceleratori di particelle e spettrometri che permettono di separare i nuclei di carbonio 14 e contarli (vd. in Asimmetrie n. 9 Il bello dei nuclei).
     
    d.
    Il Papiro di Artemidoro, datato con il carbonio 14 dal laboratorio Labec, il laboratorio per i Beni Culturali di Firenze dell’Infn, nel 2008. Secondo le misure realizzate dal Labec, il papiro risale al I° secolo d.C. Il documento conterrebbe la prima trascrizione conosciuta di parte di un testo geografico di Artemidoro di Efeso, ma l’attribuzione e la datazione del contenuto sono ancora controversi.
    [as] approfondimento
    Bomb peak
    1.
    Grafico del bomb peak.


    Durante la Guerra Fredda, dopo il 1955, si assiste a un susseguirsi di test nucleari che ha causato, tra gli effetti secondari, un grande aumento della concentrazione di carbonio 14 nell’atmosfera terrestre. I valori hanno raggiunto un picco verso la metà degli anni ’60 (1963-1965), per poi decrescere dopo la firma dei trattati internazionali per il bando dei test nucleari. A questo fenomeno gli scienziati danno il nome di bomb peak (“picco delle bombe”). Con l’aumentare del carbonio 14 in atmosfera aumentava, conseguentemente e con uguali valori, anche quello di tutti gli organismi viventi, tra cui anche le piante di cotone o lino, da cui si realizzano le tele da pittura. Sfruttando questo fenomeno, ricercatori del Labec di Firenze hanno provato, con un’analisi eseguita con l’acceleratore Tandem, che una tela attribuita al pittore Fernand Léger fosse inequivocabilmente un falso (come sospettato). Il livello di carbonio 14 della tela, infatti, è risultato decisamente più alto di quello presente durante la vita del pittore, morto prima del bomb peak, cioè precedente all’innalzamento del radiocarbonio dovuto ai test nucleari.

     

    {jcomments on}

  • Senza confini

    Senza confini
    Forma e dimensioni dell’universo

    di Amedeo Balbi

    a.
    Rappresentazione artistica di un multiverso.
    I fisici hanno un cattivo rapporto con l’infinito. Mentre i matematici sono riusciti a domarlo e a conviverci, i fisici ne diffidano e ne sono allarmati: la comparsa dell’infinito in una teoria è, in genere, il segno che qualcosa non va. La cosmologia sembra fare eccezione. Fin dai primi tentativi di trovare una descrizione fisica della struttura complessiva dell’universo e della sua evoluzione, l’eventualità di imbattersi nell’infinito è apparsa inevitabile e, tutto sommato, tollerata. Isaac Newton, nei Principia, considerava lo spazio infinito ed eterno. E quando, stimolato dalle richieste del teologo Richard Bentley, rifletté su quale dovesse essere la distribuzione della materia nell’universo, concluse che l’unica possibilità era che esistesse un numero infinito di stelle, sparse con uniformità nello spazio infinito. La cosmologia newtoniana presentava però grandi problemi concettuali: una distribuzione infinita di materia produceva in ogni punto dello spazio un campo gravitazionale impossibile da calcolare, e la struttura stessa dell’universo era altamente instabile. C’erano, inoltre, conseguenze paradossali: in un universo infinito ed eterno il cielo notturno sarebbe stato completamente coperto di stelle, e avrebbe dovuto brillare come la superficie del Sole. Quando, nel 1917, Albert Einstein applicò la sua nuova teoria della relatività generale al problema della struttura dell’universo, sembrò per la prima volta che esistesse una soluzione fisica coerente e immune dalla minaccia dell’infinito. Lo spazio poteva curvarsi, e questo permetteva all’universo di essere racchiuso in se stesso – un po’ come il globo terrestre, che è finito ma su cui possiamo muoverci in ogni direzione senza mai incontrare limiti. Il fisico Max Born salutò con toni entusiastici il modello cosmologico di Einstein dell’universo chiuso: “Uno spazio finito, ma senza confini, è una delle più grandiose idee sulla natura del mondo mai concepite. Risolve il misterioso problema del perché il sistema delle stelle non si sia disperso e rarefatto, come farebbe se l’universo fosse infinito”. Purtroppo, ben presto venne fuori che il modello di Einstein aveva altri problemi e, soprattutto, non si accordava con le osservazioni raccolte dagli astronomi. Le galassie apparivano infatti allontanarsi con una velocità proporzionale alla distanza, e ciò fu infine interpretato come il segno che lo spazio si espandeva: una possibilità contemplata proprio dalla relatività generale, che Einstein aveva però volutamente escluso (vd. fig. b).
     
    b.
    Albert Einstein con l’abate Georges Lemaitre, lo scopritore della soluzione delle equazioni di Einstein che prevede un universo in espansione. Famosa la frase con cui Einstein, riluttante ad abbandonare il modello di universo statico, accolse questi risultati: “Vos calculs sont corrects, mais votre physique est abominable” (“I vostri calcoli sono corretti, ma la vostra fisica è abominevole”).
     
    c.
    Se l’universo avesse solo due dimensioni spaziali, potrebbe avere la geometria di un piano, di una sella o di una superficie sferica.
    I primi due casi corrispondono a universi infiniti, rispettivamente “piatti” e “aperti”, mentre nel caso sferico l’universo sarebbe finito e “chiuso”. Anche nel caso di un universo con tre dimensioni spaziali, come il nostro, sono possibili, in via teorica, tre possibilità analoghe. Il modello originario di Einstein prevedeva un universo chiuso, ma le osservazioni cosmologiche attuali indicano invece che l’universo, almeno fino alle distanze alle quali possiamo osservarlo, sia piatto.
     
    Se lo spazio si espandeva, questo significava che la distanza tra qualunque coppia di punti nell’universo doveva essere stata minore in passato. Estrapolando questa conclusione indietro nel tempo, si andava inesorabilmente incontro a un momento in cui la distanza diventava nulla. In quello stesso istante, qualunque quantità fisica usata per descrivere il contenuto dell’universo – la densità di materia e di energia, la temperatura – sarebbe stata infinita. L’istante iniziale dell’universo – che cominciò a essere chiamato “Big Bang” – sembrava dunque ciò che i fisici chiamano una singolarità: un punto in cui lo spaziotempo stesso cessa di esistere. Le difficoltà concettuali legate a questa singolarità furono però accantonate, dal momento che il modello del Big Bang riusciva comunque a descrivere con grande efficacia, e in accordo con le osservazioni, l’evoluzione dell’universo da istanti molto prossimi al momento iniziale.
    Nel modello del Big Bang, anche l’estensione spaziale dell’universo può essere, in linea di principio, infinita. Se si assume – coerentemente con il principio copernicano – che non esistono posizioni speciali nello spazio, la relatività generale contempla tre diverse classi di soluzioni per la geometria su grande scala dell’universo. L’universo può essere finito e chiuso su se stesso, in modo simile a una sfera (come nel modello di Einstein), ma anche infinito, come un piano o una sella che si estendono senza limiti (vd. fig. c). In ogni caso, poiché l’universo esiste da un tempo finito, la porzione che ne possiamo effettivamente osservare dalla nostra posizione è, generalmente, finita, delimitata da un orizzonte il cui raggio è pari alla distanza che la luce può aver percorso dal Big Bang a oggi.
    Il modello del Big Bang, nella sua versione più semplice, ci costringe quindi a confrontarci con almeno due tipi di infinito: quello della singolarità iniziale e quello dell’estensione potenzialmente infinita di ciò che esiste al di fuori dell’orizzonte osservabile. Ma le cose si sono fatte ancora più complicate negli sviluppi del modello emersi negli ultimi decenni, e tutt’ora oggetto di indagine teorica e osservativa. Attorno all’inizio degli anni Ottanta del secolo scorso, emerse un nuovo scenario teorico che sembrava chiarire alcuni aspetti problematici delle condizioni da cui è iniziata l’evoluzione dell’universo. Questo scenario, chiamato inflazione cosmica (vd. in Asimmetrie n. 15 [as] Crescita in tempi di inflazione., ndr), prevedeva un periodo di espansione accelerata in un’epoca immediatamente successiva all’ipotetico momento iniziale. Il meccanismo fisico che scatenava l’inflazione era basato su un ingrediente apparentemente molto semplice: l’energia dello spazio vuoto, in grado di esercitare una sorta di azione repulsiva sullo spazio stesso, spingendolo a espandersi. La fase di inflazione aveva, da un lato, l’effetto di “spianare” lo spazio su grande scala, producendo una geometria piatta nell’universo osservabile. Dall’altro, portava alla creazione di piccole disuniformità nella distribuzione iniziale di materia, i “semi” da cui la gravità ha col tempo fatto addensare galassie e ammassi di galassie. Entrambe queste previsioni sono effettivamente in accordo con le osservazioni, e l’idea generica di inflazione è ormai entrata a far parte della descrizione comunemente accettata dell’universo.
    Uno degli aspetti attraenti dell’inflazione è che essa permette di eludere il problema della singolarità iniziale. L’universo può emergere da uno spaziotempo pre-esistente, un “vuoto” (il vuoto quantistico) in cui esistono solo i campi che controllano le interazioni fondamentali. Ciò che chiamiamo Big Bang sarebbe dunque solo il risultato di una fluttuazione nell’energia di una microscopica regione di spaziotempo vuoto. L’energia dell’universo non è mai stata infinita, ma solo estremamente grande. Ma se l’inflazione sembra poter cancellare l’infinito dall’istante iniziale, lo stesso non si può dire per l’estensione spaziale dell’universo. Anzi, in questo senso le cose peggiorano. Il meccanismo dell’inflazione è infatti talmente efficace che, una volta innescato, non è facile interromperlo. Nello scenario di inflazione attualmente più popolare, noto come “inflazione eterna” (vd. fig. d), esistono sempre regioni di spaziotempo che si espandono esponenzialmente. Il nostro universo sarebbe così solo una particolare “bolla” di spaziotempo in espansione, ma un’infinità di altri universi sarebbero continuamente generati a partire da altre regioni di spaziotempo vuoto, fuori del nostro orizzonte. Non solo, ma ciascuno di questi infiniti universi avrebbe diverse caratteristiche fisiche, scaturite dalle condizioni causali presenti nella regione di vuoto da cui esso è emerso. Questa idea di “multiverso” appare, a molti cosmologi, una conseguenza inevitabile delle nostre attuali conoscenze fisiche. Una conseguenza che presenta però enormi problemi concettuali, ancora una volta legati alla presenza dell’infinito. Se infatti esistono infiniti universi con diverse caratteristiche fisiche, prevedere la probabilità di un particolare tipo di universo diventa un compito mal definito – un problema noto in cosmologia come “problema della misura”.
    Tutto ciò segnala, forse, la difficoltà dei nostri strumenti teorici nel trattare situazioni che vanno ben oltre i loro limiti, e la necessità di trovare una sintesi che inglobi e superi le descrizioni, conflittuali e incomplete, della relatività generale e della meccanica quantistica. Dopotutto, forse i fisici hanno ragione a diffidare dell’infinito.
     
    d.
    Nello scenario dell’inflazione eterna, ogni universo può contenere delle regioni che a un certo punto si espandono esponenzialmente, dando origine a quello che a tutti gli effetti è un altro universo, in cui a sua volta possono generarsi altre inflazioni e altri universi. Il processo potrebbe non aver avuto un inizio (da cui il nome “eterna”) ed è uno dei possibili meccanismi per la produzione di un multiverso.



     

    Biografia
    Amedeo Balbi, astrofisico, insegna all’Università di Roma Tor Vergata. I suoi interessi di ricerca spaziano dallo studio dell’universo primordiale, al problema delle componenti oscure, all’emergere della complessità e della vita nel cosmo. Attivo da anni anche sul fronte della divulgazione scientifica, è tra l’altro editorialista della rivista Le Scienze e autore di diversi libri, l’ultimo dei quali è “Cercatori di meraviglia” (Rizzoli, 2014), vincitore del Premio Nazionale di Divulgazione Scientifica 2015.


    Link
    http://www.keplero.org/2009/11/vite-degli-astronomi-9-georges-lemaitre.html
    http://www.keplero.org/2010/10/quanto-e-grande-luniverso.html


    icon-pdf [scarica pdf]

     

     

    {jcomments on}

  • Star Track

    Star Track
    Mettere a fuoco l’universo

    di Luca Latronico

    a.
    Mappa composta della supernova W44. L’emissione gamma registrata da Fermi, in viola, è sovrapposta a osservazioni in X (blu) del satellite Rosat, infrarosso (rosso) di Spitzer e radio (arancione) del Very Large Array (Socorro, New Mexico). La risoluzione nell’immagine gamma è inferiore a quella di altre osservazioni, perché la misura della radiazione di questa energia richiede di convertire i fotoni gamma in coppie di elettrone e positrone le cui tracce vengono perturbate dagli urti che subiscono con i nuclei del convertitore.
    Capita a tutti di sbagliare una foto, magari perché non è a fuoco o perché è mossa. Ma anche la foto migliore non può essere ingrandita a piacere senza perdere di nitidezza: c’è un “errore” intrinseco, legato alla risoluzione della lente dell’obiettivo e alla granularità della pellicola (o alle dimensioni del pixel in una moderna macchina digitale). Gli stessi problemi di risoluzione li ritroviamo nelle osservazioni astrofisiche, anche se qui le foto sono ottenute con raffinati telescopi che utilizzano diverse tipologie di rivelatori. Attraverso questi rivelatori, i fisici riescono a ricostruire le immagini delle stelle e delle galassie lontane, guardando alla radiazione che queste sorgenti emettono. Costruiti per risolvere i grandi problemi aperti in astrofisica, cosmologia e fisica fondamentale, come l’origine e l’accelerazione dei raggi cosmici, la natura della materia oscura o la fisica dei buchi neri, i telescopi della fisica astroparticellare multimessenger osservano una molteplicità di particelle diverse con energie molto elevate, fotoni, neutrini, raggi cosmici carichi e onde gravitazionali (vd. in Asimmetrie n. 21 Tutte le voci dell'universo, ndr). L’osservazione dei fotoni attraverso opportuni rivelatori è concettualmente simile alla vista del cielo notturno a occhio nudo. I fotoni si propagano in linea retta e non sono deviati da campi elettrici e magnetici, restituendoci l’immagine della sorgente da cui provengono. La densità di questa radiazione è elevata e permette di vedere migliaia di sorgenti, anche se il loro flusso decresce rapidamente con l’energia, richiedendo telescopi sempre più sensibili per captare le emissioni più energetiche e interessanti. L’accuratezza di queste osservazioni si fonda su due concetti, in perfetta analogia a quanto sperimentiamo con un binocolo o un telescopio amatoriale. Per osservare il cielo ci occorrono dei punti di riferimento, tipicamente stelle con posizioni, nomi e caratteristiche note. La necessità dei riferimenti diventa ancora più critica se il campo di vista del nostro strumento è piccolo e possiamo visualizzare solo poche stelle di riferimento. Dovremo poter rapidamente identificare quelle note su una mappa e affidarci a un sistema di puntamento stabile, da un semplice treppiede e fino a raffinate meccaniche di movimentazione, che non modifichi l’immagine che osserviamo mentre troviamo i punti di riferimento. Anche tutte le osservazioni dei satelliti, dalle immagini di galassie lontane del telescopio Hubble alle rilevazioni Gps per mappare la superficie terrestre, richiedono l’uso di sistemi avanzati di tracciamento di stelle (cosiddetti star tracker). Questi navigatori spaziali, sistemi compatti basati su sensori e micro-processori integrati, calcolano istante per istante la direzione di puntamento del satellite che equipaggiano, confrontando la posizione delle stelle visualizzate sul sensore con cataloghi di riferimento, con una precisione di qualche secondo di arco (un 3600-mo di grado). Il secondo concetto è quello della risoluzione, cioè la capacità dello strumento di ricostruire fedelmente l’immagine che osserviamo. Nelle macchine fotografiche digitali, una buona lente convoglia la luce su un piano, opportunamente posizionato al fuoco e suddiviso in milioni di sensori (pixel) per non mescolare sul singolo sensore la luce proveniente da punti lontani. I telescopi sviluppati nei laboratori di ricerca sono ottimizzati in tutti gli aspetti che influenzano la ricostruzione dell’immagine, dai sistemi di focalizzazione della radiazione incidente, alla granularità e sensibilità dei singoli sensori che la raccolgono e la trasformano in segnali elettrici, alla dinamica dell’elettronica che li elabora in segnali digitali, al software che viene utilizzato per comporre le immagini.
    Nelle osservazioni scientifiche ci si dota di un modello matematico della risposta dello strumento in un singolo punto luminoso, chiamato point spread function (Psf), che descrive come un singolo punto venga “spalmato” su un’area più grande a causa di effetti strumentali. La Psf si ottiene attraverso simulazioni e calibrazioni dirette degli strumenti e la sua formulazione analitica consente di elaborare la risposta a immagini morfologicamente complesse e di analizzare le osservazioni in maniera quantitativa, per esempio per contare quanti fotoni associare a ciascuna sorgente nel campo di vista o all’interno di una struttura estesa e complessa come il resto di una supernova. L’astrofisica moderna misura l’intero spettro elettromagnetico, dalle emissioni infrarosse, legate alla temperatura delle stelle e con energie di millesimi di eV (meV), fino alla radiazione X e gamma da mille (keV) a mille miliardi (TeV) di volte più energetica del visibile (vd. in Asimmetrie n. 10 Il lato oscuro dell'universo, ndr). Per studiare i fotoni gamma di origine cosmica, i messaggeri per noi più interessanti perché associati a enormi trasferimenti di energia nell’universo, l’Infn ha costruito il “tracciatore a microstrip di silicio” più grande per lo spazio, di ben 73 m2 di superficie attiva. È il Large Area Telescope (Lat), che opera sul satellite Fermi a 560 km di altitudine, fuori dello schermo dell’atmosfera terrestre (vd. in Asimmetrie n. 10 Il cielo inquieto, ndr). Il Lat è disegnato per misurare l’energia e la direzione dei fotoni attraverso la loro conversione in coppie elettrone-positrone. Per fotoni con energia di alcune centinaia di MeV la risoluzione angolare dell’apparato è di qualche grado e migliora fino a un decimo di grado per energie maggiori di 1 GeV. Selezionando i fotoni di alta energia si possono quindi ottenere immagini delle sorgenti con migliore risoluzione. I telescopi per raggi X, come Chandra o Xmm, invece, sono dotati di specchi riflettenti a incidenza radente, in grado di focalizzare i fotoni su speciali sensori di raccolta ad altissima granularità. La loro risoluzione si aggira pertanto intorno a valori tipici di qualche decina di arcosecondo. Di recente l’Infn ha introdotto un nuovo rivelatore di radiazione X, il gas pixel detector (Gpd), che per la prima volta permette di misurare efficacemente la polarizzazione della radiazione incidente, fortemente legata alla geometria della sorgente. I Gpd sono il cuore di una nuova classe di missioni spaziali come quella recentemente approvata dalla Nasa, Ixpe, capaci di realizzare vere e proprie mappe di polarizzazione della radiazione emessa da sistemi con campi gravitazionali e magnetici estremi, come buchi neri e stelle di neutroni.
     
    b.
    Il cielo gamma di Fermi osservato ad alta (sinistra) e altissima energia (destra), con un ingrandimento della zona del centro galattico e delle Fermi Bubbles, una sorgente estesa 50.000 anni luce di natura ignota, che potrebbe essere il residuo dell’eruzione preistorica di un buco nero super-massiccio al centro della Via Lattea. Il confronto tra le immagini mostra l’effetto combinato del flusso delle sorgenti, che cresce molto velocemente a bassa energia e determina la maggiore intensità e numero di sorgenti nella mappa di sinistra, e della risoluzione del Lat, che migliora ad alta energia e permette di avere immagini più nitide quando utilizziamo solo i fotoni di altissima energia (a destra).
     

    Biografia
    Luca Latronico è un ricercatore dell’Infn a Torino. Per scoprire da dove arrivano i raggi cosmici e come è fatta la materia oscura, progetta rivelatori per la fisica astroparticellare. Ha lavorato a Pisa, Genova e Torino per l’esperimento Cms a Lhc, l’osservatorio Auger in Argentina e le missioni spaziali Fermi, di cui è responsabile italiano, e Ixpe.


    Link
    https://www.nasa.gov/content/fermi-gamma-ray-space-telescope
    https://wwwastro.msfc.nasa.gov/ixpe/index.html


    icon-pdf [scarica pdf]

     

     
    DOI: 10.23801/asimmetrie.2017.22.5
     

    {jcomments on}

  • Tutte le voci dell’universo

    Tutte le voci dell’universo
    Strategie multimessenger per esplorare il cosmo

    di Maurizio Spurio


    a.
    L’ingresso dei laboratori sotterranei del Gran Sasso.
    Il ’900 ha visto evolversi una sempre più acuta diversificazione tra fisici delle particelle, astrofisici e cosmologi. Questo ha portato alla formazione di comunità scientifiche specializzate, alla nascita di “modelli standard” indipendenti per il microcosmo e il macrocosmo (il modello standard delle particelle e quello cosmologico, vd. Ai confini della realtà, ndr), basati ciascuno su tecniche sperimentali specifiche. Lo sviluppo di strumenti per la rivelazione della radiazione elettromagnetica è stato alla base delle osservazioni astronomiche, mentre la tecnologia per i rivelatori di particelle, per lungo tempo, è rimasta ancorata ai laboratori di alta energia e agli esperimenti con gli acceleratori. La situazione è iniziata a cambiare negli ultimi decenni, con la nascita di laboratori ed esperimenti sotterranei, con la possibilità di misurare efficacemente sul suolo sciami estesi di particelle, con la capacità di inviare nello spazio rivelatori di particelle leggeri, compatti ed efficienti e, infine, con la straordinaria qualità degli interferometri, finalmente capaci di rivelare le onde gravitazionali. La disponibilità di questi nuovi rivelatori, che permettono l’osservazione dei raggi cosmici carichi (protoni e nuclei) e neutri (raggi gamma, neutrini) e delle onde gravitazionali, unita a quella dei telescopi e rivelatori (ottici, radio, UV, microonde) tradizionalmente usati in astronomia, permetterà di aprire nei prossimi decenni nuovi scenari nella conoscenza del microe del macrocosmo. La strada comune, recentemente imboccata dalla comunità dei fisici astroparticellari e degli astronomi, è detta “astronomia multimessenger” e consiste nello studio del macrocosmo anche con le tecniche sperimentali del microcosmo. La potenza di questo approccio è quella di poter validare i modelli astrofisici proposti in modo completo, permettendo di escludere, o riformulare, i modelli che concordano con una parte delle osservazioni ma non con i dati raccolti dagli altri strumenti. Con una similitudine che richiama i nostri cinque sensi, potremmo approssimare l’approccio dell’astronomia tradizionale con l’uso dei soli occhi. I raggi cosmici, i raggi gamma, le onde gravitazionali e i neutrini rappresenterebbero allora gli altri sensi. E come tutti sanno, una buona pizza, ad esempio, non si giudica solo con gli occhi! Storicamente, le prime osservazioni multimessenger hanno avuto luogo nei laboratori sotterranei (come i Laboratori Infn del Gran Sasso), nati per ospitare esperimenti per la verifica di teorie oltre il modello standard delle particelle. Questi siti offrono l’ambiente ideale per misurare il flusso di neutrini prodotti dalle reazioni che avvengono per la nucleosintesi nel Sole o durante il collasso gravitazionale di stelle massive. È successo ad esempio con l’osservazione della supernova SN1987A, identificata il 24 febbraio 1987 ed esplosa a 170 mila anni luce dalla Terra, nella nube di Magellano. I modelli prevedono che le supernovae come la SN1987A rilascino il 99% dell’energia di legame gravitazionale sotto forma di neutrini e questo è stato verificato con la SN1987A. La misura con alta statistica oggi possibile (migliaia o decine di migliaia di interazioni, ad esempio, per una supernova nel centro della nostra galassia) dello spettro energetico e temporale dei neutrini in arrivo permetterebbe finalmente di affinare i modelli e comprendere cosa avviene durante il collasso di una supernova. Senza dimenticare che potremmo avere indicazioni sulle proprietà dei neutrini e sulla loro oscillazione (vd. Con passo leggero, ndr).
     
    b.
    L’esperimento Xenon in fase di costruzione nei Laboratori del Gran Sasso. È uno dei rivelatori in cui i fisici sperano di “vedere” le Wimp, possibili particelle di materia oscura.
     
    L’universo primordiale offre le più importanti connessioni tra particelle, astrofisica e cosmologia. Il suo studio ha evidenziato gravi inconsistenze tra “modelli standard”. Osservazioni astrofisiche e cosmologiche mostrano che la maggior parte (circa il 69%) della densità di energia è sotto l’oscura (in tutti i sensi) forma di energia oscura, il 26% sotto forma di materia oscura e solo il 5% è materia compresa nel modello standard delle particelle. Inoltre, è ignoto il perché questo 5% sia composto quasi esclusivamente di materia (ossia di protoni ed elettroni) e non di materia e antimateria. Le misure che permettono di ricavare i parametri cosmologici sono basate sulla radiazione elettromagnetica. L’osservazione di eventi caratteristici (come, ad esempio, la coalescenza di due stelle di neutroni) tramite onde gravitazionali potrebbe aprire un modo indipendente con cui verificare nel prossimo futuro l’attuale modello standard cosmologico. Il problema della comprensione della materia oscura è quello che sta richiedendo (e richiederà) i maggiori sforzi globali in termini di informazioni multimessenger. I candidati di materia oscura sinora preferiti dai fisici delle particelle sono le Wimp (Weakly Interacting Massive Particles, vd. Lo zoo oscuro, ndr). La ricerca di materia oscura è in programma con acceleratori, con tecniche tradizionali di fisica passiva in laboratori sotterranei, con rivelatori di neutrini e di raggi gamma. Oltre alle Wimp sono in corso ricerche, e si stanno vagliando nuove opportunità sperimentali, per altre ipotetiche particelle quali, ad esempio, gli “assioni” (vd. Un vento leggero, ndr) e i neutrini sterili massivi (vd. Misteri sfuggenti, ndr), che hanno caratteristiche compatibili con le osservazioni astrofisiche.
    Le sorgenti di raggi cosmici carichi sono ancora un capitolo di studio aperto. Oggetti astrofisici accelerano particelle anche oltre a 1020 eV, ossia circa 7 ordini di grandezza oltre l’energia di Lhc. Chi siano e dove siano ubicati gli “acceleratori cosmici” oltre il PeV (1015 eV) è ancora oscuro e potremmo chiarirlo solo rivelando sonde neutre di alta energia. Per questo scopo, apparati per misurare raggi gamma sono posti su satelliti o distribuiti su grandi aree della superficie terreste, mentre i neutrini sono studiati tramite enormi telescopi posti in profondità nel Mar Mediterraneo o sotto il ghiaccio dell’Antartide. L’osservazione simultanea di un evento cosmico con onde gravitazionali, fotoni (i messaggeri della radiazione elettromagnetica) e neutrini (o, per iniziare, con due su tre di queste sonde) sarebbe epocale. Ci si attende che le onde gravitazionali e quelle elettromagnetiche si propaghino alla stessa velocità e che i neutrini dovrebbero leggermente ritardare a causa della loro (piccola) massa. Tali verifiche sperimentali toccano di per sé aspetti fondamentali della fisica. Tacendo il fatto che un’osservazione permetterebbe di determinare limiti e/o valori sulla massa dei oncomitanza di un gamma ray burst, una potentissima esplosione cosmica che produce un intenso flusso (“lampi”) di raggi gamma di alta energia. In tal caso, ci si aspetta che lo spettro energetico dei neutrini sia strettamente correlato con quello dei raggi gamma e che eventuali distorsioni nello spettro misurato potrebbero indicare segnali di presenza, ad esempio, di neutrini sterili. Lo studio congiunto di particelle neutre e cariche in arrivo da uno stesso oggetto astrofisico potrebbe permettere di stimare il valore dei campi magnetici extragalattici, informazione rilevante per comprendere l’evoluzione delle strutture cosmiche. Se alcuni gamma ray burst fossero dovuti alla coalescenza di oggetti di massa nota (per esempio stelle di neutroni, come verificato se si osservassero le corrispondenti onde gravitazionali), l’osservazione congiunta di fotoni e neutrini provenienti da questi oggetti aprirebbe un nuovo capitolo per lo studio delle interazioni di particelle in arrivo con energie irraggiungibili con tecniche terrestri. “Next” non potrà che essere il tentativo di unificare i diversi modelli standard. Capire se davvero non conosciamo il 95% dell’universo e, nel caso affermativo, da cosa questo è composto. A tale scopo, le osservazioni multimessenger non sono solo un vantaggio, ma una necessità.
     
    c.
    Una stringa del rivelatore Km3net-Arca, equipaggiata con 18 moduli ottici. Ogni stringa è alta 700 metri e viene deposta a 3500 m di profondità al largo di Capo Passero (Mar Ionio). Durante la posa la stringa è avvolta nel suo modulo di lancio, una sfera di appena 2 metri di diametro. L’ancora e una boa (non visibile nella foto) permettono di mantenere la stringa in verticale sott’acqua.
     

    Biografia
    Maurizio Spurio è professore all’Università di Bologna. È autore del libro “Particles and Astrophysics: a multi-messenger approach” edito da Springer. Ha svolto ricerche con l’Infn in fisica e astrofisica dei neutrini, prima nell’esperimento Macro al Gran Sasso, ora nel telescopio Antares di cui è vice-coordinatore.


    icon-pdf [scarica pdf]

     

     

    {jcomments on}

 ©asimmetrie   Istituto Nazionale di Fisica Nucleare / via E. Fermi 40 / 00044 Frascati [Roma] Italia
Ufficio Comunicazione INFN / P.zza dei Caprettari 70 / 00186 Roma Italia
Registrazione del Tribunale di Roma n. 336/2012 del 7 dicembre 2012
powered by Multimedia Service e INFN-LNF servizio di calcolo
Informativa sulla Privacy e Cookie Policy