Grande come il mondo
La rete, dalle particelle ai social network
di Egidio Longo

Oggi la rete connette più di due miliardi di persone in tutto il mondo. Tenendo conto della distribuzione uniforme dei suoi utenti su tutto il pianeta, si può dire che in qualunque istante del giorno e della notte, ad esempio proprio ora mentre state leggendo questo articolo, ci sono un centinaio di milioni di persone connesse che possono scambiarsi istantaneamente un messaggio, vedere contemporaneamente una stessa immagine, ascoltare lo stesso pezzo musicale, leggere lo stesso articolo di giornale e soprattutto far sapere a tutti gli altri che lo stanno facendo. Per quanto possa sembrare inverosimile, questa rivoluzione che ha modificato nel profondo le telecomunicazioni con conseguenze economiche incalcolabili, che ha inciso sulle modalità di lavoro, sulla fruizione del tempo libero di ciascuno di noi, che è arrivata negli ultimi tempi persino a modificare profondamente le dinamiche politiche e sociali di paesi che sembravano irrimediabilmente lontani dalla modernità, è nata nell’ambiente dei fisici delle particelle.
In realtà, fin dalla nascita di questo campo di ricerca nella prima metà del Novecento, i fisici delle particelle hanno operato attraverso una fitta rete internazionale di scambi e collegamenti. E almeno in questo settore, grazie al prestigio e ai rapporti internazionali di Enrico Fermi, la scuola italiana è sempre stata parte integrante di questa rete, non soffrendo mai di quella provincializzazione che ha rallentato in altri settori lo sviluppo della scienza italiana. Fermi, giovanissimo, visitò Gottinga e Leida, dove conobbe e si fece apprezzare da Born e Einstein. Dagli inizi degli anni trenta prese l’abitudine di spedire i suoi giovani allievi per periodi più o meno lunghi nei più prestigiosi laboratori del mondo a discutere le loro ricerche o a imparare qualche nuova tecnica sperimentale.
a.
Sopra, il numero di utenti di internet suddiviso per regioni geografiche: i quadrati in colore tenue rappresentano la popolazione totale di ciascuna regione, i quadrati ad essi interni, in colore pieno, ne indicano la parte connessa in rete. Sotto, la crescita del numero di utenti, dal 1995 ad oggi.
Così, quando il collegamento in rete dei computer, quello che oggi chiamiamo internet (contrazione dell’inglese interconnected networks, ovvero reti interconnesse), nato in ambito militare intorno alla fine degli anni ’60 (vd. approfondimento Viaggiare informatici), si trasformò in una rete sviluppata appositamente per la ricerca scientifica, l’Infn non si fece trovare impreparato. Anzi, per tutto un periodo tra la fine degli anni ’70 e gli inizi degli ’80, l’Infn si trovò all’avanguardia, rispetto ad altri istituti tra i quali lo stesso Cern (il laboratorio europeo della fisica delle particelle a Ginevra, in Svizzera), grazie all’adozione diffusa dei Vax (Virtual Address eXtension) della Digital: piccoli computer modulari dal sistema operativo avanzatissimo ed estremamente “user-friendly”, facilmente integrabili tra loro in una rete ethernet (un protocollo per la trasmissione di dati su una rete locale compatibile con la connessione a internet, tuttora largamente utilizzato), alternativa modernissima, ma niente affatto scontata ai grandi calcolatori mainframe (calcolatori di grande potenza, che richiedevano uno spazio adeguato e una poderosa struttura di servizio, ai quali si poteva accedere tramite terminali) allora privilegiati dai centri di calcolo di molte università e centri di ricerca. Attraverso il sistema operativo dei Vax era semplicissimo scambiare mail e messaggi istantanei tra le varie sedi dell’ente e con il Cern. Ricordo ancora le ore e ore passate a scambiare informazioni scientifiche, ma anche a “chattare” (naturalmente nessuno di noi sapeva che un giorno si sarebbe detto così) con qualche collega al Cern o semplicemente nella stanza accanto, tanto era stimolante la novità della cosa. Sempre all’Infn si deve la prima backbone (spina dorsale) della rete italiana, sviluppata da quello che sarebbe poi diventato il Garr (Gruppo per l’Armonizzazione delle Reti della Ricerca) (vd. Prima del web: Infn-Net.). L’idea del web (ragnatela) nasce per rispondere all’esigenza di una condivisione automatica di informazioni tra scienziati che lavoravano in università ed enti di ricerca sparsi nel mondo, e che gravitavano attorno al Cern. Nel 1989, l’anno in cui entrava in funzione il Lep (l’acceleratore di particelle che ha permesso di verificare con fantastica precisione il modello standard delle interazioni fondamentali), il Cern contava già tra i suoi associati 6000 scienziati provenienti da tutte le università del mondo. La prima proposta fu formulata da Tim Berners-Lee nel 1989, e alla fine del 1990 esisteva già un prototipo funzionante, sviluppato in collaborazione con Robert Cailliau (vd. Yes! That’s it!). Nel 1991 il sistema era già in grado di funzionare su un qualunque personal computer e un gran numero di università e di centri di ricerca iniziò a usarlo. Subito dopo, il sistema fu reso disponibile in internet a qualunque utilizzatore, in maniera del tutto gratuita, e si cominciò a usare il termine “www” (World Wide Web, o “ragnatela estesa a tutto il mondo”).
Tim Berners-Lee.b.
L’inventore del World Wide Web, Tim Berners-Lee.
[as] approfondimento
Gli ingredienti del web

Già alla fine degli anni ’80 gli ingredienti del web erano tutti più o meno disponibili, alcuni addirittura da parecchi anni. Si potrebbe dire che le tecnologie necessarie erano tutte lì, in attesa che qualcuno, come poi fece Tim Berners-Lee, le mettesse insieme. Vediamone gli elementi fondamentali: il concetto di ipertesto, ossia un testo scritto in una lingua ordinaria, nel quale alcune parole nascondono dei collegamenti (o link) che rinviano ad altre pagine di testo o a immagini; un sistema di indirizzamento (detto Url) che permette di rappresentare questi collegamenti in maniera sintetica; un linguaggio (Html) che permetta in maniera semplice di codificare queste informazioni nel testo, che poi appare nella lingua ordinaria; un certo numero di protocolli (come Ftp, Http) che permettono al sistema di riconoscere le diverse tipologie di file; infine, un browser ( dall’inglese to browse, “sfogliare”), una interfaccia utente intuitiva e user-friendly che permette di operare in maniera semplice (con un click del mouse!) sui campi dell’ipertesto (come ad esempio Firefox o Internet Explorer). Benché tutte queste componenti, come detto, esistessero già (famoso era hypercard della Apple, il primo software per la creazione di ipertesti a grande diffusione), Berners-Lee ebbe l’intuizione di mettere tutto insieme in un sistema integrato e di stabilire uno standard universale, attraverso una ridefinizione delle varie componenti, che nella versione da lui proposta sono poi quelle che sostanzialmente si usano ancora adesso.

Il vantaggio complessivo di questo sistema è che da un qualunque computer personale, conoscendo soltanto l’indirizzo virtuale (l’Url) di una pagina, si può accedere ai suoi contenuti, e se questi sono a loro volta ipertestuali, ossia contengono altri link, saltare di pagina in pagina attraverso tutta la rete. Non si deve sapere dove si trova fisicamente un certo file di dati, e neanche in quale formato questi sono codificati (si tratti di un testo, di una immagine o altro), perché questa informazione è contenuta nello stesso file di dati e il browser sa da solo (attraverso il protocollo) come riconoscerlo e come trattarlo. Non bisogna confondere il web con internet: internet esisteva da molto prima del web. Solo che prima era necessario essere uno specialista di software per utilizzare le potenzialità della rete. Con il web, anche una persona inesperta può navigare in internet.

Qualcuno potrebbe obiettare che il coinvolgimento del Cern nell’invenzione del web potrebbe essere avvenuto in maniera piuttosto casuale: se una persona geniale come Berners-Lee si fosse trovata a lavorare a quel tempo intorno a problemi simili in una grande società di informatica o di nuove tecnologie, il web forse sarebbe nato lo stesso.

Tuttavia non c’è dubbio che la repentina e vertiginosa diffusione del web al di fuori del Cern è legata soprattutto alla filosofia dell'open access, ossia dell’accesso libero e gratuito alle scoperte e alle innovazioni scientifiche, che è tipica di un grande laboratorio internazionale di ricerca fondamentale come lo è il Cern, ed è lontanissima invece dalla logica delle grandi società che sviluppano nuove tecnologie. Non si può fare a meno di ricordare come ancora nel 1995, quattro anni dopo la nascita del web, all’epoca già utilizzato da oltre 15 milioni di persone in tutto il mondo, Bill Gates bollò l’uso personale di internet come una moda passeggera, e fu poi costretto a correre ai ripari alla fine dello stesso anno, lanciando in tutta fretta la prima lacunosa versione di Internet Explorer della Microsoft, che sarebbe diventato in pochi anni il browser più diffuso nel mondo.

c.
L’autobus “wiki wiki” sulle Isole hawaiane, da cui prendono il nome le pagine wiki. Il padre della prima pagina wiki, Ward Cunningham, si ispirò al nome “wiki wiki” usato per i bus navetta dell’aeroporto di Honolulu, sulle isole Hawaii. “Wiki wiki” in lingua hawaiiana significa “rapido” oppure “molto veloce”.
[as] approfondimento
Social network
Mappa mondiale della popolarità dei social network1.
Mappa mondiale della popolarità dei social network per paese, aggiornata a giugno 2012, e classifica di popolarità in alcuni paesi. (fonte Google Trends for Website/Alexa, Vincenzo Cosenza vincos.it)

Se con l’avvento del web il modo di comunicare a distanza ha subito una prima rivoluzione grazie alle email, la nascita del web 2.0 ha provocato una seconda rivoluzione nei rapporti sociali grazie allo sviluppo dei social network. In Europa e in America, come in tutto il resto del mondo, la stragrande maggioranza delle persone, perlomeno quelle fino ai 45 anni di età, fa parte di almeno un social network. Da questo punto di vista i social network abbattono le frontiere tra gli stati e addirittura tra i continenti. Persone che abitano in paesi diversi possono tenersi in contatto in tempo reale, ritrovare vecchi amici o incontrarne di nuovi. È un fenomeno in continua evoluzione. Tutto incominciò già nel 1997, ancor prima dell’invenzione delle pagine wiki, quando venne lanciato il sito web Six Degrees, il cui nome deriva dall’idea che due abitanti qualsiasi del mondo possono essere collegati tra loro con solo sei contatti intermedi. Anche se dopo tre anni Six Degrees fu chiuso, erano state gettate le basi che portarono nel 2002 alla nascita di Friendster, finalizzato all’organizzazione di appuntamenti fra i suoi utenti, e poi nel 2003 di MySpace e LinkedIn: il primo ebbe grande successo tra gli artisti, il secondo diventò il riferimento per i professionisti di tutto il mondo. Ma l’inizio della vera e propria rivoluzione è il 2004, con la nascita del popolare sito Facebook. Inventato dal giovane studente dell’Università di Harvard Mark Zuckerberg per connettere fra loro gli studenti dell’università, dal 2006 si è espanso a livello mondiale, rendendo Zuckerberg in poco tempo un miliardario. In Italia, gli utenti sono oltre 20 milioni: circa un italiano su tre ha un profilo Facebook. Resistono a questa inarrestabile diffusione alcune aree geografiche, che continuano a preferire social network locali, a volte a causa di censure politiche: in Cina spopola Qzone, in Kazakistan Odnoklassniki, in Russia VKontakte, in Vietnam Zing e nella piccola Lettonia Draugiem (vd. fig. 1). Il 2006 è stato anche l’anno della nascita di Twitter, un servizio di “microblogging” che offre agli utenti una pagina personale, dove inserire messaggi di non oltre 140 caratteri. Twitter ha incontrato un notevole successo tra le star del cinema e gli sportivi più famosi e tale fama ha permesso di raggiungere più di 200 milioni di iscritti e circa 65 milioni di tweet al giorno. In Italia il boom di Twitter si è registrato solo nell’ultimo anno. Nel giugno 2011 il popolare motore di ricerca ha lanciato Google+, con l’intento di sfidare il colosso di Facebook. I numeri per ora non gli danno ragione.

E invece è proprio la filosofia dell’open access alla rete che ha maggiormente contribuito alla rivoluzione culturale associata al web. Non si tratta soltanto della possibilità di accedere gratuitamente a contenuti di informazione e ad altre risorse che solitamente richiedono un costo unitario all’utente, ma del fatto di “condividere” con altri le proprie risorse, in un rapporto di scambio che arricchisce in maniera esponenziale tutti i partecipanti al crescere del loro numero. Questa filosofia compie un nuovo passo in avanti con l’introduzione di quello che spesso viene chiamato web 2.0 e che consiste nella possibilità da parte dell’utente di interagire in maniera semplice con i siti web (di nuovo senza essere un esperto informatico), per inserire propri contenuti e renderli immediatamente accessibili ad altri utenti. L’interazione con la pagina web diventa così bidirezionale. Lo strumento di base è la pagina wiki, ossia una pagina web che l’utente può non solo leggere, ma anche modificare, e che diventa così il motore per lo sviluppo simultaneo di contenuti condivisi da parte di un numero praticamente illimitato di utenti e fornitori. Inutile dire che le pagine wiki sono il cuore di Wikipedia, l’enciclopedia libera online. Ma altri esempi di web 2.0 sono i blog (vd. Fisica 2.0), i forum, i social network (come Facebook o Twitter, vd. approfondimento) o anche semplicemente le chat. E un aspetto parallelo è quello dello sviluppo dei motori di ricerca (vd. Chi cerca trova). Un’altra idea nata tra i fisici e che ha avuto una grande influenza sulla filosofia dell’open access è stato lo sviluppo dell’arXiv (vd. Open science ), archivio aperto e online di preprint (articoli non ancora approvati per la pubblicazione in una rivista scientifica). Si può dire che l’arXiv è stato una delle cause scatenanti di un processo di ridefinizione del concetto stesso di proprietà intellettuale, dalle enormi implicazioni socio-economiche via via che venivano coinvolte tutte le forme di produzione culturale (libri, musica, film ecc.). Oggi nuovi paradigmi basati sul continuo sviluppo della rete stanno rivoluzionando ancora una volta su scala mondiale le modalità di utilizzazione delle risorse di calcolo: sono il Grid computing e il Cloud computing, due approcci nei quali la potenza di calcolo e l’accesso ai file personali dell’utente vengono delocalizzati in server remoti, a cui l’utente può accedere da qualunque postazione connessa con la rete. Come agli albori del web, la fisica delle particelle svolge un ruolo guida sia nel fissare gli obiettivi, legati alla insaziabilità di potenza di calcolo e di storage (“immagazzinamento”) dei dati dei grandi esperimenti come quelli dell’acceleratore di particelle Lhc (Large Hadron Collider) inaugurato nel 2008 al Cern, sia nel realizzare e nello sperimentare le tecniche necessarie per questi sviluppi. E l’Infn continua a essere in prima fila nei più importanti progetti internazionali (vd. Griglie e nuvole).

Se la scienza, e la fisica in particolare, è stata il motore di queste rivoluzioni, gli aspetti sistemici della interconnessione in rete sono divenuti a loro volta oggetto di ricerca scientifica (vd. Società interconnessa). E a sua volta, lo studio della rete diventa paradigmatico per lo studio dei sistemi complessi, tornando a retroagire sulle teorie fisiche della complessità. Il processo è piuttosto facile da spiegare: la struttura stessa della rete informatica rende molto semplice il suo monitoraggio, per cui si può raccogliere una mole enorme di dati sul comportamento della rete. Mettendo ordine in questi dati, si può sviluppare una teoria delle reti (come si formano e si gestiscono le code, come si possono sfruttare i collegamenti alternativi ecc.). Se ora si individuano sistemi di interconnessioni completamente diversi (la rete degli scambi commerciali o finanziari, o la rete delle sinapsi neuronali), le teorie che funzionano per la rete informatica possono essere utilizzate per comprendere od ottimizzare i funzionamenti di queste altre reti. È facile capire come si può andare ben oltre la semplice ricaduta tecnologica, arrivando a un nuovo paradigma culturale che incide profondamente sull’interpretazione di realtà tra loro diversissime del mondo in cui viviamo, siano esse naturali, come il cervello degli esseri viventi, od opera dell’uomo, come la finanza o i mercati.

Questo è il motivo per cui il web è stato non solo una incredibile innovazione tecnologica, ma anche una vera rivoluzione culturale, ancora in frenetica evoluzione dopo venti anni dalla sua introduzione.

La fattoria dei Pc al Cernd.
La “fattoria dei Pc” al Cern, dove vengono immagazzinati i dati prodotti dall’acceleratore Lhc, che ogni anno potrebbero riempire unapila di cd alta 20 km. Per gestire quest’enorme mole di dati è stata sviluppata la Grid che permette di condividere la capacità di calcolo di altri computer collocati in diversi paesi del mondo.

Biografia

Egidio Longo insegna alla Sapienza, Università di Roma, e svolge attività di ricerca in fisica delle particelle elementari. È membro della collaborazione Cms che conduce un esperimento nell’acceleratore Lhc del Cern.


icon-pdf [scarica pdf]

 

{jcomments on}